Категории: Разное

Чат-боти штучного інтелекту з часом стають все гіршими — академічна стаття

Нещодавнє дослідження під назвою «Великі мовні моделі з більшою інструкцією стають менш надійними», опубліковане Nature Scientific Journal, показало, що чат-боти зі штучним інтелектом з часом роблять все більше помилок у міру випуску нових моделей.

Лексін Чжоу, один із авторів дослідження, висунув теорію, що оскільки моделі штучного інтелекту оптимізовані, щоб завжди надавати правдоподібні відповіді, на перший погляд правильні відповіді мають пріоритет і передаються кінцевому користувачеві незалежно від точності.

Ці галюцинації штучного інтелекту самопідсилюються та мають тенденцію до поєднання з часом — явище посилюється використанням старих великих мовних моделей для навчання нових великих мовних моделей, що призводить до «колапсу моделі».

Редактор і письменник Матьє Рой попередив користувачів, щоб вони не надто покладалися на ці інструменти та завжди перевіряли результати пошуку, згенеровані штучним інтелектом, на наявність невідповідностей:

«Хоча ШІ може бути корисним для ряду завдань, користувачам важливо перевіряти інформацію, яку вони отримують від моделей ШІ. Перевірка фактів має бути одним із етапів процесу використання інструментів штучного інтелекту. Це ускладнюється, коли задіяні чат-боти служби підтримки клієнтів».

Що ще гірше, «часто немає способу перевірити інформацію, крім запиту в самого чат-бота», — стверджував Рой.

За темою: OpenAI збирає додаткові 6,6 мільярда доларів США при оцінці в 157 мільярдів доларів

Вперта проблема галюцинацій ШІ

Платформа штучного інтелекту Google викликала глузування в лютому 2024 року після того, як ШІ почав створювати історично неточні зображення. Приклади цього включали зображення кольорових людей як нацистських офіцерів і створення неточних образів відомих історичних діячів.

На жаль, подібні інциденти надто поширені з поточною ітерацією штучного інтелекту та великих мовних моделей. Керівники галузі, включаючи генерального директора Nvidia Дженсена Хуанга, запропонували пом’якшити галюцинації ШІ, змусивши моделі ШІ проводити дослідження та надавати джерела для кожної окремої відповіді, наданої користувачеві.

Однак ці заходи вже представлені в найпопулярнішому ШІ та моделях великих мов, але проблема галюцинацій ШІ залишається.

Нещодавно, у вересні, генеральний директор HyperWrite AI Метт Шумер оголосив, що нова модель компанії 70B використовує метод під назвою «Налаштування відображення», який нібито дає боту ШІ спосіб навчання, аналізуючи власні помилки та коригуючи свої відповіді з часом.

CryptoHamster

Недавние статьи

Засновника криптовалютної “схеми Понці” IcomTech засудили до 10 років в’язниці

Девід Кармона, засновник криптовалютної схеми «Понці» IcomTech, був засуджений до 10 років в'язниці за змову…

4 години ago

Ким був Лен Сассаман і чому HBO може вважати його Сатоші Накамото?

Померлий комп’ютерний науковець і захисник конфіденційності Лен Сассаман несподівано опинився в центрі уваги, оскільки букмекери…

4 години ago

RENDER: «Uptober» може з’явитися пізніше, оскільки токен втрачає 13%

Відображення (RENDER) має низьку ефективність в умовах поточного відкату ринку, в результаті чого токен зазнав…

5 години ago

«Генеральний план FLOKI»: криптовалютний аналітик прогнозує стрибок на 2000% для конкурента Shiba Inu

За словами криптовалютного аналітика, незважаючи на низхідну тенденцію протягом усього тижня, Floki (FLOKI) залишається значно…

7 години ago

CleanSpark повідомляє про зростання хешрейту на 187%.

Відповідно до неаудованого звіту за фінансовий рік, опублікованого 4 жовтня, біткойн-майнер CleanSpark за останні 12…

7 години ago

Криптодружній ігровий гігант Tencent розглядає можливість викупу Ubisoft: звіт

Повідомляється, що китайський технологічний та ігровий гігант Tencent і сім’я Гіллемот ведуть переговори про придбання…

8 години ago