Чат-боти штучного інтелекту з часом стають все гіршими — академічна стаття

Нещодавнє дослідження під назвою «Великі мовні моделі з більшою інструкцією стають менш надійними», опубліковане Nature Scientific Journal, показало, що чат-боти зі штучним інтелектом з часом роблять все більше помилок у міру випуску нових моделей.

Лексін Чжоу, один із авторів дослідження, висунув теорію, що оскільки моделі штучного інтелекту оптимізовані, щоб завжди надавати правдоподібні відповіді, на перший погляд правильні відповіді мають пріоритет і передаються кінцевому користувачеві незалежно від точності.

Ці галюцинації штучного інтелекту самопідсилюються та мають тенденцію до поєднання з часом — явище посилюється використанням старих великих мовних моделей для навчання нових великих мовних моделей, що призводить до «колапсу моделі».

Редактор і письменник Матьє Рой попередив користувачів, щоб вони не надто покладалися на ці інструменти та завжди перевіряли результати пошуку, згенеровані штучним інтелектом, на наявність невідповідностей:

«Хоча ШІ може бути корисним для ряду завдань, користувачам важливо перевіряти інформацію, яку вони отримують від моделей ШІ. Перевірка фактів має бути одним із етапів процесу використання інструментів штучного інтелекту. Це ускладнюється, коли задіяні чат-боти служби підтримки клієнтів».

Що ще гірше, «часто немає способу перевірити інформацію, крім запиту в самого чат-бота», — стверджував Рой.

За темою: OpenAI збирає додаткові 6,6 мільярда доларів США при оцінці в 157 мільярдів доларів

Вперта проблема галюцинацій ШІ

Платформа штучного інтелекту Google викликала глузування в лютому 2024 року після того, як ШІ почав створювати історично неточні зображення. Приклади цього включали зображення кольорових людей як нацистських офіцерів і створення неточних образів відомих історичних діячів.

На жаль, подібні інциденти надто поширені з поточною ітерацією штучного інтелекту та великих мовних моделей. Керівники галузі, включаючи генерального директора Nvidia Дженсена Хуанга, запропонували пом’якшити галюцинації ШІ, змусивши моделі ШІ проводити дослідження та надавати джерела для кожної окремої відповіді, наданої користувачеві.

Однак ці заходи вже представлені в найпопулярнішому ШІ та моделях великих мов, але проблема галюцинацій ШІ залишається.

Нещодавно, у вересні, генеральний директор HyperWrite AI Метт Шумер оголосив, що нова модель компанії 70B використовує метод під назвою «Налаштування відображення», який нібито дає боту ШІ спосіб навчання, аналізуючи власні помилки та коригуючи свої відповіді з часом.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар