Нещодавнє дослідження під назвою «Великі мовні моделі з більшою інструкцією стають менш надійними», опубліковане Nature Scientific Journal, показало, що чат-боти зі штучним інтелектом з часом роблять все більше помилок у міру випуску нових моделей.
Лексін Чжоу, один із авторів дослідження, висунув теорію, що оскільки моделі штучного інтелекту оптимізовані, щоб завжди надавати правдоподібні відповіді, на перший погляд правильні відповіді мають пріоритет і передаються кінцевому користувачеві незалежно від точності.
Ці галюцинації штучного інтелекту самопідсилюються та мають тенденцію до поєднання з часом — явище посилюється використанням старих великих мовних моделей для навчання нових великих мовних моделей, що призводить до «колапсу моделі».
Редактор і письменник Матьє Рой попередив користувачів, щоб вони не надто покладалися на ці інструменти та завжди перевіряли результати пошуку, згенеровані штучним інтелектом, на наявність невідповідностей:
«Хоча ШІ може бути корисним для ряду завдань, користувачам важливо перевіряти інформацію, яку вони отримують від моделей ШІ. Перевірка фактів має бути одним із етапів процесу використання інструментів штучного інтелекту. Це ускладнюється, коли задіяні чат-боти служби підтримки клієнтів».
Що ще гірше, «часто немає способу перевірити інформацію, крім запиту в самого чат-бота», — стверджував Рой.
За темою: OpenAI збирає додаткові 6,6 мільярда доларів США при оцінці в 157 мільярдів доларів
Платформа штучного інтелекту Google викликала глузування в лютому 2024 року після того, як ШІ почав створювати історично неточні зображення. Приклади цього включали зображення кольорових людей як нацистських офіцерів і створення неточних образів відомих історичних діячів.
На жаль, подібні інциденти надто поширені з поточною ітерацією штучного інтелекту та великих мовних моделей. Керівники галузі, включаючи генерального директора Nvidia Дженсена Хуанга, запропонували пом’якшити галюцинації ШІ, змусивши моделі ШІ проводити дослідження та надавати джерела для кожної окремої відповіді, наданої користувачеві.
Однак ці заходи вже представлені в найпопулярнішому ШІ та моделях великих мов, але проблема галюцинацій ШІ залишається.
Нещодавно, у вересні, генеральний директор HyperWrite AI Метт Шумер оголосив, що нова модель компанії 70B використовує метод під назвою «Налаштування відображення», який нібито дає боту ШІ спосіб навчання, аналізуючи власні помилки та коригуючи свої відповіді з часом.
Девід Кармона, засновник криптовалютної схеми «Понці» IcomTech, був засуджений до 10 років в'язниці за змову…
Померлий комп’ютерний науковець і захисник конфіденційності Лен Сассаман несподівано опинився в центрі уваги, оскільки букмекери…
Відображення (RENDER) має низьку ефективність в умовах поточного відкату ринку, в результаті чого токен зазнав…
За словами криптовалютного аналітика, незважаючи на низхідну тенденцію протягом усього тижня, Floki (FLOKI) залишається значно…
Відповідно до неаудованого звіту за фінансовий рік, опублікованого 4 жовтня, біткойн-майнер CleanSpark за останні 12…
Повідомляється, що китайський технологічний та ігровий гігант Tencent і сім’я Гіллемот ведуть переговори про придбання…