Категории: Разное

Чат-боти штучного інтелекту з часом стають все гіршими — академічна стаття

Нещодавнє дослідження під назвою «Великі мовні моделі з більшою інструкцією стають менш надійними», опубліковане Nature Scientific Journal, показало, що чат-боти зі штучним інтелектом з часом роблять все більше помилок у міру випуску нових моделей.

Лексін Чжоу, один із авторів дослідження, висунув теорію, що оскільки моделі штучного інтелекту оптимізовані, щоб завжди надавати правдоподібні відповіді, на перший погляд правильні відповіді мають пріоритет і передаються кінцевому користувачеві незалежно від точності.

Ці галюцинації штучного інтелекту самопідсилюються та мають тенденцію до поєднання з часом — явище посилюється використанням старих великих мовних моделей для навчання нових великих мовних моделей, що призводить до «колапсу моделі».

Редактор і письменник Матьє Рой попередив користувачів, щоб вони не надто покладалися на ці інструменти та завжди перевіряли результати пошуку, згенеровані штучним інтелектом, на наявність невідповідностей:

«Хоча ШІ може бути корисним для ряду завдань, користувачам важливо перевіряти інформацію, яку вони отримують від моделей ШІ. Перевірка фактів має бути одним із етапів процесу використання інструментів штучного інтелекту. Це ускладнюється, коли задіяні чат-боти служби підтримки клієнтів».

Що ще гірше, «часто немає способу перевірити інформацію, крім запиту в самого чат-бота», — стверджував Рой.

За темою: OpenAI збирає додаткові 6,6 мільярда доларів США при оцінці в 157 мільярдів доларів

Вперта проблема галюцинацій ШІ

Платформа штучного інтелекту Google викликала глузування в лютому 2024 року після того, як ШІ почав створювати історично неточні зображення. Приклади цього включали зображення кольорових людей як нацистських офіцерів і створення неточних образів відомих історичних діячів.

На жаль, подібні інциденти надто поширені з поточною ітерацією штучного інтелекту та великих мовних моделей. Керівники галузі, включаючи генерального директора Nvidia Дженсена Хуанга, запропонували пом’якшити галюцинації ШІ, змусивши моделі ШІ проводити дослідження та надавати джерела для кожної окремої відповіді, наданої користувачеві.

Однак ці заходи вже представлені в найпопулярнішому ШІ та моделях великих мов, але проблема галюцинацій ШІ залишається.

Нещодавно, у вересні, генеральний директор HyperWrite AI Метт Шумер оголосив, що нова модель компанії 70B використовує метод під назвою «Налаштування відображення», який нібито дає боту ШІ спосіб навчання, аналізуючи власні помилки та коригуючи свої відповіді з часом.

CryptoHamster

Недавние статьи

Показники біткойна свідчать про те, що бичачий ринок далеко не переоцінений

Показники оцінки біткойна свідчать про те, що бичачий ринок ще далекий від завершення і може…

4 години ago

Altseason відкладається через відсутність свіжого роздрібного капіталу — Кі Йон Джу

Засновник і генеральний директор CryptoQuant Кі Янг Джу нещодавно стверджував, що сезон альткойнів — період…

5 години ago

Cardano Whales Buy The Dip – показники показують зростання попиту

Cardano (ADA) привернув увагу інвесторів після того, як піднявся до багаторічного максимуму в 1,15 долара,…

5 години ago

Щотижневі продажі NFT досягли 158 мільйонів доларів, Sky Mavis звільняє 21% працівників: Nifty Newsletter

У цьому тижневому інформаційному бюлетені прочитайте про те, як продажі незамінних токенів (NFT) продовжують зростати,…

6 години ago

Стайблкоїни, відмінні від доларів США, можуть стимулювати впровадження: звіт

Стайблкойни набирають популярності, але вони все ще платять лише за невелику частину глобальних транзакцій онлайн-комерції,…

7 години ago

Ринкова капіталізація біткойнів у 15 трильйонів доларів? Генеральний директор криптовалютної фірми прогнозує вибухове зростання

Відома фігура в криптовалютному просторі зробила сміливий прогноз, що загальна ринкова капіталізація біткойна може досягти…

7 години ago