Недавнее исследование под названием «Большие и более обучаемые языковые модели становятся менее надежными», опубликованное в журнале Nature Scientific Journal, показало, что чат-боты с искусственным интеллектом со временем совершают больше ошибок по мере выпуска новых моделей.
Лексин Чжоу, один из авторов исследования, предположил, что, поскольку модели ИИ оптимизированы так, чтобы всегда давать правдоподобные ответы, казалось бы, правильные ответы имеют приоритет и передаются конечному пользователю независимо от точности.
Эти галлюцинации искусственного интеллекта являются самоусиливающимися и имеют тенденцию усугубляться с течением времени — явление, усугубляемое использованием старых больших языковых моделей для обучения новых больших языковых моделей, что приводит к «коллапу модели».
Редактор и писатель Матье Рой предостерег пользователей не слишком полагаться на эти инструменты и всегда проверять результаты поиска, сгенерированные ИИ, на предмет несоответствий:
«Хотя ИИ может быть полезен для решения ряда задач, пользователям важно проверять информацию, которую они получают от моделей ИИ. Проверка фактов должна быть шагом в процессе использования инструментов ИИ для каждого. Ситуация усложняется, когда задействуются чат-боты службы поддержки клиентов».
Что еще хуже, «часто нет другого способа проверить информацию, кроме как задать вопрос самому чат-боту», — заявил Рой.
Связанный: OpenAI привлекает дополнительные $6,6 млрд при оценке в $157 млрд
Платформа искусственного интеллекта Google вызвала насмешки в феврале 2024 года после того, как ИИ начал создавать исторически неточные изображения. Примеры этого включали изображение цветных людей в качестве нацистских офицеров и создание неточных изображений известных исторических деятелей.
К сожалению, подобные инциденты слишком распространены в нынешней версии искусственного интеллекта и больших языковых моделей. Руководители отрасли, в том числе генеральный директор Nvidia Дженсен Хуанг, предложили смягчить галлюцинации ИИ, заставив модели ИИ проводить исследования и предоставлять источники для каждого отдельного ответа, данного пользователю.
Однако эти меры уже используются в самых популярных моделях искусственного интеллекта и больших языковых моделях, однако проблема галлюцинаций искусственного интеллекта сохраняется.
Совсем недавно, в сентябре, генеральный директор HyperWrite AI Мэтт Шумер объявил, что новая модель компании 70B использует метод под названием «Reflection-Tuning», который якобы дает ИИ-боту возможность учиться, анализируя свои собственные ошибки и корректируя свои реакции с течением времени.
Cardano (ADA) привлек внимание инвесторов после взлета до многолетнего максимума в 1,15 доллара, что означает…
В информационном бюллетене на этой неделе вы узнаете, как продажи невзаимозаменяемых токенов (NFT) продолжают расти,…
Стейблкоины набирают обороты, но они по-прежнему оплачивают лишь небольшую часть глобальных транзакций онлайн-торговли, а стейблкоины,…
Видный деятель в сфере криптовалют сделал смелый прогноз, что общая рыночная капитализация Биткоина может достичь…
Учреждения не решаются внедрять технологии Web3 из-за очень прозрачной природы общедоступных, не требующих разрешения блокчейн.…
Рыночная активность в ноябре спровоцировала всплеск торговли стейблкоинами, чему способствовала возросшая институциональная уверенность в индустрии…