Недавнее исследование под названием «Большие и более обучаемые языковые модели становятся менее надежными», опубликованное в журнале Nature Scientific Journal, показало, что чат-боты с искусственным интеллектом со временем совершают больше ошибок по мере выпуска новых моделей.
Лексин Чжоу, один из авторов исследования, предположил, что, поскольку модели ИИ оптимизированы так, чтобы всегда давать правдоподобные ответы, казалось бы, правильные ответы имеют приоритет и передаются конечному пользователю независимо от точности.
Эти галлюцинации искусственного интеллекта являются самоусиливающимися и имеют тенденцию усугубляться с течением времени — явление, усугубляемое использованием старых больших языковых моделей для обучения новых больших языковых моделей, что приводит к «коллапу модели».
Редактор и писатель Матье Рой предостерег пользователей не слишком полагаться на эти инструменты и всегда проверять результаты поиска, сгенерированные ИИ, на предмет несоответствий:
«Хотя ИИ может быть полезен для решения ряда задач, пользователям важно проверять информацию, которую они получают от моделей ИИ. Проверка фактов должна быть шагом в процессе использования инструментов ИИ для каждого. Ситуация усложняется, когда задействуются чат-боты службы поддержки клиентов».
Что еще хуже, «часто нет другого способа проверить информацию, кроме как задать вопрос самому чат-боту», — заявил Рой.
Связанный: OpenAI привлекает дополнительные $6,6 млрд при оценке в $157 млрд
Упорная проблема галлюцинаций ИИ
Платформа искусственного интеллекта Google вызвала насмешки в феврале 2024 года после того, как ИИ начал создавать исторически неточные изображения. Примеры этого включали изображение цветных людей в качестве нацистских офицеров и создание неточных изображений известных исторических деятелей.
К сожалению, подобные инциденты слишком распространены в нынешней версии искусственного интеллекта и больших языковых моделей. Руководители отрасли, в том числе генеральный директор Nvidia Дженсен Хуанг, предложили смягчить галлюцинации ИИ, заставив модели ИИ проводить исследования и предоставлять источники для каждого отдельного ответа, данного пользователю.
Однако эти меры уже используются в самых популярных моделях искусственного интеллекта и больших языковых моделях, однако проблема галлюцинаций искусственного интеллекта сохраняется.
Совсем недавно, в сентябре, генеральный директор HyperWrite AI Мэтт Шумер объявил, что новая модель компании 70B использует метод под названием «Reflection-Tuning», который якобы дает ИИ-боту возможность учиться, анализируя свои собственные ошибки и корректируя свои реакции с течением времени.