Модели искусственного интеллекта не имеют возможности рассуждения, необходимых для AGI

Новости

По словам исследователей Apple, в рамках развития искусственного общего интеллекта (AGI) все еще есть долгий путь для работы, которые обнаружили, что у ведущих моделей искусственного интеллекта по -прежнему возникают проблемы с рассуждением.

Недавние обновления ведущих моделей AI на больших языках (LLMS), таких как CHATGPT Openai и Claude’s, включали в себя большие модели рассуждений (LRM), но их фундаментальные возможности, масштабирование свойств и ограничения «остаются недостаточно понятными», – сказали исследователи Apple в июньском документе, называемом «иллюзией мышления».

Они отметили, что текущие оценки в первую очередь фокусируются на установленных математических и кодирующих критериях, «подчеркивая точность окончательного ответа».

Тем не менее, эта оценка не дает представления о возможностях рассуждений моделей ИИ, сказали они.

Исследование контрастирует с ожиданием, что искусственный общий интеллект находится всего через несколько лет.

Исследователи Apple тестируют «мышление» модели ИИ

Исследователи разработали различные игры головоломки, чтобы проверить «мышление» и «не мышление» вариантов Claude Sonnet, O3-Mini и O1, а также чат-ботов Deepseek-R1 и V3 за пределами стандартных математических тестов.

Они обнаружили, что «Frontier LRM сталкиваются с полным крахом точности за пределами определенных сложностей», не эффективно не обобщают рассуждения, и их преимущество исчезает с растущей сложностью, вопреки ожиданиям в отношении возможностей AGI.

«Мы обнаружили, что LRM имеют ограничения в точных вычислениях: они не могут использовать явные алгоритмы и бессмысленно разум между головоломками».

Яблоко
Проверка окончательных ответов и промежуточных следов рассуждений (верхняя диаграмма) и диаграммы, показывающие, как модели, не связанные с ними, более точны при низкой сложности (нижние диаграммы). Источник: исследование Apple Machine Learning

Ай чат -боты, скажем, исследователи

Они обнаружили непоследовательные и мелкие рассуждения с моделями, а также наблюдали за переобожением, при этом рано генерируют правильные ответы, а затем бродили на неправильные рассуждения.

Связанный: Утверждающая роль ИИ в Web3, бросая вызов Defi и Gaming: Dappradar

Исследователи пришли к выводу, что LRMs имитируют модели рассуждений, не усвоив и не обобщая их, что не соответствует аргументированию.

«Эти идеи оспаривают преобладающие предположения о возможностях LRM и предполагают, что текущие подходы могут столкнуться с фундаментальными барьерами для обобщаемых рассуждений».

Яблоко
Иллюстрация четырех головоломки. Источник: Apple

Гонка по развитию Agi

Аги – это святой Грааль развития ИИ, состояние, где машина может думать и разумно, как человек, и находится на одном уровне с человеческим интеллектом.

В январе генеральный директор Openai Сэм Альтман сказал, что фирма была ближе к строительству AGI, чем когда -либо прежде. «Теперь мы уверены, что знаем, как построить AGI, как мы традиционно поняли это», – сказал он в то время.

В ноябре генеральный директор Anpropic Дарио Амодеэй сказал, что AGI превзойдет возможности человека в течение следующего года или двух. «Если вы просто смотрите на то, что эти возможности увеличиваются, это заставляет вас думать, что мы доберемся до 2026 или 2027 года», – сказал он.

Источник

Автор, являюсь внимательным наблюдателем тенденций и новых идей в области криптовалют и блокчейн технологий. Слежу за последними новостями и развитиями в этой области и готов анализировать и интерпретировать их для читателей.

Стремлюсь быть в курсе всех новых идей и инноваций в криптоиндустрии, чтобы статьи были всегда актуальными и полезными. Моя цель - предоставить читателям полную и достоверную информацию о последних тенденциях и развитиях в криптоиндустрии.

Считаю, что быть внимательным к тенденциям и новым идеям - важный аспект моей работы как автора, поскольку позволяет мне предоставлять читателям самую свежую и актуальную информацию в этой быстро развивающейся области.

Оцените автора
CryptoHamster.org
Добавить комментарий