Google DeepMind: Демис Хассабис предрекает появление AGI в ближайшее время.

Новости

Демис Хассабис, генеральный директор Google DeepMind, недавно предсказал, что системы искусственного интеллекта достигнут человеческого уровня познания где-то между «следующими несколькими годами» и «возможно, в течение десятилетия».

Хассабис, который начал свою карьеру в игровой индустрии, стал соучредителем Google DeepMind (ранее DeepMind Technologies), компании, известной разработкой системы искусственного интеллекта AlphaGo, ответственной за победу над лучшими в мире игроками в го.

В недавнем интервью, проведенном во время фестиваля The Wall Street Journal «Будущее всего», Хассабис сказал интервьюеру Крису Мимсу, что, по его мнению, появление машин с интеллектом на уровне человека неизбежно:

«Прогресс за последние несколько лет был просто невероятным. Я не вижу причин, почему этот прогресс замедлится. Я думаю, что это может даже ускориться. Так что я думаю, что мы могли бы быть всего через несколько лет, может быть, в пределах десяти лет».

Эти комментарии появились всего через две недели после того, как внутренняя реструктуризация привела к тому, что Google объявила об объединении «Google AI» и «DeepMind» в метко названный «Google DeepMind».

Когда его попросили дать определение «AGI» — искусственный общий интеллект — Хассабис ответил: «познание на уровне человека».

В настоящее время не существует стандартизированного определения, теста или эталона для AGI, широко принятого сообществом STEM. Нет и единого научного консенсуса по поводу того, возможен ли вообще ОИИ.

Некоторые известные деятели, такие как Роджер Пенроуз (давний партнер Стивена Хокинга по исследованиям), считают, что ОИИ невозможно создать, в то время как другие считают, что ученым и инженерам потребуются десятилетия или столетия, чтобы понять это.

Среди тех, кто с оптимизмом смотрит на AGI в ближайшей перспективе или на какую-то подобную форму искусственного интеллекта человеческого уровня, Илон Маск и генеральный директор OpenAI Сэм Альтман.

AGI стал горячей темой после запуска ChatGPT и множества подобных продуктов и услуг ИИ за последние несколько месяцев. Эксперты предсказывают, что искусственный интеллект человеческого уровня, который часто называют технологией «святого Грааля», разрушит все аспекты жизни на Земле.

Если когда-либо будет создан искусственный интеллект человеческого уровня, это может разрушить различные аспекты криптовалютной индустрии. В мире криптовалют мы могли видеть полностью автономные машины, способные действовать как предприниматели, руководители высшего звена, советники и трейдеры с интеллектуальными способностями человека и способностью сохранять информацию и выполнять код компьютерной системы.

Что касается того, будут ли агенты AGI служить нам в качестве инструментов на базе ИИ или конкурировать с нами за ресурсы, еще неизвестно.

Со своей стороны, Хассабис не строил никаких предположений, но сказал The Wall Street Journal, что «будет выступать за разработку этих типов технологий ОИИ с осторожностью, используя научный метод, когда вы пытаетесь провести очень тщательные контролируемые эксперименты, чтобыпонять, что делает базовая система».

Это может противоречить текущей ситуации, когда такие продукты, как Google Bard его собственного работодателя и ChatGPT от OpenAI, недавно стали доступны для общего пользования.

Связанный: «Крестный отец ИИ» уходит из Google, предупреждая об опасностях ИИ

Инсайдеры отрасли, такие как генеральный директор OpenAI Сэм Альтман и Нандо де Фрейтас из DeepMind, заявили, что, по их мнению, AGI может появиться сам по себе, если разработчики продолжат масштабировать текущие модели. А один исследователь Google недавно расстался с компанией, заявив, что модель под названием LaMDA уже стала разумной.

Из-за неопределенности, связанной с развитием этих технологий и их потенциального воздействия на человечество, тысячи людей, в том числе Илон Маск и соучредитель Apple Inc. Стив Возняк, недавно подписали открытое письмо с просьбой к компаниям и частным лицам, создающим связанные системы, приостановить разработку дляшесть месяцев, чтобы ученые могли оценить потенциальный вред.

Источник
Оцените автора
CryptoHamster.org
Добавить комментарий