Виталик Бутерин ставит «мягкую паузу» в вычислениях на случай внезапного появления рискованного ИИ

Новости

Соучредитель Ethereum Виталик Бутерин говорит, что временная «пауза» в доступной во всем мире вычислительной технике может стать способом «выиграть больше времени для человечества» в случае потенциально опасной формы сверхинтеллекта ИИ.

В сообщении в блоге от 5 января, последовавшем за его сообщением от ноября 2023 года, пропагандирующим идею «защитного акселерационизма» или d/acc, Бутерин сказал, что сверхразумный ИИ может появиться всего через пять лет — и нельзя сказать, что результат будет положительным.

Бутерин говорит, что «мягкая пауза» в компьютерном оборудовании промышленного масштаба может стать вариантом замедления развития ИИ, если это произойдет — сокращение глобальной доступной вычислительной мощности на 99% на 1-2 года, «чтобы выиграть больше времени для человечества на подготовку». »

Источник: Виталик Бутерин

Сверхинтеллект — это теоретическая модель ИИ, которую обычно определяют как гораздо более умную, чем самые умные люди во всех областях знаний.

Многие технологические руководители и исследователи выразили обеспокоенность по поводу ИИ: более 2600 из них в открытом письме от марта 2023 года призвали остановить разработку ИИ из-за «серьезных рисков для общества и человечества».

Бутерин отметил, что в его посте, посвященном d/acc, содержится лишь «расплывчатый призыв не создавать рискованные формы сверхинтеллекта», и хотел поделиться своими мыслями о том, как справиться со сценарием, «где риск ИИ высок».

Тем не менее, Бутерин сказал, что он будет настаивать на мягкой паузе в отношении аппаратного обеспечения только в том случае, если он «убежден, что нам нужно что-то более «мускулистое», чем правила об ответственности». по модели.

Он отметил, что предложения о аппаратной паузе включают в себя определение местонахождения чипов ИИ и требование их регистрации, но предложил, чтобы оборудование ИИ промышленного масштаба могло быть оснащено чипом, который позволит ему продолжать работу только в том случае, если он получит три подписи раз в неделю открупнейшие международные организации.

Связанный: ИИ добился гигантских успехов в 2024 году, когда появился AGI

«Подписи будут независимыми от устройства (при желании мы могли бы даже потребовать доказательство с нулевым разглашением того, что они были опубликованы в блокчейне), так что это будет принцип «все или ничего», — написал Бутерин. «Не существует практического способа разрешить продолжение работы одного устройства без авторизации всех остальных устройств».

Идея d/acc, которую поддерживает Бутерин, выступает за осторожный подход к развитию технологий в отличие от эффективного акселерационизма или e/acc, который подталкивает к неограниченным и необузданным технологическим изменениям.

AI Eye: вокруг «религий» мемкоинов, созданных искусственным интеллектом, растёт причудливый культ

Источник
Оцените автора
CryptoHamster.org
Добавить комментарий