Эксперты по ИИ оценили риски «вымирания из-за ИИ» по сравнению с пандемиями и ядерной войной

Новости

Десятки экспертов по искусственному интеллекту (ИИ), включая руководителей компаний OpenAI, Google DeepMind и Anthropic, недавно подписали открытое заявление, опубликованное Центром безопасности ИИ (CAIS).

В заявлении содержится одно предложение:

«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».

Среди подписавших документ есть настоящие «кто есть кто» светил ИИ, в том числе «Крестный отец» ИИ Джеффри Хинтон;Калифорнийский университет, Стюарт Рассел из Беркли;и Лекс Фридман из Массачусетского технологического института. Музыкант Граймс также является подписантом, указанным в категории «другие известные деятели».

Связанный: Музыкант Граймс готов «разделить 50% гонорара» с музыкой, созданной ИИ

Хотя заявление может показаться безобидным на первый взгляд, лежащее в его основе сообщение является несколько спорным в сообществе ИИ.

Все большее число экспертов считают, что современные технологии могут или неизбежно приведут к появлению или развитию системы искусственного интеллекта, способной представлять экзистенциальную угрозу человеческому роду.

Однако их взглядам противостоит контингент экспертов с диаметрально противоположными мнениями. Например, главный специалист по искусственному интеллекту Meta Янн ЛеКун неоднократно отмечал, что он не обязательно верит, что ИИ станет неуправляемым.

Для него и других, кто не согласен с риторикой «вымирания», таких как Эндрю Нг, соучредитель Google Brain и бывший главный научный сотрудник Baidu, ИИ — это не проблема, это ответ.

С другой стороны, такие эксперты, как Хинтон и генеральный директор Conjecture Коннор Лихи, считают, что искусственный интеллект человеческого уровня неизбежен, и поэтому время действовать уже сейчас.

Однако неясно, к каким действиям призывают подписавшие заявление. Генеральные директора и/или руководители ИИ почти каждой крупной компании ИИ, а также известные ученые из разных академических кругов входят в число тех, кто подписал соглашение, что делает очевидным намерение не остановить разработку этих потенциально опасных систем.

Ранее в этом месяце генеральный директор OpenAI Сэм Альтман, один из тех, кто подписал вышеупомянутое заявление, впервые выступил перед Конгрессом во время слушаний в Сенате, чтобы обсудить регулирование ИИ. Его показания попали в заголовки газет после того, как он провел большую часть времени, призывая законодателей регулировать его отрасль.

Worldcoin Альтмана, проект, сочетающий в себе криптовалюту и подтверждение личности, также недавно привлек внимание СМИ после привлечения 115 миллионов долларов в рамках финансирования серии C, в результате чего общее финансирование после трех раундов достигло 240 миллионов долларов.

Источник

Автор статей о криптовалюте и блокчейн технологиях, являюсь экспертом в этой области. Имею опыт работы в этой сфере и активно изучаю новые тенденции и развития. Мои статьи являются источником информации для любителей криптовалют и блокчейн технологий.

Занимаюсь в анализом и оценкой криптовалютных проектов и блокчейн решений, что позволяет мне предоставлять ценные рекомендации и прогнозы для читателей. Стремлюсь предоставлять качественную и доступную информацию, которая поможет людям понять сложные технологии и тенденции в этой области.

Оцените автора
CryptoHamster.org
Добавить комментарий