Десятки экспертов по искусственному интеллекту (ИИ), включая руководителей компаний OpenAI, Google DeepMind и Anthropic, недавно подписали открытое заявление, опубликованное Центром безопасности ИИ (CAIS).
We just put out a statement:
“Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.”
Signatories include Hinton, Bengio, Altman, Hassabis, Song, etc.https://t.co/N9f6hs4bpa
(1/6)
— Dan Hendrycks (@DanHendrycks) May 30, 2023
В заявлении содержится одно предложение:
«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».
Среди подписавших документ есть настоящие «кто есть кто» светил ИИ, в том числе «Крестный отец» ИИ Джеффри Хинтон;Калифорнийский университет, Стюарт Рассел из Беркли;и Лекс Фридман из Массачусетского технологического института. Музыкант Граймс также является подписантом, указанным в категории «другие известные деятели».
Связанный: Музыкант Граймс готов «разделить 50% гонорара» с музыкой, созданной ИИ
Хотя заявление может показаться безобидным на первый взгляд, лежащее в его основе сообщение является несколько спорным в сообществе ИИ.
Все большее число экспертов считают, что современные технологии могут или неизбежно приведут к появлению или развитию системы искусственного интеллекта, способной представлять экзистенциальную угрозу человеческому роду.
Однако их взглядам противостоит контингент экспертов с диаметрально противоположными мнениями. Например, главный специалист по искусственному интеллекту Meta Янн ЛеКун неоднократно отмечал, что он не обязательно верит, что ИИ станет неуправляемым.
Super-human AI is nowhere near the top of the list of existential risks.
In large part because it doesn’t exist yet.Until we have a basic design for even dog-level AI (let alone human level), discussing how to make it safe is premature. https://t.co/ClkZxfofV9
— Yann LeCun (@ylecun) May 30, 2023
Для него и других, кто не согласен с риторикой «вымирания», таких как Эндрю Нг, соучредитель Google Brain и бывший главный научный сотрудник Baidu, ИИ — это не проблема, это ответ.
С другой стороны, такие эксперты, как Хинтон и генеральный директор Conjecture Коннор Лихи, считают, что искусственный интеллект человеческого уровня неизбежен, и поэтому время действовать уже сейчас.
Heads of all major AI labs signed this letter explicitly acknowledging the risk of extinction from AGI.
An incredible step forward, congratulations to Dan for his incredible work putting this together and thank you to every signatory for doing their part for a better future! https://t.co/KDkqWvdJcH
— Connor Leahy (@NPCollapse) May 30, 2023
Однако неясно, к каким действиям призывают подписавшие заявление. Генеральные директора и/или руководители ИИ почти каждой крупной компании ИИ, а также известные ученые из разных академических кругов входят в число тех, кто подписал соглашение, что делает очевидным намерение не остановить разработку этих потенциально опасных систем.
Ранее в этом месяце генеральный директор OpenAI Сэм Альтман, один из тех, кто подписал вышеупомянутое заявление, впервые выступил перед Конгрессом во время слушаний в Сенате, чтобы обсудить регулирование ИИ. Его показания попали в заголовки газет после того, как он провел большую часть времени, призывая законодателей регулировать его отрасль.
Worldcoin Альтмана, проект, сочетающий в себе криптовалюту и подтверждение личности, также недавно привлек внимание СМИ после привлечения 115 миллионов долларов в рамках финансирования серии C, в результате чего общее финансирование после трех раундов достигло 240 миллионов долларов.