Законодатели ЕС призывают к «безопасному» ИИ, поскольку генеральный директор Google предостерегает от быстрого развития

Новости

Десяток политиков Европейского Союза (ЕС) подписали письмо, призывающее к «безопасному» развитию искусственного интеллекта (ИИ), поскольку генеральный директор Google предостерег от выпуска мощной технологии ИИ до того, как общество сможет адаптироваться.

В открытом письме от 16 апреля, опубликованном в Твиттере членом Европарламента Драгошем Тудораче, содержится призыв к совместным усилиям и универсальному набору правил для разработки ИИ.

Тудораче вместе с 11 другими политиками ЕС, упомянутыми в письме, попросили президента Европейской комиссии Урсулу фон дер Ляйен и президента США Джо Байдена созвать саммит по ИИ и согласовать набор руководящих принципов для разработки, контроля и развертывания.тех.

«Недавние достижения в области искусственного интеллекта (ИИ) продемонстрировали, что скорость технического прогресса выше и более непредсказуема, чем ожидали политики во всем мире», — говорится в письме.

«Мы движемся очень быстро».

В письме также содержится просьба к руководителям Совета по торговле и технологиям (TTC), форума для США и ЕС, координировать подходы к экономическим и технологическим вопросам, согласовать предварительную повестку дня предлагаемого саммита по ИИ, а компаниям и странам во всем мире«стремиться к постоянно растущему чувству ответственности» при разработке ИИ.

«Наше послание промышленности, исследователям и лицам, принимающим решения, в Европе и во всем мире заключается в том, что разработка очень мощного искусственного интеллекта демонстрирует необходимость внимания и тщательного рассмотрения. Вместе мы можем направить историю в правильном направлении», — говорится в письме.сказал.

Генеральный директор Google Пичаи Сундарараджан, более известный как Сундар Пичаи, также выразил осторожность в отношении быстрого развития ИИ в интервью 16 апреля на канале CBS «60 минут», заявив, что обществу может потребоваться время, чтобы адаптироваться к новой технологии.

«Вы не хотите выпускать такую ​​технологию, когда она очень, очень мощная, потому что она не дает обществу времени на адаптацию. Я думаю, что это одна из разумных точек зрения», — сказал он.

«Скорость, с которой мы можем мыслить и адаптироваться как социальные институты, по сравнению со скоростью, с которой развиваются технологии, кажется, не соответствует», — добавил он.

Тем не менее, Пичаи также отметил, что, хотя есть причины для беспокойства, он все же чувствует себя «оптимистично» из-за большого количества людей, беспокоящихся о последствиях ИИ на столь раннем этапе его жизненного цикла по сравнению с другими техническими достижениями в прошлом.

«Я думаю, что есть ответственные люди, пытающиеся понять, как подойти к этой технологии, и мы тоже», — сказал он.

По теме: Илон Маск запустит платформу искусственного интеллекта для поиска истины TruthGPT

Европейский Союз уже рассматривает ИИ в своем Законе об искусственном интеллекте, тем временем Европейский совет по защите данных также создал целевую группу для генеративного чат-бота ИИ ChatGPT.

Письмо политиков ЕС повторяет те же опасения, высказанные более чем 2600 технологических лидеров и исследователей, которые призвали к временной паузе в дальнейшем развитии ИИ, опасаясь «глубоких рисков для общества и человечества».

Генеральный директор Tesla Илон Маск, соучредитель Apple Стив Возняк и другие руководители, технические директора и исследователи искусственного интеллекта были среди других лиц, подписавших письмо, которое было опубликовано американским аналитическим центром Future of Life Institute (FOLI) 22 марта.

В то время как политики ЕС согласны с «основным посылом» письма FOLI и разделяют «некоторые опасения», они выразили несогласие с «некоторыми более паникерскими заявлениями».

Маск продолжил подчеркивать риск, который, по его мнению, может представлять ИИ, в интервью Fox News 16 апреля, заявив, что, как и любая другая технология, ИИ может быть использован не по назначению, если он разработан с недобрыми намерениями.

Источник
Оцените автора
CryptoHamster.org
Добавить комментарий