Законопроект Калифорнии об искусственном интеллекте, направленный на предотвращение стихийных бедствий, вызвал гнев Кремниевой долины

Новости

Калифорнийский законопроект, требующий от разработчиков ИИ внедрения протоколов безопасности для предотвращения «критического вреда» человечеству, вызвал переполох в технологическом сообществе Кремниевой долины.

Калифорнийский закон «О безопасных и надежных инновациях для передовых моделей искусственного интеллекта», также известный как SB 1047, потребует от разработчиков ИИ внедрения протоколов безопасности для предотвращения таких событий, как массовые жертвы или крупные кибератаки.

Его предложили законодатели-демократы Калифорнии в феврале.

Предлагаемые правила также требуют наличия кнопки «аварийной остановки» для моделей ИИ, требуют ежегодных сторонних проверок практики безопасности ИИ, создают новое подразделение пограничных моделей (FMD) для надзора за соблюдением требований и налагают суровые штрафы за нарушения.

Скриншот из SB 1047. Источник: Законодательное собрание Калифорнии.

Однако Конгресс встретил противодействие: 13 августа конгрессмен США Ро Ханна опубликовал заявление против SB 1047, выразив обеспокоенность тем, что «законопроект в его нынешнем виде будет неэффективным, накажет индивидуальных предпринимателей и малый бизнес и нанесет ущерб духу Калифорнии». инноваций».

Ханна, представляющий Силиконовую долину, признал необходимость законодательства в области ИИ «для защиты работников и устранения потенциальных рисков, включая дезинформацию, дипфейки и увеличение неравенства в благосостоянии».

Законопроект также встретил сопротивление со стороны Кремниевой долины, где венчурные компании, такие как Andreessen Horowitz, утверждают, что он станет бременем для стартапов и задушит инновации.

2 августа главный юрист a16z Джайкумар Рамасвами направил письмо сенатору Скотту Винеру, одному из создателей законопроекта, утверждая, что он «обременяет стартапы из-за произвольных и меняющихся пороговых значений».

Выдающиеся отраслевые исследователи, такие как Фей-Фей Ли и Эндрю Нг, также встретили сопротивление, которые считают, что это нанесет вред экосистеме искусственного интеллекта и разработке открытого исходного кода.

6 августа ученый-компьютерщик Ли рассказал журналу Fortune:

«Если законопроект SB-1047 будет принят в качестве закона, он нанесет вред нашей многообещающей экосистеме искусственного интеллекта, особенно тем ее частям, которые уже находятся в невыгодном положении по сравнению с сегодняшними технологическими гигантами: государственному сектору, научным кругам и «малым технологиям».

Связанный: Регуляторы заблуждаются в попытках ограничить ИИ с открытым исходным кодом

Тем временем крупные технологические компании заявляют, что чрезмерное регулирование ИИ ограничит свободу слова и может вытеснить технологические инновации из Калифорнии.

Главный научный сотрудник Meta в области искусственного интеллекта Ян ЛеКун заявил, что закон нанесет ущерб исследовательским усилиям, заявив, что «регулирование НИОКР будет иметь апокалиптические последствия для экосистемы искусственного интеллекта» в своем сообщении на X в июне.

Законопроект был принят Сенатом при поддержке обеих партий в мае и теперь направляется в Ассамблею, где он должен быть принят к 31 августа.

Источник

Автор, являюсь внимательным наблюдателем тенденций и новых идей в области криптовалют и блокчейн технологий. Слежу за последними новостями и развитиями в этой области и готов анализировать и интерпретировать их для читателей.

Стремлюсь быть в курсе всех новых идей и инноваций в криптоиндустрии, чтобы статьи были всегда актуальными и полезными. Моя цель - предоставить читателям полную и достоверную информацию о последних тенденциях и развитиях в криптоиндустрии.

Считаю, что быть внимательным к тенденциям и новым идеям - важный аспект моей работы как автора, поскольку позволяет мне предоставлять читателям самую свежую и актуальную информацию в этой быстро развивающейся области.

Оцените автора
CryptoHamster.org
Добавить комментарий