Каліфорнійський законопроект про штучний інтелект, спрямований на запобігання катастрофам, викликав гнів у Кремнієвій долині

Разное

Каліфорнійський законопроект, який вимагає від розробників штучного інтелекту встановлювати протоколи безпеки, щоб зупинити «критичну шкоду» для людства, викликав хвилювання серед технічної спільноти Кремнієвої долини.

Закон Каліфорнії «Про безпечні та безпечні інновації для передових моделей штучного інтелекту», також відомий як SB 1047, вимагатиме від розробників штучного інтелекту впроваджувати протоколи безпеки, щоб запобігти таким подіям, як масові жертви чи масштабні кібератаки.

Це було запропоновано законодавцями Демократичної партії Каліфорнії в лютому.

Запропоновані правила також передбачають наявність кнопки «аварійної зупинки» для моделей штучного інтелекту, вимагають щорічних сторонніх перевірок практик безпеки штучного інтелекту, створюють новий підрозділ Frontier Model Division (FMD) для нагляду за відповідністю та накладають суворі штрафи за порушення.

Знімок екрана з SB 1047. Джерело: Законодавчий орган Каліфорнії

Однак Конгрес зустрів спротив: 13 серпня конгресмен США Ро Ханна оприлюднив заяву проти SB 1047, висловивши стурбованість тим, що «законопроект у його нинішньому вигляді буде неефективним, каратиме індивідуальних підприємців і малий бізнес і завдасть шкоди духу Каліфорнії.інновацій».

Ханна, який представляє Кремнієву долину, визнав необхідність законодавства щодо штучного інтелекту «для захисту працівників і усунення потенційних ризиків, включаючи дезінформацію, глибокі фейки та збільшення нерівності в багатстві».

Законопроект також зустрів опозицію з боку Кремнієвої долини, оскільки компанії венчурного капіталу, такі як Andreessen Horowitz, стверджували, що він обтяжить стартапи та придушить інновації.

2 серпня головний юридичний директор a16z Джайкумар Рамасвамі надіслав листа сенатором Скотту Вінеру, одному з авторів законопроекту, стверджуючи, що він «обтяжить стартапи через його довільні та змінні пороги».

Відомі галузеві дослідники, такі як Фей-Фей Лі та Ендрю Нґ, також заперечують, які вважають, що це зашкодить екосистемі ШІ та розробці з відкритим кодом.

6 серпня вчений Лі сказав Fortune:

«Якщо закон буде прийнято, SB-1047 завдасть шкоди нашій екосистемі штучного інтелекту, яка зароджується, особливо тим її частинам, які вже перебувають у невигідному становищі для сучасних технологічних гігантів: державному сектору, науковим колам і «маленьким технологам».

За темою: регулятори помиляються, намагаючись обмежити ШІ з відкритим кодом

Тим часом великі технологічні компанії стверджують, що надмірне регулювання штучного інтелекту обмежить свободу слова та може витіснити технологічні інновації з Каліфорнії.

Головний науковець Meta зі штучного інтелекту Янн ЛеКун заявив, що законодавство зашкодить дослідницьким зусиллям, стверджуючи, що «регулювання досліджень і розробок матиме апокаліптичні наслідки для екосистеми штучного інтелекту» в публікації на X у червні.

Законопроект був прийнятий Сенатом за підтримки обох партій у травні, і тепер він направляється до Асамблеї, де він має бути прийнятий до 31 серпня.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар