Сенатор штату Каліфорнія Скотт Вінер публічно розкритикував протидію OpenAI законопроекту 1047 Сенату (SB 1047), запропонованому закону штату, спрямованому на регулювання технологій штучного інтелекту.
Вінер представив законопроект у лютому, прагнучи забезпечити, щоб компанії зі штучним інтелектом проводили сувору оцінку безпеки своїх моделей перед випуском їх для громадськості.
Незважаючи на гучні заперечення OpenAI, Вінер стверджує, що занепокоєння компанії є необґрунтованими і що законопроект має важливе значення для забезпечення як громадської, так і національної безпеки.
Опозиція OpenAI і відповідь Вінера
OpenAI, провідна дослідницька організація штучного інтелекту, висловила свою опозицію до SB 1047 у листі, адресованому сенатору Вінеру та губернатору Каліфорнії Гевіну Ньюсому.
Головний директор зі стратегії OpenAI Джейсон Квон попередив у листі, що законопроект може придушити інновації та витіснити таланти з Каліфорнії, штату, який протягом тривалого часу був світовим лідером у технологічній індустрії, повідомляє Bloomberg.
Квон стверджував, що сектор штучного інтелекту все ще перебуває на ранніх стадіях і що надмірно обмежувальні державні правила можуть перешкодити його розвитку. Він припустив, що федеральне законодавство, а не закони штатів, було б більш доречним для управління розробкою ШІ.
Вінер, однак, відкинув ці побоювання, назвавши їх «втомленими» та безпідставними. У прес-релізі, опублікованому в середу, він зазначив, що лист OpenAI не критикує жодних конкретних положень законопроекту.
Пов’язане: OpenAI пропонує точне налаштування GPT-4o для компаній, які перебувають на службі ШІ
Він стверджував, що заперечення компанії ґрунтуються на загальному страху перед регулюванням, а не на будь-яких істотних проблемах із самим законопроектом. «Заява OpenAI про те, що компанії покинуть Каліфорнію через SB 1047, не має сенсу, враховуючи, що законопроект не обмежується компаніями зі штаб-квартирами в Каліфорнії», — сказав Вінер.
Ядро SB 1047
SB 1047 зобов’язує компанії, що займаються штучним інтелектом, проводити всебічну оцінку безпеки своїх моделей для виявлення потенційних ризиків перед їх випуском. Він також надає повноваження закривати моделі, які становлять значні ризики.
За словами Вінера, ці положення є не тільки розумними, але й важливими для захисту населення від непередбачених небезпек, які можуть становити передові системи ШІ. Він підкреслив, що сама OpenAI раніше взяла на себе зобов’язання проводити такі оцінки безпеки, що робить опозицію компанії проти законопроекту ще більшою плутаниною.
Крім того, Вінер підкреслив, що, незважаючи на наполягання OpenAI щодо федерального регулювання, Конгрес ще не вжив суттєвих заходів щодо безпеки ШІ. Він провів паралелі із каліфорнійським законом про конфіденційність даних, який був ухвалений за відсутності федерального законодавства і з тих пір став зразком для інших штатів.
У липні OpenAI висловив підтримку трьох законопроектів Сенату, присвячених безпеці та доступності штучного інтелекту. Схвалені законопроекти, зокрема Закон про інновації в майбутньому ШІ, Закон CREATE AI і Закон про освіту ШІ NSF, стосуються окремих аспектів ШІ.