Сенатор штату Каліфорнія Скотт Вінер публічно розкритикував протидію OpenAI законопроекту 1047 Сенату (SB 1047), запропонованому закону штату, спрямованому на регулювання технологій штучного інтелекту.
Вінер представив законопроект у лютому, прагнучи забезпечити, щоб компанії зі штучним інтелектом проводили сувору оцінку безпеки своїх моделей перед випуском їх для громадськості.
Незважаючи на гучні заперечення OpenAI, Вінер стверджує, що занепокоєння компанії є необґрунтованими і що законопроект має важливе значення для забезпечення як громадської, так і національної безпеки.
OpenAI, провідна дослідницька організація штучного інтелекту, висловила свою опозицію до SB 1047 у листі, адресованому сенатору Вінеру та губернатору Каліфорнії Гевіну Ньюсому.
Головний директор зі стратегії OpenAI Джейсон Квон попередив у листі, що законопроект може придушити інновації та витіснити таланти з Каліфорнії, штату, який протягом тривалого часу був світовим лідером у технологічній індустрії, повідомляє Bloomberg.
Квон стверджував, що сектор штучного інтелекту все ще перебуває на ранніх стадіях і що надмірно обмежувальні державні правила можуть перешкодити його розвитку. Він припустив, що федеральне законодавство, а не закони штатів, було б більш доречним для управління розробкою ШІ.
Вінер, однак, відкинув ці побоювання, назвавши їх «втомленими» та безпідставними. У прес-релізі, опублікованому в середу, він зазначив, що лист OpenAI не критикує жодних конкретних положень законопроекту.
Пов’язане: OpenAI пропонує точне налаштування GPT-4o для компаній, які перебувають на службі ШІ
Він стверджував, що заперечення компанії ґрунтуються на загальному страху перед регулюванням, а не на будь-яких істотних проблемах із самим законопроектом. «Заява OpenAI про те, що компанії покинуть Каліфорнію через SB 1047, не має сенсу, враховуючи, що законопроект не обмежується компаніями зі штаб-квартирами в Каліфорнії», — сказав Вінер.
SB 1047 зобов’язує компанії, що займаються штучним інтелектом, проводити всебічну оцінку безпеки своїх моделей для виявлення потенційних ризиків перед їх випуском. Він також надає повноваження закривати моделі, які становлять значні ризики.
За словами Вінера, ці положення є не тільки розумними, але й важливими для захисту населення від непередбачених небезпек, які можуть становити передові системи ШІ. Він підкреслив, що сама OpenAI раніше взяла на себе зобов’язання проводити такі оцінки безпеки, що робить опозицію компанії проти законопроекту ще більшою плутаниною.
Крім того, Вінер підкреслив, що, незважаючи на наполягання OpenAI щодо федерального регулювання, Конгрес ще не вжив суттєвих заходів щодо безпеки ШІ. Він провів паралелі із каліфорнійським законом про конфіденційність даних, який був ухвалений за відсутності федерального законодавства і з тих пір став зразком для інших штатів.
У липні OpenAI висловив підтримку трьох законопроектів Сенату, присвячених безпеці та доступності штучного інтелекту. Схвалені законопроекти, зокрема Закон про інновації в майбутньому ШІ, Закон CREATE AI і Закон про освіту ШІ NSF, стосуються окремих аспектів ШІ.
Федеральний суддя Техасу відхилив позов, поданий фірмою-розробником блокчейнів Consensys проти Комісії з цінних паперів і…
Суддя схвалив згортання діяльності Terraform Labs у рамках плану банкрутства фірми в Сполучених Штатах.Згідно зі…
Dfinity, швейцарський фонд, що стоїть за блокчейном Internet Computer Protocol (ICP), підписав лист про наміри…
18 вересня прокуратура Південного округу Нью-Йорка США (SDNY) подала клопотання проти вимоги експлуататора Mango Markets…
Після поїздок по ключових державах на полі битви ініціатива Coinbase Stand With криптовалюта могла зареєструвати…
Solana (SOL) встановила ще один рекорд: сьогодні вона має понад 75 мільйонів активних адрес щомісяця.…