Моделі штучного інтелекту (AI) розвиваються надзвичайною швидкістю. Основні розробники досягають значних успіхів у покращенні здатності цих моделей розуміти складні запити та надавати більш глибокі, добре обґрунтовані відповіді.
Це було підкреслено в повідомленні 12 вересня від OpenAI, творців широко відомої моделі ChatGPT, щодо їх нової моделі «Полуниця».
Ця розробка, також відома як серія моделей OpenAI o1, дозволить людям більше думати про проблеми, перш ніж реагувати, «подібно до того, як це робить людина».
We're releasing a preview of OpenAI o1—a new series of AI models designed to spend more time thinking before they respond.
These models can reason through complex tasks and solve harder problems than previous models in science, coding, and math. https://t.co/peKzzKX1bu
— OpenAI (@OpenAI) September 12, 2024
За словами розробника, моделі також зможуть «удосконалити свій процес мислення, спробувати різні стратегії та визнати свої помилки».
Хоча штучний інтелект, звичайно, не захоплює світ, і це не є метою тих, хто розробляє технологію, швидкий розвиток технології викликає занепокоєння законодавців щодо можливості контролювати згадані моделі, якщо вони стануть шахраями, і впровадити заходи безпеки на етапах розробки..
Купюри на столі
Протягом останнього тижня законодавці Каліфорнії продовжували ухвалювати пов’язані з ШІ законопроекти, що стосуються жителів і розробників Каліфорнії.
Це включає законопроект 1836 про асамблею, який забороняє неавторизовані копії померлих особистостей, створені штучним інтелектом, без попередньої згоди, щоб захистити права виконавців і образи.
Однак одним із головних законопроектів, який оскаржується інсайдери галузі, є законопроект Сенату (SB)-1047, також відомий як «Закон про безпечні та надійні інновації для передових моделей штучного інтелекту».
У разі ухвалення законопроект в основному вплине на основних розробників штучного інтелекту, таких як OpenAI, Google і Microsoft, які мають ресурси для розробки моделей штучного інтелекту, які потребують понад 10^26 цілих чисельних операцій або операцій з плаваючою комою (FLOP) і вартістю понад 100 мільйонів доларів.
За темою: Керівники ШІ відвідали Білий дім, щоб обговорити енергетичну інфраструктуру
Розробники повинні будуть навчити та налаштувати моделі для реалізації функцій безпеки, викладених у законопроекті. Це включає можливості відключення моделі ШІ, створення та збереження письмового протоколу безпеки, забезпечення щорічних аудитів третіми сторонами та подання заяв про відповідність і звітів про інциденти генеральному прокурору Каліфорнії.
Законопроект стикається з негативною реакцією розробників будь-якого розміру в галузі, які кажуть, що він пригнічує інновації. Cointelegraph поспілкувався з Діною Блікштейн, партнером юридичної фірми Haynes Boone, щоб зрозуміти, як це могло статися.
Вплив на розробників
Блікштейн сказав, що законопроект може також поширюватися на невеликих розробників, які точно налаштовують моделі штучного інтелекту з обчислювальною потужністю, що перевищує або дорівнює втричі 10^25 integer або FLOP, і можуть дозволити собі доступ у 10 мільйонів доларів.
«Законопроект спрямований на запобігання катастрофам, спричиненим моделями штучного інтелекту, зокрема шляхом впровадження можливостей відключення», — сказала вона.
«Однак це може не повністю усунути ризики, оскільки модель ШІ може викликати ланцюгову реакцію з шкідливими наслідками навіть після вимкнення».
Вона також зазначила, що:
«Хоча намір законопроекту є позитивним, вимоги до протоколів безпеки, аудитів і звітів про відповідність можуть розглядатися як надмірні, потенційно накладаючи обтяжливе розкриття інформації та бюрократичні вимоги, які можуть перешкоджати інноваціям у індустрії ШІ Каліфорнії».
На даний момент у Сполучених Штатах немає федеральних рамок для регулювання результатів моделей ШІ. Однак Блікштейн зазначає, що такі штати, як Каліфорнія та Колорадо, вводять власні правила.
Положення щодо робочого столу губернатора Гевіна Ньюсома вплинуть на жителів Каліфорнії, які навчаються та мають доступ до охоплених моделей ШІ.
«Більші компанії зі штучним інтелектом матимуть більше робочої сили для виконання вимог законопроекту, — зазначила вона, — що може вважатися виснаженням ресурсів меншої компанії».
«Хоча великі компанії штучного інтелекту навряд чи покинуть Каліфорнію, відмінності в законах штатів і відсутність федерального нагляду можуть підштовхнути менших розробників до переїзду або проведення роботи зі штучним інтелектом у штатах з меншою кількістю правил щодо управління ШІ».
Каліфорнія лідирує в законодавстві
Тим не менш, Блікштейн підкреслює те, що багато хто в галузі вважає правдою: «Законодавство на федеральному рівні, яке встановлює основні вимоги до потужних моделей ШІ, було б корисним як для споживачів, так і для розробників. Це також забезпечить базову лінію для всіх держав щодо того, які ці вимоги».
SB-1047 було передано губернатору Ньюсому 9 вересня і все ще очікує на рішення. Ньюсом прокоментував законопроект, сказавши, що він працює над «раціональним регулюванням, яке підтримує ризик, але не безрозсудність». Однак він також висловив стурбованість потенційним впливом на конкурентоспроможність. Оскільки Каліфорнія є світовим лідером у галузі технологічних інновацій, її юридичні рішення щодо штучного інтелекту є тим, на що весь світ спостерігає, затамувавши подих.
AI Eye: план «пекельного пейзажу» дронів AI для Тайваню, LLM занадто тупі, щоб знищити людство