Сплеск розвитку генеративного ШІ спонукав уряди в усьому світі поспішити з регулюванням цієї нової технології. Ця тенденція відповідає зусиллям Європейського Союзу запровадити перший у світі набір комплексних правил для штучного інтелекту.
Закон про штучний інтелект (ШІ) блоку 27 країн визнано інноваційним набором правил. Після тривалої затримки звіти свідчать про те, що учасники переговорів 7 грудня погодили набір елементів керування для інструментів генеративного штучного інтелекту, таких як ChatGPT від OpenAI Inc. і Bard від Google.
Занепокоєння щодо можливого зловживання цією технологією також спонукало США, Велику Британію, Китай і міжнародні коаліції, такі як країни «Великої 7», прискорити свою роботу з регулювання технології, що швидко розвивається.
У червні уряд Австралії оголосив про восьмитижневі консультації щодо того, чи слід заборонити будь-які «високоризикові» інструменти штучного інтелекту. Консультації були продовжені до 26 липня. Уряд шукає внесок у стратегії схвалення «безпечного та відповідального використання штучного інтелекту», вивчаючи такі варіанти, як добровільні заходи, як-от етичні рамки, необхідність спеціальних правил або поєднання обох підходів.
Тим часом, у рамках тимчасових заходів, які починаються з 15 серпня, Китай запровадив правила для нагляду за індустрією генеративного штучного інтелекту, зобов’язуючи постачальників послуг проходити оцінку безпеки та отримувати дозвіл перед виведенням продуктів штучного інтелекту на масовий ринок. Отримавши схвалення уряду, чотири китайські технологічні компанії, включаючи Baidu Inc і SenseTime Group, представили громадськості свої чат-боти зі штучним інтелектом 31 серпня.
За темою: як генеративний ШІ дозволяє одному архітектору переосмислити стародавні міста
Згідно зі звітом, у квітні французька служба захисту конфіденційності CNIL заявила, що розслідує кілька скарг на ChatGPT після того, як чат-бот був тимчасово заборонений в Італії через підозру в порушенні правил конфіденційності, не звертаючи уваги на попередження груп громадянських прав.
Управління із захисту даних Італії, місцевий регулятор конфіденційності, оголосило про початок розслідування «з’ясування фактів» 22 листопада, під час якого розглядатиметься практика збору даних для навчання алгоритмів ШІ. Запит спрямований на підтвердження впровадження відповідних заходів безпеки на публічних і приватних веб-сайтах, щоб перешкодити «збиранню веб-сайтів» особистих даних, які використовуються третіми сторонами для навчання ШІ.
Сполучені Штати, Велика Британія, Австралія та 15 інших країн нещодавно опублікували глобальні рекомендації щодо захисту моделей штучного інтелекту (ШІ) від втручання, закликаючи компанії зробити свої моделі «захищеними за проектом».