Китай опублікував проект правил безпеки для компаній, що надають послуги генеративного штучного інтелекту (ШІ), що містить обмеження на джерела даних, які використовуються для навчання моделі ШІ.
У середу, 11 жовтня, запропоновані правила були опубліковані Національним комітетом зі стандартизації інформаційної безпеки, до складу якого входять представники Адміністрації кіберпростору Китаю (CAC), Міністерства промисловості та інформаційних технологій і правоохоронних органів.
Генеративний штучний інтелект, прикладом якого є досягнення чат-бота ChatGPT від OpenAI, набуває здатності виконувати завдання за допомогою аналізу історичних даних і генерує свіжий вміст, наприклад текст і зображення, на основі цього навчання.
Комітет рекомендує виконати оцінку безпеки контенту, який використовується для навчання загальнодоступних генеративних моделей ШІ. Контент, що перевищує «5% у вигляді протиправної та шкідливої інформації», буде внесено до чорного списку. Ця категорія включає вміст, який пропагує тероризм, насильство, підрив соціалістичної системи, завдає шкоди репутації країни та дії, що підривають національну єдність і суспільну стабільність.
У проекті правил також наголошується, що дані, які підлягають цензурі в китайському Інтернеті, не повинні служити навчальним матеріалом для цих моделей. Ця подія відбулася трохи більше ніж через місяць після того, як регуляторні органи дали дозвіл різним китайським технологічним компаніям, включаючи відому пошукову компанію Baidu, представити широкій громадськості свої генеративні чат-боти на основі ШІ.
Починаючи з квітня, CAC постійно повідомляє про свої вимоги до компаній надавати регуляторним органам оцінку безпеки, перш ніж запроваджувати генеративні послуги на основі ШІ для громадськості. У липні регулятор кіберпростору випустив набір інструкцій, що регулюють ці послуги, які, на думку галузевих аналітиків, були значно менш обтяжливими порівняно із заходами, запропонованими в початковому квітневому проекті.
За темою: Байден розглядає посилення контролю чіпів ШІ для Китаю через третіх сторін
Нещодавно оприлюднений проект положень безпеки вимагає, щоб організації, які займаються навчанням цим моделям штучного інтелекту, отримували чітку згоду від осіб, чиї персональні дані, включаючи біометричну інформацію, використовуються для навчання. Крім того, рекомендації містять вичерпні інструкції щодо запобігання порушенням, пов’язаним з інтелектуальною власністю.
Країни в усьому світі борються зі створенням нормативної бази для цієї технології. Китай розглядає штучний інтелект як область, у якій він прагне конкурувати зі Сполученими Штатами, і має намір стати світовим лідером у цій галузі до 2030 року.