Сполучені Штати, Сполучене Королівство, Австралія та 15 інших країн опублікували глобальні рекомендації, які допоможуть захистити моделі штучного інтелекту від втручання, закликаючи компанії робити свої моделі «захищеними за проектом».
26 листопада 18 країн опублікували 20-сторінковий документ, в якому описується, як фірми, що займаються штучним інтелектом, повинні забезпечувати свою кібербезпеку під час розробки або використання моделей штучного інтелекту, оскільки вони стверджували, що «безпека часто може бути другорядним питанням» у швидкозмінній галузі.
Керівні принципи складалися здебільшого загальних рекомендацій, таких як суворий контроль за інфраструктурою моделі штучного інтелекту, моніторинг будь-яких втручань у моделі до та після випуску та навчання персоналу ризикам кібербезпеки.
Exciting news! We joined forces with @NCSC and 21 international partners to develop the “Guidelines for Secure AI System Development”! This is operational collaboration in action for secure AI in the digital age: https://t.co/DimUhZGW4R#AISafety #SecureByDesign pic.twitter.com/e0sv5ACiC3
— Cybersecurity and Infrastructure Security Agency (@CISAgov) November 27, 2023
Не згадувалося про певні спірні питання у сфері штучного інтелекту, включно з тим, який можливий контроль має існувати навколо використання моделей генерації зображень і глибоких фейків або методів збору даних і використання їх у навчальних моделях — проблема, через яку кілька компаній штучного інтелекту подали до суду за порушення авторських правпретензії.
«Ми перебуваємо на переломній точці розвитку штучного інтелекту, який, цілком можливо, є найбільш значущою технологією нашого часу», — сказав у заяві міністр внутрішньої безпеки США Алехандро Майоркас. «Кібербезпека є ключем до створення безпечних, захищених і надійних систем ШІ».
За темою: Технічна коаліція ЄС попереджає про надмірне регулювання штучного інтелекту перед завершенням прийняття Закону ЄС про штучний інтелект
Рекомендації слідують за іншими урядовими ініціативами, які впливають на штучний інтелект, у тому числі уряди та фірми, що займаються штучним інтелектом, зустрічаються на саміті з безпеки штучного інтелекту в Лондоні на початку цього місяця для координації угоди щодо розробки штучного інтелекту.
Тим часом Європейський Союз оприлюднює деталі свого закону про штучний інтелект, який контролюватиме космічний простір, а президент США Джо Байден у жовтні видав указ, який встановлює стандарти безпеки та захисту штучного інтелекту, хоча обидва зазнали негативного впливу індустрії ШІ, яка стверджувала, що вони можутьпригнічувати інновації.
Серед інших співавторів, які підписали нові принципи «безпечної безпеки» — Канада, Франція, Німеччина, Ізраїль, Італія, Японія, Нова Зеландія, Нігерія, Норвегія, Південна Корея та Сінгапур. Фірми штучного інтелекту, зокрема OpenAI, Microsoft, Google, Anthropic і Scale AI, також долучилися до розробки рекомендацій.