США, Великобритания, Австралия и 15 других стран выпустили глобальные рекомендации, помогающие защитить модели ИИ от несанкционированного доступа, призывая компании делать свои модели «безопасными по своей конструкции».
26 ноября 18 стран опубликовали 20-страничный документ, в котором описывается, как компаниям, занимающимся искусственным интеллектом, следует обеспечивать свою кибербезопасность при разработке или использовании моделей искусственного интеллекта, поскольку они заявили, что «безопасность часто может быть второстепенным фактором» в быстро развивающейся отрасли.
Руководящие принципы состояли в основном из общих рекомендаций, таких как поддержание жесткого контроля над инфраструктурой модели ИИ, мониторинг любого вмешательства в модели до и после выпуска, а также обучение персонала рискам кибербезопасности.
Exciting news! We joined forces with @NCSC and 21 international partners to develop the “Guidelines for Secure AI System Development”! This is operational collaboration in action for secure AI in the digital age: https://t.co/DimUhZGW4R#AISafety #SecureByDesign pic.twitter.com/e0sv5ACiC3
— Cybersecurity and Infrastructure Security Agency (@CISAgov) November 27, 2023
Не были упомянуты некоторые спорные вопросы в сфере искусственного интеллекта, в том числе возможные меры контроля, которые должны существовать в отношении использования моделей генерации изображений и глубоких фейков или методов сбора данных и их использования в обучающих моделях — проблема, из-за которой несколько компаний, занимающихся искусственным интеллектом, подали в суд за нарушение авторских прав. претензии.
«Мы находимся на переломном этапе в развитии искусственного интеллекта, который вполне может стать самой важной технологией нашего времени», — заявил в своем заявлении министр внутренней безопасности США Алехандро Майоркас. «Кибербезопасность является ключом к созданию безопасных, надежных и надежных систем искусственного интеллекта».
По теме: Технологическая коалиция ЕС предупреждает о чрезмерном регулировании ИИ до завершения принятия Закона ЕС об ИИ
Эти руководящие принципы следуют другим правительственным инициативам, которые влияют на ИИ, включая встречу правительств и компаний, занимающихся ИИ, на саммите по безопасности ИИ в Лондоне в начале этого месяца для координации соглашения о разработке ИИ.
Тем временем Европейский Союз обсуждает детали своего Закона об искусственном интеллекте, который будет контролировать эту сферу, а президент США Джо Байден в октябре издал указ, устанавливающий стандарты безопасности и защиты искусственного интеллекта — хотя оба столкнулись с сопротивлением со стороны индустрии искусственного интеллекта, утверждающей, что они могутподавлять инновации.
Другими соавторами новых руководящих принципов «безопасности по дизайну» являются Канада, Франция, Германия, Израиль, Италия, Япония, Новая Зеландия, Нигерия, Норвегия, Южная Корея и Сингапур. Компании, занимающиеся искусственным интеллектом, в том числе OpenAI, Microsoft, Google, Anthropic и Scale AI, также внесли свой вклад в разработку рекомендаций.