США, Великобритания, Австралия и 15 других стран выпустили глобальные рекомендации, помогающие защитить модели ИИ от несанкционированного доступа, призывая компании делать свои модели «безопасными по своей конструкции».
26 ноября 18 стран опубликовали 20-страничный документ, в котором описывается, как компаниям, занимающимся искусственным интеллектом, следует обеспечивать свою кибербезопасность при разработке или использовании моделей искусственного интеллекта, поскольку они заявили, что «безопасность часто может быть второстепенным фактором» в быстро развивающейся отрасли.
Руководящие принципы состояли в основном из общих рекомендаций, таких как поддержание жесткого контроля над инфраструктурой модели ИИ, мониторинг любого вмешательства в модели до и после выпуска, а также обучение персонала рискам кибербезопасности.
https://twitter.com/CISAgov/status/1728965424828883296?ref_src=twsrc%5Etfw
Не были упомянуты некоторые спорные вопросы в сфере искусственного интеллекта, в том числе возможные меры контроля, которые должны существовать в отношении использования моделей генерации изображений и глубоких фейков или методов сбора данных и их использования в обучающих моделях — проблема, из-за которой несколько компаний, занимающихся искусственным интеллектом, подали в суд за нарушение авторских прав. претензии.
«Мы находимся на переломном этапе в развитии искусственного интеллекта, который вполне может стать самой важной технологией нашего времени», — заявил в своем заявлении министр внутренней безопасности США Алехандро Майоркас. «Кибербезопасность является ключом к созданию безопасных, надежных и надежных систем искусственного интеллекта».
По теме: Технологическая коалиция ЕС предупреждает о чрезмерном регулировании ИИ до завершения принятия Закона ЕС об ИИ
Эти руководящие принципы следуют другим правительственным инициативам, которые влияют на ИИ, включая встречу правительств и компаний, занимающихся ИИ, на саммите по безопасности ИИ в Лондоне в начале этого месяца для координации соглашения о разработке ИИ.
Тем временем Европейский Союз обсуждает детали своего Закона об искусственном интеллекте, который будет контролировать эту сферу, а президент США Джо Байден в октябре издал указ, устанавливающий стандарты безопасности и защиты искусственного интеллекта — хотя оба столкнулись с сопротивлением со стороны индустрии искусственного интеллекта, утверждающей, что они могутподавлять инновации.
Другими соавторами новых руководящих принципов «безопасности по дизайну» являются Канада, Франция, Германия, Израиль, Италия, Япония, Новая Зеландия, Нигерия, Норвегия, Южная Корея и Сингапур. Компании, занимающиеся искусственным интеллектом, в том числе OpenAI, Microsoft, Google, Anthropic и Scale AI, также внесли свой вклад в разработку рекомендаций.
По сообщениям, в Южной Корее в Южной Корее, расположенная в Гонконге Fintech Firm Firm Rhotpay,…
Роберт Кийосаки, бизнесмен и автор бестселлеров Rich Dad Poed Dad, вновь звучит тревога об опасностях…
После того, как аналитик вырвался из пятимесячного нисходящего тренда, аналитик предполагает повторение последнего цикла-книги Stellar…
Стоп BlackRock Bitcoin ETF (IBIT) ограничил торговую неделю еще одним днем притока, получив 356,2 млн.…
По словам основателя Skybridge Энтони Скаламуччи, фонды суверенного богатства уже получают воздействие Биткоин, но значительные…
Биткоин вернулся в новости на этой неделе после того, как проехал 104 000 долларов, прежде…