США, Великобритания, Австралия и 15 других стран выпустили глобальные рекомендации, помогающие защитить модели ИИ от несанкционированного доступа, призывая компании делать свои модели «безопасными по своей конструкции».
26 ноября 18 стран опубликовали 20-страничный документ, в котором описывается, как компаниям, занимающимся искусственным интеллектом, следует обеспечивать свою кибербезопасность при разработке или использовании моделей искусственного интеллекта, поскольку они заявили, что «безопасность часто может быть второстепенным фактором» в быстро развивающейся отрасли.
Руководящие принципы состояли в основном из общих рекомендаций, таких как поддержание жесткого контроля над инфраструктурой модели ИИ, мониторинг любого вмешательства в модели до и после выпуска, а также обучение персонала рискам кибербезопасности.
https://twitter.com/CISAgov/status/1728965424828883296?ref_src=twsrc%5Etfw
Не были упомянуты некоторые спорные вопросы в сфере искусственного интеллекта, в том числе возможные меры контроля, которые должны существовать в отношении использования моделей генерации изображений и глубоких фейков или методов сбора данных и их использования в обучающих моделях — проблема, из-за которой несколько компаний, занимающихся искусственным интеллектом, подали в суд за нарушение авторских прав. претензии.
«Мы находимся на переломном этапе в развитии искусственного интеллекта, который вполне может стать самой важной технологией нашего времени», — заявил в своем заявлении министр внутренней безопасности США Алехандро Майоркас. «Кибербезопасность является ключом к созданию безопасных, надежных и надежных систем искусственного интеллекта».
По теме: Технологическая коалиция ЕС предупреждает о чрезмерном регулировании ИИ до завершения принятия Закона ЕС об ИИ
Эти руководящие принципы следуют другим правительственным инициативам, которые влияют на ИИ, включая встречу правительств и компаний, занимающихся ИИ, на саммите по безопасности ИИ в Лондоне в начале этого месяца для координации соглашения о разработке ИИ.
Тем временем Европейский Союз обсуждает детали своего Закона об искусственном интеллекте, который будет контролировать эту сферу, а президент США Джо Байден в октябре издал указ, устанавливающий стандарты безопасности и защиты искусственного интеллекта — хотя оба столкнулись с сопротивлением со стороны индустрии искусственного интеллекта, утверждающей, что они могутподавлять инновации.
Другими соавторами новых руководящих принципов «безопасности по дизайну» являются Канада, Франция, Германия, Израиль, Италия, Япония, Новая Зеландия, Нигерия, Норвегия, Южная Корея и Сингапур. Компании, занимающиеся искусственным интеллектом, в том числе OpenAI, Microsoft, Google, Anthropic и Scale AI, также внесли свой вклад в разработку рекомендаций.
Pump.fun, децентрализованная платформа для создания мемкоинов на основе Соланы, подверглась критике после того, как пользователи…
Сага о Джеймсе Хауэллсе и его биткоин-состоянии в 716 миллионов долларов (569 миллионов британских фунтов),…
Сообщается, что дружественный к криптовалютам цифровой банк Singapore Gulf Bank ожидает вливания средств в размере…
Sky Mavis, разработчик веб3-игры Axie Infinity и блокчейна Ronin, объявила, что увольняет 21% своей рабочей…
В новом анализе известный криптовалютный аналитик Майлз Дойчер обнародовал свой тезис о криптовалюте, которая, по…
За последнюю неделю собственная криптовалюта Stellar, XLM, выросла на 180%, что вызвало переполох на рынке…