Сполучені Штати, Сполучене Королівство, Австралія та 15 інших країн опублікували глобальні рекомендації, які допоможуть захистити моделі штучного інтелекту від втручання, закликаючи компанії робити свої моделі «захищеними за проектом».
26 листопада 18 країн опублікували 20-сторінковий документ, в якому описується, як фірми, що займаються штучним інтелектом, повинні забезпечувати свою кібербезпеку під час розробки або використання моделей штучного інтелекту, оскільки вони стверджували, що «безпека часто може бути другорядним питанням» у швидкозмінній галузі.
Керівні принципи складалися здебільшого загальних рекомендацій, таких як суворий контроль за інфраструктурою моделі штучного інтелекту, моніторинг будь-яких втручань у моделі до та після випуску та навчання персоналу ризикам кібербезпеки.
https://twitter.com/CISAgov/status/1728965424828883296?ref_src=twsrc%5Etfw
Не згадувалося про певні спірні питання у сфері штучного інтелекту, включно з тим, який можливий контроль має існувати навколо використання моделей генерації зображень і глибоких фейків або методів збору даних і використання їх у навчальних моделях — проблема, через яку кілька компаній штучного інтелекту подали до суду за порушення авторських правпретензії.
«Ми перебуваємо на переломній точці розвитку штучного інтелекту, який, цілком можливо, є найбільш значущою технологією нашого часу», — сказав у заяві міністр внутрішньої безпеки США Алехандро Майоркас. «Кібербезпека є ключем до створення безпечних, захищених і надійних систем ШІ».
За темою: Технічна коаліція ЄС попереджає про надмірне регулювання штучного інтелекту перед завершенням прийняття Закону ЄС про штучний інтелект
Рекомендації слідують за іншими урядовими ініціативами, які впливають на штучний інтелект, у тому числі уряди та фірми, що займаються штучним інтелектом, зустрічаються на саміті з безпеки штучного інтелекту в Лондоні на початку цього місяця для координації угоди щодо розробки штучного інтелекту.
Тим часом Європейський Союз оприлюднює деталі свого закону про штучний інтелект, який контролюватиме космічний простір, а президент США Джо Байден у жовтні видав указ, який встановлює стандарти безпеки та захисту штучного інтелекту, хоча обидва зазнали негативного впливу індустрії ШІ, яка стверджувала, що вони можутьпригнічувати інновації.
Серед інших співавторів, які підписали нові принципи «безпечної безпеки» — Канада, Франція, Німеччина, Ізраїль, Італія, Японія, Нова Зеландія, Нігерія, Норвегія, Південна Корея та Сінгапур. Фірми штучного інтелекту, зокрема OpenAI, Microsoft, Google, Anthropic і Scale AI, також долучилися до розробки рекомендацій.
У Сполучених Штатах була запущена нова краудфандингова платформа, присвячена біткойн-стартапам, яка має на меті з’єднати…
MicroStrategy, публічна компанія з бізнес-аналітики та програмного забезпечення, повідомила про значне розширення своїх біткойн-холдингів у…
Нещодавній аналіз показує, що ціна Ethereum може працювати за 8-річним циклом, що відрізняється від встановленого…
Спотові біржові фонди біткойнів (ETF), що базуються в США, досягли рекордно високого тижневого припливу, що…
Ethereum торгується на найвищих рівнях з кінця липня, коливаючись біля 3470 доларів. Це знаменує значний…
Pump.fun, децентралізована платформа для створення мемкойнів на основі Solana, зазнала критики після того, як користувачі…