Google розкриває зловживання урядом Близнюків AI

Разное

Незважаючи на те, що прогрес штучного інтелекту розблокує можливості в різних галузях, інновації також можуть стати цілями хакерів, підкреслюючи потенціал для зловживання ШІ.

Департамент розвідки Google оприлюднив документ під назвою зловмисне зловживання генеративним ШІ, розкриваючи, як суб’єкти загрози підійшли до свого чату з штучного інтелекту Близнюка.

За словами Google, суб’єкти загрози намагалися джейлбрейк, використовуючи підказки. Крім того, підтримуються урядом передової постійної загрози (APT), намагалися використовувати Близнюків, щоб допомогти їм у зловмисних починаннях.

Google повідомляє про невдалі спроби джейлбрейк Близнюки

Google сказав, що в той час, як суб’єкти загрози намагалися джейлбрейк Близнюків, компанія не побачила просунутих спроб у цьому векторі атаки.

За словами Google, хакери використовували лише основні заходи, такі як рефразінг або неодноразово надсилають той самий підказки. Google сказав, що спроби були невдалими.

AI Juailbreaks – це оперативні напади ін’єкцій, які мають на меті отримати модель AI для виконання завдань, які було заборонено виконувати. Сюди входить протікання конфіденційної інформації або надання небезпечного вмісту.

Приклад загальнодоступного підказки джейлбрейка. Джерело: Google

Google сказав, що в одному випадку влучний актор використовував загальнодоступні підказки, щоб обдурити Близнюків у виконанні шкідливих завдань кодування. Однак Google заявив, що спроба була невдалою, оскільки Близнюки забезпечили фільтрувальну реакцію.

Пов’язано: Індія для запуску генеративної моделі AI у 2025 році на тлі шаленості DeepSeek

Як суб’єкти загрози, що підтримуються урядом, використовували Близнюки

На додаток до спроби джейлбрейка з низьким вмістом, Google повідомив, як APT, що підтримуються урядом, підійшли до Близнюків.

Google заявив, що ці зловмисники намагалися використовувати Близнюків для надання допомоги у їх шкідливій діяльності. Це включало збір інформації про їх цілі, дослідження публічно відомих вразливих місць та завдання кодування та сценаріїв. Крім того, Google заявив, що були спроби забезпечити посткомпромісні заходи, такі як ухилення від оборони.

Google повідомив, що актори APT на базі Ірану зосереджувались на використанні AI у розробці фішинг-кампаній. Вони також використовували модель AI для проведення Recon у експертів та організацій оборони. Акторські актори в Ірані також використовували AI для створення вмісту кібербезпеки.

Тим часом влучні актори Китаю використовували Близнюків для усунення несправностей коду, сценаріїв та розвитку. Крім того, вони використовували AI для дослідження, як отримати глибший доступ до своїх цільових мереж.

Актори в Північній Кореї також використовували Близнюків для різних фаз їх життєвого циклу атаки, від досліджень до розробок. У звіті йдеться:

“Вони також використовували Близнюків для дослідження теми стратегічного інтересу для уряду Північної Кореї, таких як південнокорейські військові та криптовалюта”.

У 2024 році північнокорейські хакери вкрали 1,3 мільярда доларів цифрових активів, згідно з ланцюгом.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар