Атаки AI deepfake поширюватимуться не тільки на відео та аудіо: охоронні фірми

Оскільки шахрайство з глибокими фейками на основі ШІ стає все більш поширеним, охоронні фірми попереджають, що цей метод атаки може поширюватися не лише на відео та аудіо.

4 вересня фірма-виробник програмного забезпечення Gen Digital повідомила, що зловмисники, які використовують шахрайство deepfake на основі штучного інтелекту для обману власників криптовалюти, активізували операції у другому кварталі 2024 року.

Компанія заявила, що група шахраїв під назвою «CryptoCore» вже ошукала понад 5 мільйонів доларів у криптовалюті за допомогою AI deepfakes.

Хоча сума здається низькою порівняно з іншими атаками в криптовалютному просторі, фахівці з безпеки вважають, що атаки штучного інтелекту можуть розширюватися, загрожуючи безпеці цифрових активів.

Дипфейки ШІ загрожують безпеці гаманця

Компанія безпеки Web3 CertiK вважає, що шахрайство з глибокими фейками на основі ШІ стане більш витонченим. Представник CertiK сказав Cointelegraph, що в майбутньому це також може розширитися за межі відео та аудіозаписів.

CertiK пояснив, що вектор атаки може бути використаний для обману гаманців, які використовують розпізнавання обличчя, щоб надати хакерам доступ. Прес-секретар сказав:

«Наприклад, якщо гаманець покладається на розпізнавання обличчя для захисту важливої ​​інформації, він повинен оцінити надійність свого рішення проти загроз, керованих ШІ».

У зв’язку з цим, речник сказав, що членам криптовалютної спільноти важливо все більше знати, як працює ця атака.

Дипфейки AI продовжуватимуть загрожувати криптовалютам

Луїс Корронс, проповідник безпеки компанії Norton з кібербезпеки, вважає, що атаки за допомогою штучного інтелекту й надалі будуть націлені на власників криптовалют. Корронс зазначив, що криптовалюта приносить значні фінансові винагороди та менші ризики для хакерів. Він сказав:

«Транзакції з криптовалютою часто мають високу вартість і можуть проводитися анонімно, що робить їх більш привабливою мішенню для кіберзлочинців, оскільки успішні атаки приносять значні фінансові винагороди та менший ризик виявлення».

Крім того, Корронс вважає, що криптовалюта все ще не регулюється, що дає кіберзлочинцям менше правових наслідків і більше можливостей для атак.

За темою: Уоррен Баффет порівнює штучний інтелект з ядерною зброєю після того, як побачив глибокий фейк-двійника

Як виявити атаки deepfake на основі ШІ

Хоча атаки за допомогою штучного інтелекту можуть бути великою загрозою для користувачів криптовалюти, спеціалісти з безпеки вважають, що є способи для користувачів захистити себе від такого типу загроз. На думку CertiK, гарним початком було б навчання.

Інженер CertiK пояснив, що важливо знати загрози та інструменти та служби, доступні для боротьби з ними. Крім того, професіонал також додав, що також важливо остерігатися небажаних запитів. CertiK сказав:

«Скептичне ставлення до небажаних запитів на отримання грошей або особистої інформації має вирішальне значення, і ввімкнення багатофакторної автентифікації для конфіденційних облікових записів може допомогти додати додатковий рівень захисту від таких шахрайств».

Тим часом Корронс вважає, що є «червоні прапорці», які користувачі можуть спробувати помітити, щоб уникнути шахрайства з глибоким фейком ШІ. Це включає неприродні рухи очей, міміку та рухи тіла.

Крім того, відсутність емоцій також може бути серйозною ознакою. «Ви також можете помітити морфінг обличчя або зшивання зображень, якщо на чиємусь обличчі, здається, немає емоцій, які повинні відповідати тому, що вони нібито говорять», — пояснив Корронс.

Окрім цього, виконавчий директор сказав, що незграбні форми тіла, зміщення та невідповідності в аудіо мають допомогти користувачам визначити, чи дивляться вони на дипфейк ШІ чи ні.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар