Категории: Разное

Дипфейки штучного інтелекту обманюють виборців і політиків напередодні виборів у США 2024 року. «Я думав, що це правда»

У вихідні 20-21 січня громадяни Нью-Гемпшира отримали незвичайний політичний запит. Робо-дзвінки, які багатьом звучали як голос президента США Джо Байдена, казали їм не голосувати на первинних виборах 23 січня.

Автоматизовані повідомлення, ймовірно, були згенеровані інструментом штучного інтелекту (AI) deepfake з очевидною метою втручання в президентські вибори 2024 року.

На аудіо, записаному NBC, мешканцям сказали залишатися вдома під час первинних виборів:

«Голосування цього вівторка лише дає республіканцям можливість знову обрати Дональда Трампа. Ваш голос має значення в листопаді, а не в цей вівторок».

Офіс генерального прокурора штату опублікував заяву, в якій засудив ці дзвінки як дезінформацію, додавши, що «виборці Нью-Гемпшира повинні повністю ігнорувати зміст цього повідомлення». Тим часом речник колишнього президента Дональда Трампа заперечив будь-яку причетність кандидата від Республіканської партії або його кампанії.

За темою: Трамп «ніколи не дозволить» CBDC, віддає «повну заслугу» Вівеку Рамасвамі

Схоже, слідчі ще не встановили джерело автоматичних дзвінків, але розслідування триває.

У пов’язаних новинах, ще один політичний скандал, пов’язаний з deepfake аудіо, стався на вихідних, коли 21 січня з’явилося згенероване штучним інтелектом аудіо, яке імітує лідера демократів Манхеттена Кіта Райта. Deepfake аудіо включало імітацію голосу Райта, члена демократичної асамблеї Інез Діккенс..

Згідно зі звітом Politico, дехто відкинув аудіо як підробку, але принаймні один політичний інсайдер на мить переконався, що це справжнє.

Демократ Манхеттена та колишній спікер міської ради Мелісса Марк-Віверіто сказала Politico, що спочатку вони вважали фейки достовірними:

«Я сказав: «О, чорт». Я думав, що це справжнє».

Експерти вважають, що погані актори обирають аудіопідробки, а не відео, оскільки споживачі, як правило, більш розбірливі, коли йдеться про візуальні підробки. Як нещодавно сказав Financial Times радник зі штучного інтелекту Генрі Айдер, «усі звикли до Photoshop або принаймні знають, що він існує».

Здається, на момент публікації цієї статті не існує універсального методу, за допомогою якого можна було б виявити дипфейки або стримати їх. Експерти рекомендують бути обережними під час взаємодії з ЗМІ з невідомих або сумнівних джерел, особливо коли йдеться про надзвичайні твердження.

Victoria Lyapota

Недавние статьи

Фінансування Partior Series B сягає 80 мільйонів доларів за рахунок інвестицій Deutsche Bank

Німецький банківський конгломерат Deutsche Bank приєднався до другого раунду фінансування серії B, проведеного блокчейн-компанією Partior,…

3 години ago

Гроза попереду? Ціна біткойна може впасти на 20% через проблеми з пропозицією M2

Інвестори висловили побоювання щодо недавніх коливань цін на біткойн, особливо в світлі прогнозів аналітиків про…

6 години ago

Співзасновник MetaMask: Memecoins виявляють недоліки згоди Web3 та AI

Ден Фінлей, співзасновник платформи криптовалютного гаманця MetaMask, нещодавно провів практичний експеримент із мемекойнами, щоб дослідити…

6 години ago

День народження біткойна вдвічі: 12 років обмеженої пропозиції та етапів

Сьогодні 12 років тому біткойн, найбільша криптовалюта за ринковою капіталізацією, пройшов через свою першу подію…

6 години ago

Криптовалютні хакери викрали 71 мільйон доларів у листопаді, збільшивши річну суму до 1,48 мільярда доларів

Криптовалютні хакери продовжують псувати репутацію індустрії, оскільки річна вартість, викрадена через кібератаки, наближається до 1,5…

6 години ago

Засновники криптовалюти діляться історіями дебанкінгу під час «Operation Chokepoint 2. 0»

Повідомляється, що понад 30 засновникам технологій і криптовалют у Сполучених Штатах було відмовлено в доступі…

7 години ago