Категории: Разное

Дипфейки штучного інтелекту обманюють виборців і політиків напередодні виборів у США 2024 року. «Я думав, що це правда»

У вихідні 20-21 січня громадяни Нью-Гемпшира отримали незвичайний політичний запит. Робо-дзвінки, які багатьом звучали як голос президента США Джо Байдена, казали їм не голосувати на первинних виборах 23 січня.

Автоматизовані повідомлення, ймовірно, були згенеровані інструментом штучного інтелекту (AI) deepfake з очевидною метою втручання в президентські вибори 2024 року.

На аудіо, записаному NBC, мешканцям сказали залишатися вдома під час первинних виборів:

«Голосування цього вівторка лише дає республіканцям можливість знову обрати Дональда Трампа. Ваш голос має значення в листопаді, а не в цей вівторок».

Офіс генерального прокурора штату опублікував заяву, в якій засудив ці дзвінки як дезінформацію, додавши, що «виборці Нью-Гемпшира повинні повністю ігнорувати зміст цього повідомлення». Тим часом речник колишнього президента Дональда Трампа заперечив будь-яку причетність кандидата від Республіканської партії або його кампанії.

За темою: Трамп «ніколи не дозволить» CBDC, віддає «повну заслугу» Вівеку Рамасвамі

Схоже, слідчі ще не встановили джерело автоматичних дзвінків, але розслідування триває.

У пов’язаних новинах, ще один політичний скандал, пов’язаний з deepfake аудіо, стався на вихідних, коли 21 січня з’явилося згенероване штучним інтелектом аудіо, яке імітує лідера демократів Манхеттена Кіта Райта. Deepfake аудіо включало імітацію голосу Райта, члена демократичної асамблеї Інез Діккенс..

Згідно зі звітом Politico, дехто відкинув аудіо як підробку, але принаймні один політичний інсайдер на мить переконався, що це справжнє.

Демократ Манхеттена та колишній спікер міської ради Мелісса Марк-Віверіто сказала Politico, що спочатку вони вважали фейки достовірними:

«Я сказав: «О, чорт». Я думав, що це справжнє».

Експерти вважають, що погані актори обирають аудіопідробки, а не відео, оскільки споживачі, як правило, більш розбірливі, коли йдеться про візуальні підробки. Як нещодавно сказав Financial Times радник зі штучного інтелекту Генрі Айдер, «усі звикли до Photoshop або принаймні знають, що він існує».

Здається, на момент публікації цієї статті не існує універсального методу, за допомогою якого можна було б виявити дипфейки або стримати їх. Експерти рекомендують бути обережними під час взаємодії з ЗМІ з невідомих або сумнівних джерел, особливо коли йдеться про надзвичайні твердження.

Victoria Lyapota

Недавние статьи

Frax Finance X зламали, генеральний директор підозрює «внутрішню роботу» в офісі Ілона Маска

Хакер нібито отримав контроль над обліковим записом у соціальних мережах X платформи для кредитування криптовалюти…

3 години ago

Фінал Ethereum? Інвестори витягують з бірж 3 мільярди доларів

В екосистемі Ethereum дують вітри змін. Після довгоочікуваного схвалення спотових ефірних ETF у США 23…

5 години ago

GameStop зростає протягом ночі, коли Roaring Kitty розкриває позицію GME на 180 мільйонів доларів

GameStop (GME) піднявся на понад 19% під час нічних торгів після того, як Кіт Гілл,…

8 години ago

Зупинка блокчейну Linea підкреслює повільну децентралізацію Ethereum L2

Рішення Linea щодо блокчейну рівня 2 Ethereum припинити виробництво блоків після злому підкреслює необхідність того,…

8 години ago

криптовалютні біржі бачать вихід Ethereum на 3 мільярди доларів після схвалення ETF

Ефір (ETH) на суму понад 3 мільярди доларів США було вилучено з централізованих бірж криптовалют…

10 години ago

До вересня 2025 року біткоїн після хавлінгу може досягти 130 тисяч доларів

За словами криптовалютного трейдера Пітера Брандта, біткойн (BTC) може досягти піку циклу від 130 000…

11 години ago