У вихідні 20-21 січня громадяни Нью-Гемпшира отримали незвичайний політичний запит. Робо-дзвінки, які багатьом звучали як голос президента США Джо Байдена, казали їм не голосувати на первинних виборах 23 січня.
Автоматизовані повідомлення, ймовірно, були згенеровані інструментом штучного інтелекту (AI) deepfake з очевидною метою втручання в президентські вибори 2024 року.
NH voters are getting robocalls from Biden telling them not to vote tomorrow.
Except it’s not Biden. It’s a deepfake of his voice.
This is what happens when AI’s power goes unchecked.
If we don’t regulate it, our democracy is doomed.pic.twitter.com/8wlrT63Mfr
— Public Citizen (@Public_Citizen) January 22, 2024
На аудіо, записаному NBC, мешканцям сказали залишатися вдома під час первинних виборів:
«Голосування цього вівторка лише дає республіканцям можливість знову обрати Дональда Трампа. Ваш голос має значення в листопаді, а не в цей вівторок».
Офіс генерального прокурора штату опублікував заяву, в якій засудив ці дзвінки як дезінформацію, додавши, що «виборці Нью-Гемпшира повинні повністю ігнорувати зміст цього повідомлення». Тим часом речник колишнього президента Дональда Трампа заперечив будь-яку причетність кандидата від Республіканської партії або його кампанії.
За темою: Трамп «ніколи не дозволить» CBDC, віддає «повну заслугу» Вівеку Рамасвамі
Схоже, слідчі ще не встановили джерело автоматичних дзвінків, але розслідування триває.
У пов’язаних новинах, ще один політичний скандал, пов’язаний з deepfake аудіо, стався на вихідних, коли 21 січня з’явилося згенероване штучним інтелектом аудіо, яке імітує лідера демократів Манхеттена Кіта Райта. Deepfake аудіо включало імітацію голосу Райта, члена демократичної асамблеї Інез Діккенс..
Згідно зі звітом Politico, дехто відкинув аудіо як підробку, але принаймні один політичний інсайдер на мить переконався, що це справжнє.
Демократ Манхеттена та колишній спікер міської ради Мелісса Марк-Віверіто сказала Politico, що спочатку вони вважали фейки достовірними:
«Я сказав: «О, чорт». Я думав, що це справжнє».
Експерти вважають, що погані актори обирають аудіопідробки, а не відео, оскільки споживачі, як правило, більш розбірливі, коли йдеться про візуальні підробки. Як нещодавно сказав Financial Times радник зі штучного інтелекту Генрі Айдер, «усі звикли до Photoshop або принаймні знають, що він існує».
Здається, на момент публікації цієї статті не існує універсального методу, за допомогою якого можна було б виявити дипфейки або стримати їх. Експерти рекомендують бути обережними під час взаємодії з ЗМІ з невідомих або сумнівних джерел, особливо коли йдеться про надзвичайні твердження.
Німецький банківський конгломерат Deutsche Bank приєднався до другого раунду фінансування серії B, проведеного блокчейн-компанією Partior,…
Інвестори висловили побоювання щодо недавніх коливань цін на біткойн, особливо в світлі прогнозів аналітиків про…
Ден Фінлей, співзасновник платформи криптовалютного гаманця MetaMask, нещодавно провів практичний експеримент із мемекойнами, щоб дослідити…
Сьогодні 12 років тому біткойн, найбільша криптовалюта за ринковою капіталізацією, пройшов через свою першу подію…
Криптовалютні хакери продовжують псувати репутацію індустрії, оскільки річна вартість, викрадена через кібератаки, наближається до 1,5…
Повідомляється, що понад 30 засновникам технологій і криптовалют у Сполучених Штатах було відмовлено в доступі…