Граждане Нью-Гэмпшира получили необычный политический запрос в выходные 20-21 января. Звонки от роботов, которые многим напоминали голос президента США Джо Байдена, призывали их не голосовать на праймериз 23 января.
Автоматизированные сообщения, очевидно, были созданы с помощью инструмента искусственного интеллекта (ИИ) для создания дипфейков с очевидной целью вмешательства в президентские выборы 2024 года.
NH voters are getting robocalls from Biden telling them not to vote tomorrow.
Except it’s not Biden. It’s a deepfake of his voice.
This is what happens when AI’s power goes unchecked.
If we don’t regulate it, our democracy is doomed.pic.twitter.com/8wlrT63Mfr
— Public Citizen (@Public_Citizen) January 22, 2024
Согласно аудиозаписям, записанным NBC, жителям было приказано оставаться дома во время праймериз:
«Голосование в этот вторник только позволит республиканцам снова избрать Дональда Трампа. Ваш голос будет иметь значение в ноябре, а не в этот вторник».
Генеральная прокуратура штата опубликовала заявление, в котором назвала эти звонки дезинформацией, добавив, что «избиратели Нью-Гэмпшира должны полностью игнорировать содержание этого сообщения». Между тем, представитель бывшего президента Дональда Трампа отрицал какую-либо причастность кандидата от Республиканской партии или его предвыборной кампании.
Связанный: Трамп «никогда не допустит» CBDC и «полностью отдает должное» Вивеку Рамасвами
Следователи, похоже, еще не определили источник звонков роботов, но расследование продолжается.
Из новостей по теме: еще один политический скандал, связанный с дипфейковым аудио, разразился на выходных, когда 21 января появился сгенерированный искусственным интеллектом аудио, имитирующий лидера демократов Манхэттена Кита Райта..
Согласно сообщению Politico, некоторые сочли аудиозапись фальшивкой, но по крайней мере один политический инсайдер на мгновение убедился, что она настоящая.
Демократ Манхэттена и бывший спикер городского совета Мелисса Марк-Виверито рассказала Politico, что сначала они думали, что фейки заслуживают доверия:
«Я подумал: «Ох, дерьмо». Я думал, что это реально».
Эксперты полагают, что злоумышленники предпочитают аудиофейки видео, потому что потребители, как правило, более разборчивы, когда дело доходит до визуальной фальшивки. Как недавно рассказал Financial Times консультант по искусственному интеллекту Генри Эйдер, «все привыкли к Photoshop или, по крайней мере, знают, что он существует».
На момент публикации этой статьи не существовало какого-либо универсального метода, с помощью которого можно было бы обнаружить или предотвратить дипфейки. Эксперты рекомендуют проявлять осторожность при использовании средств массовой информации из неизвестных или сомнительных источников, особенно когда речь идет о чрезвычайных заявлениях.
Ethereum произвел фурор на рынке криптовалют, достигнув самого высокого уровня с июня после достижения локального…
В декабре игроки конкурирующих гольф-туров сразятся за кошелек, который, как сообщается, оценивается в 10 миллионов…
Публичные горнодобывающие компании потратили в общей сложности 3,6 миллиарда долларов на модернизацию заводов, основных средств…
В то время как Биткоин (BTC) достиг новых рекордных максимумов в этом месяце, цена Ethereum…
Сооснователь Scroll опроверг утверждения, что сеть уровня 2 Ethereum организовала «хищнический» запуск токенов в октябре,…
Сообщается, что бывший старший сотрудник Binance подал иск против подразделения криптовалютной биржи в Соединенном Королевстве,…