Дипфейки ИИ обманывают избирателей и политиков в преддверии выборов в США в 2024 году: «Я думал, что это правда»

Новости

Граждане Нью-Гэмпшира получили необычный политический запрос в выходные 20-21 января. Звонки от роботов, которые многим напоминали голос президента США Джо Байдена, призывали их не голосовать на праймериз 23 января.

Автоматизированные сообщения, очевидно, были созданы с помощью инструмента искусственного интеллекта (ИИ) для создания дипфейков с очевидной целью вмешательства в президентские выборы 2024 года.

Согласно аудиозаписям, записанным NBC, жителям было приказано оставаться дома во время праймериз:

«Голосование в этот вторник только позволит республиканцам снова избрать Дональда Трампа. Ваш голос будет иметь значение в ноябре, а не в этот вторник».

Генеральная прокуратура штата опубликовала заявление, в котором назвала эти звонки дезинформацией, добавив, что «избиратели Нью-Гэмпшира должны полностью игнорировать содержание этого сообщения». Между тем, представитель бывшего президента Дональда Трампа отрицал какую-либо причастность кандидата от Республиканской партии или его предвыборной кампании.

Связанный: Трамп «никогда не допустит» CBDC и «полностью отдает должное» Вивеку Рамасвами

Следователи, похоже, еще не определили источник звонков роботов, но расследование продолжается.

Из новостей по теме: еще один политический скандал, связанный с дипфейковым аудио, разразился на выходных, когда 21 января появился сгенерированный искусственным интеллектом аудио, имитирующий лидера демократов Манхэттена Кита Райта..

Согласно сообщению Politico, некоторые сочли аудиозапись фальшивкой, но по крайней мере один политический инсайдер на мгновение убедился, что она настоящая.

Демократ Манхэттена и бывший спикер городского совета Мелисса Марк-Виверито рассказала Politico, что сначала они думали, что фейки заслуживают доверия:

«Я подумал: «Ох, дерьмо». Я думал, что это реально».

Эксперты полагают, что злоумышленники предпочитают аудиофейки видео, потому что потребители, как правило, более разборчивы, когда дело доходит до визуальной фальшивки. Как недавно рассказал Financial Times консультант по искусственному интеллекту Генри Эйдер, «все привыкли к Photoshop или, по крайней мере, знают, что он существует».

На момент публикации этой статьи не существовало какого-либо универсального метода, с помощью которого можно было бы обнаружить или предотвратить дипфейки. Эксперты рекомендуют проявлять осторожность при использовании средств массовой информации из неизвестных или сомнительных источников, особенно когда речь идет о чрезвычайных заявлениях.

Источник

Автор, являюсь внимательным наблюдателем тенденций и новых идей в области криптовалют и блокчейн технологий. Слежу за последними новостями и развитиями в этой области и готов анализировать и интерпретировать их для читателей.

Стремлюсь быть в курсе всех новых идей и инноваций в криптоиндустрии, чтобы статьи были всегда актуальными и полезными. Моя цель - предоставить читателям полную и достоверную информацию о последних тенденциях и развитиях в криптоиндустрии.

Считаю, что быть внимательным к тенденциям и новым идеям - важный аспект моей работы как автора, поскольку позволяет мне предоставлять читателям самую свежую и актуальную информацию в этой быстро развивающейся области.

Оцените автора
CryptoHamster.org
Добавить комментарий