Сполучені Штати є однією з багатьох країн у всьому світі, які готуються до великого циклу виборів у 2024 році. З появою загальнодоступних інструментів штучного інтелекту (ШІ) зросла кількість політичних дипфейків, які вимагають від виборцівнабути нових навичок розрізняти реальність.
27 лютого голова розвідки Сенату Марк Ворнер (D-Va.) заявив, що Америка «менш готова» до фальсифікації виборів на майбутніх виборах 2024 року, ніж на попередніх у 2020 році.
Це значною мірою пов’язано зі зростанням дипфейків, створених штучним інтелектом, у США за останній рік. Згідно з даними SumSub, служби перевірки особи, у Північній Америці зафіксовано зростання дипфейків на 1740%, причому кількість дипфейків, виявлених у всьому світі у 2023 році, зросла в десять разів.
У період з 20 по 21 січня жителі Нью-Гемпшира повідомили, що отримали автоматичні дзвінки з голосом президента США Джо Байдена, який сказав їм не голосувати на праймеріз 23 січня.
Через тиждень цей інцидент спонукав регулятори США заборонити голоси, згенеровані штучним інтелектом, які використовуються в автоматизованих телефонних шахрайствах, зробивши їх незаконними відповідно до законів США про телемаркетинг.
Однак, як і в усіх видах шахрайства, де є бажання, є спосіб, незважаючи на будь-які закони. Оскільки США готуються до Супервівторка 5 березня — коли більшість штатів США проводить первинні вибори та кокуси — велика стурбованість щодо неправдивої інформації та фейків, створених ШІ.
Cointelegraph поспілкувався з Павлом Голдманом Калайдіним, керівником відділу штучного інтелекту та машинного навчання в SumSub, щоб краще зрозуміти, як виборці можуть краще підготуватися до виявлення deepfake і впоратися з ситуаціями deepfake фальсифікації особи.
Калайдін сказав, що, незважаючи на те, що кількість дипфейків у всьому світі вже зросла в 10 разів, він очікує, що вона зросте ще більше, коли ми наближаємося до сезону виборів.
Він наголосив на двох типах дипфейків, про які слід пам’ятати: один, який походить від «технічно підкованих команд», які використовують передові технології та апаратне забезпечення, такі як високоякісні графічні процесори та генеративні моделі ШІ, які часто важче виявити, і «нижче-шахраї рівня», які використовують загальнодоступні інструменти на споживчих комп’ютерах.
«Важливо, щоб виборці уважно вивчали вміст у своїй стрічці та залишалися обережними щодо відео- чи аудіоконтенту», — сказав він. Додавання:
«Особи повинні надавати пріоритет перевірці джерела інформації, розрізняючи надійні медіа та контент від невідомих користувачів».
За словами фахівця зі штучного інтелекту, у дипфейках є ряд ознак, про які слід пам’ятати.
«Якщо виявлено будь-яку з наступних особливостей — неприродні рухи рук або губ, штучний фон, нерівномірні рухи, зміни в освітленні, відмінності в тонах шкіри, незвичайні моделі миготіння, погана синхронізація рухів губ із промовою або цифрові артефакти — вміст буде виявлено. ймовірно створено».
Проте Калайдін попередив, що ця технологія продовжить «швидко розвиватися» і сказав, що незабаром людське око буде «неможливо виявити дипфейки без спеціальних технологій виявлення».
Калайдін сказав, що справжня проблема полягає в створенні дипфейків і їх подальшому розповсюдженні. У той час як доступність штучного інтелекту відкрила двері можливостей для багатьох, доступність винна в збільшенні фейкового контенту. Він додав:
«Демократизація технології штучного інтелекту надала широкий доступ до програм обміну обличчями та можливість маніпулювати контентом для створення неправдивих наративів».
Потім відбувається розповсюдження цього підробленого вмісту, оскільки відсутність чітких правових норм і політики полегшує поширення такої дезінформації в Інтернеті.
«Це, у свою чергу, робить виборців погано поінформованими, сприяючи ризику прийняття погано поінформованих рішень», — попередив Калайдін.
Він закликав потенційними рішеннями бути обов’язковими перевірками на наявність штучного інтелекту або підробленого контенту на платформах соціальних мереж для інформування користувачів.
«Платформи повинні використовувати технології глибокого фейку та візуального виявлення, щоб гарантувати автентичність вмісту, захищаючи користувачів від дезінформації та глибоких фейків».
Інший потенційний підхід, який він запропонував, передбачав використання верифікації користувачів на платформах, на яких «перевірені користувачі нестимуть відповідальність за автентичність візуального контенту, тоді як неперевірені користувачі будуть чітко позначені, закликаючи інших проявляти обережність, довіряючи вмісту».
Цей неспокійний клімат змусив уряди навколо почати розглядати достатні заходи. Індія опублікувала консультацію для місцевих технологічних компаній, у якій говориться, що потрібне схвалення, перш ніж випускати нові «ненадійні» інструменти штучного інтелекту для публічного використання перед виборами в 2024 році.
У Європі Європейська комісія створила рекомендації щодо дезінформації штучного інтелекту для платформ, що працюють у цьому регіоні, у світлі кількох виборчих циклів у країнах регіону. Невдовзі після того, як Meta, материнська компанія Facebook та Instagram, опублікувала власну стратегію для ЄС щодо боротьби зі зловживанням генеративним штучним інтелектом у контенті на своїх платформах.
У Сполучених Штатах була запущена нова краудфандингова платформа, присвячена біткойн-стартапам, яка має на меті з’єднати…
MicroStrategy, публічна компанія з бізнес-аналітики та програмного забезпечення, повідомила про значне розширення своїх біткойн-холдингів у…
Нещодавній аналіз показує, що ціна Ethereum може працювати за 8-річним циклом, що відрізняється від встановленого…
Спотові біржові фонди біткойнів (ETF), що базуються в США, досягли рекордно високого тижневого припливу, що…
Ethereum торгується на найвищих рівнях з кінця липня, коливаючись біля 3470 доларів. Це знаменує значний…
Pump.fun, децентралізована платформа для створення мемкойнів на основі Solana, зазнала критики після того, як користувачі…