Техаська телекомунікаційна компанія Lingo Telecom оштрафувала Федеральну комісію зв’язку (FCC) на 1 мільйон доларів за причетність до незаконної афери з глибоким фейком Байдена.
Шахрайство передбачало використання створеного штучним інтелектом запису голосу президента Джо Байдена, який поширювався через автоматичні виклики, щоб перешкодити людям голосувати на первинних виборах у Нью-Гемпширі.
FCC розправляється
Згідно з прес-релізом FCC, штраф у розмірі 1 мільйона доларів є не просто мірою покарання, а й кроком до притягнення телекомунікаційних компаній до відповідальності за вміст, який вони дозволяють поширювати через свої мережі.
Окрім грошового штрафу, Lingo Telecom було зобов’язано реалізувати те, що FCC описує як «історичний план відповідності». Цей план передбачає суворе дотримання правил автентифікації ідентифікатора абонента Федеральної комісії з зв’язку (FCC), розроблених для запобігання шахрайству та обману, які мали місце в цьому випадку.
Більше того, тепер Lingo Telecom має дотримуватися принципів «Знай свого клієнта» та «Знай свого постачальника передових послуг», які мають вирішальне значення для того, щоб оператори телефонного зв’язку могли ефективно контролювати трафік дзвінків і гарантувати належну автентифікацію всіх дзвінків.
Небезпека для демократичних процесів
Автоматизовані дзвінки, організовані політичним консультантом Стівом Крамером, були частиною ширшої спроби втрутитися в первинні вибори в Нью-Гемпширі. Використовуючи технологію штучного інтелекту для створення переконливої імітації голосу президента Байдена, дзвінки мали на меті маніпулювати та залякувати виборців, підриваючи демократичний процес.
За темою: McAfee представляє програмне забезпечення для ПК для виявлення AI deepfake
Проте 23 травня Стіва Крамера звинуватили в його ролі в запуску автоматизованих дзвінків. Крамера, який працював на кандидата-суперника Діна Філіпса, звинуватили в тому, що він видавав себе за кандидата під час первинних виборів від Демократичної партії в Нью-Гемпширі.
Використання технології deepfake у цьому шахрайстві викликає особливе занепокоєння, оскільки це знаменує новий і тривожний розвиток у боротьбі з дезінформацією, що триває. Deepfakes, які використовують ШІ для створення дуже реалістичних, але шахрайських аудіо- чи відеозаписів, становлять серйозну загрозу цілісності демократичних процесів.
У березні Cointelegraph пролив світло на зростаючу проблему дипфейків, створених штучним інтелектом, під час поточного виборчого циклу, підкресливши критичну потребу виборців відрізняти правду від вигадки.
У лютому група з 20 провідних компаній, що займаються технологіями штучного інтелекту, взяли на себе зобов’язання гарантувати, що їх програмне забезпечення не буде використовуватися для впливу на результати виборів.