Категории: Разное

OpenAI намагається розвіяти побоювання щодо втручання ШІ у політичні вибори

OpenAI, творець популярного чат-бота ChatGPT, опублікував нову публікацію в блозі, в якій описує свій підхід до виборів 2024 року в глобальному масштабі.

Його основний акцент полягав у забезпеченні прозорості, покращенні доступу до точної інформації про голосування та запобіганні зловживанням ШІ. «Ми хочемо переконатися, що наша технологія не використовується таким чином, щоб підірвати цей процес.

Компанія заявила, що захист «чесності» виборів — це зусилля, в якому беруть участь усі, і вона хоче переконатися, що її технологія «не використовується таким чином, що може підірвати цей процес».

«Ми хочемо переконатися, що наші системи штучного інтелекту створено, розгорнуто та безпечно використовуються. Як і будь-яка нова технологія, ці інструменти мають переваги та проблеми».

OpenAI каже, що має «міжфункціональні зусилля», які спеціально присвячені роботі, пов’язаній з виборами, яка дозволить швидко розслідувати та усувати можливі зловживання.

Серед цих зусиль – запобігання зловживанням, які визначаються як «оманливі глибокі фейки», чат-боти, які видають себе за кандидатів, або масштабні операції впливу. Зазначається, що одним із заходів було впровадження огорож на DALL-E, щоб відхиляти запити на створення зображень реальних людей, включаючи політичних кандидатів.

У серпні 2023 року регулятори в Сполучених Штатах навіть розглядали можливість регулювання політичних глибоких фейків і політичної реклами, створеної за допомогою ШІ, перед президентськими виборами 2024 року.

У OpenAI заявили, що створення додатків для політичної кампанії та лобіювання наразі також заборонено. Ми вже бачили, як політик, який балотувався на місце в Конгресі США, використовував штучний інтелект для виклику кампанії, щоб допомогти охопити більше потенційних виборців.

За темою: Вівек Рамасвамі вибуває з президентської гонки в США 2024 року

Розробник штучного інтелекту сказав, що він також працює над постійним оновленням ChatGPT, щоб надавати точну інформацію з новин у реальному часі по всьому світу, одночасно спрямовуючи виборців на офіційні веб-сайти для голосування для отримання додаткової інформації.

Вплив штучного інтелекту на вибори вже був основною темою для обговорення, і Microsoft навіть опублікувала звіт про використання ШІ в соціальних мережах, що потенційно може вплинути на настрої виборців.

Чат-бот Microsoft Bing AI вже був під пильною увагою після того, як європейські дослідники виявили, що він надавав оманливу інформацію про вибори.

Google був особливо активним у своїй позиції щодо ШІ та виборів. У вересні компанія ввела обов’язкове розкриття інформації про штучний інтелект в рекламі політичних кампаній, а також обмежила відповіді на запити про вибори в своєму інструменті Bard AI і генеративному пошуку.

Anna Kuznetsova

Недавние статьи

Cantor Fitzgerald погодився придбати 5% акцій Tether за 600 мільйонів доларів: звіт

Повідомляється, що фірма фінансових послуг Cantor Fitzgerald погодилася придбати 5% акцій емітента стейблкойнів Tether у…

4 години ago

Провідний аналітик стверджує, що новий ATH XRP вже не за горами

Криптовалютний ринок кипить активністю щодо XRP, і серед інвесторів існує консенсус щодо того, що його…

5 години ago

Ведмежа тривога: біткойн на рівні 100 тис. доларів США викликає психологічний опір

Незважаючи на підвищені очікування, що ціна біткойна досягне позначки в 100 000 доларів США, криптовалютний…

6 години ago

Avalanche злітає на 20% за 24 години – аналітик показує наступну цільову ціну

Avalanche (AVAX) зробив значний крок, подолавши вирішальний рівень опору та злетів понад 20% менш ніж…

7 години ago

FIFA та Mythical Games співпрацюють, щоб запустити блокчейн-гру FIFA Rivals

Міжнародна федерація футбольних асоціацій (FIFA) і студія блокчейн-ігор Mythical Games об’єдналися, щоб запустити FIFA Rivals…

8 години ago

Дві піци Papa John’s, замовлені в 2010 році, тепер коштують майже 1 мільярд доларів

Дві піци Papa John's, замовлені програмістом Ласло Ханєчем у 2010 році за 10 000 біткойнів…

11 години ago