OpenAI отримав скаргу щодо конфіденційності в Австрії, потенційне порушення законодавства ЄС

Разное

Відомий розробник штучного інтелекту (ШІ) OpenAI опинився в центрі нової скарги щодо конфіденційності, поданої групою захисту прав даних в Австрії.

29 квітня Noyb подала скаргу, стверджуючи, що OpenAI не виправив неправдиву інформацію, надану її генеративним чат-ботом AI ChatGPT. Група заявила, що ці дії або їх відсутність можуть порушувати правила конфіденційності в Європейському Союзі.

За даними групи, заявник у справі, неназваний громадський діяч, запитував у чат-бота OpenAI інформацію про себе, але йому постійно надавали невірну інформацію.

OpenAI нібито відхилив прохання громадської особи виправити або стерти дані, заявивши, що це неможливо. Він також відмовився розкрити інформацію про свої навчальні дані та джерело їх походження.

Маарт’є де Грааф, юрист із захисту даних Noyb, прокоментував цю справу у своїй заяві:

«Якщо система не може давати точні та прозорі результати, її не можна використовувати для створення даних про осіб. Технологія має відповідати вимогам законодавства, а не навпаки».

За темою: OpenAI Сема Альтмана, як повідомляється, веде переговори про партнерство з його іншою фірмою, Worldcoin

Noyb звернувся зі скаргою до австрійського органу із захисту даних з проханням розслідувати обробку даних OpenAI і те, як він забезпечує точність персональних даних, які обробляють його великі мовні моделі (LLM).

Де Грааф сказав, що «очевидно, що компанії наразі не можуть змусити чат-ботів, таких як ChatGPT, відповідати законодавству ЄС під час обробки даних про осіб».

Noyb, також відомий як Європейський центр цифрових прав, працює у Відні, Австрія, з метою запуску «стратегічних судових справ і медіа-ініціатив», які підтримують закони Європейського загального регламенту захисту даних (GDPR).

Це не перший випадок, коли активісти чи дослідники закликають чат-ботів у Європі.

У грудні 2023 року дослідження, проведене двома європейськими некомерційними організаціями, показало, що чат-бот Microsoft Bing AI, перейменований на Copilot, надавав оманливу або неточну інформацію щодо місцевих виборів під час політичних виборів у Німеччині та Швейцарії.

Чат-бот давав недостовірні відповіді щодо інформації про кандидатів, опитування, скандали та голосування, а також невірно цитував свої джерела.

Інший випадок, хоч і не в ЄС, був помічений із чат-ботом Google Gemini AI, який надавав «прокинулися» та неточні зображення у своєму генераторі зображень. Google вибачився за інцидент і заявив, що оновить свою модель.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар