На OpenAI подали жалобу о конфиденциальности в Австрии, потенциальное нарушение законодательства ЕС

Новости

Известный разработчик искусственного интеллекта (ИИ) OpenAI оказался в центре новой жалобы на конфиденциальность, поданной группой по защите прав на данные в Австрии.

29 апреля Noyb подала жалобу, утверждая, что OpenAI не исправила ложную информацию, предоставленную своим чат-ботом с генеративным искусственным интеллектом ChatGPT. Группа заявила, что эти действия или их отсутствие могут нарушать правила конфиденциальности в Европейском Союзе.

По данным группы, заявитель по делу, неназванный общественный деятель, запрашивал у чат-бота OpenAI информацию о себе и постоянно получал неверную информацию.

OpenAI якобы отклонила просьбу общественного деятеля исправить или удалить данные, заявив, что это невозможно. Он также отказался раскрыть информацию о своих обучающих данных и их источниках.

Маартье де Грааф, юрист Noyb по защите данных, прокомментировал это дело в своем заявлении:

«Если система не может давать точные и прозрачные результаты, ее нельзя использовать для генерации данных о людях. Технология должна соответствовать требованиям законодательства, а не наоборот».

Связанный: OpenAI Сэма Альтмана, как сообщается, ведет переговоры о партнерстве с другой его фирмой, Worldcoin

Noyb подала жалобу в австрийский орган по защите данных с просьбой расследовать обработку данных OpenAI и то, как она обеспечивает точность личных данных, обрабатываемых ее большими языковыми моделями (LLM).

Де Грааф сказал, что «очевидно, что компании в настоящее время не могут заставить чат-ботов, таких как ChatGPT, соответствовать законам ЕС при обработке данных о физических лицах».

Noyb, также известный как Европейский центр цифровых прав, работает в Вене, Австрия, с целью запуска «стратегических судебных дел и медиа-инициатив», которые поддерживают законы Европейского общего регламента по защите данных (GDPR).

Это не первый случай, когда активисты и исследователи в Европе критикуют чат-ботов.

В декабре 2023 года исследование двух европейских некоммерческих организаций показало, что чат-бот Microsoft Bing AI, переименованный в Copilot, предоставлял вводящую в заблуждение или неточную информацию о местных выборах на политических выборах в Германии и Швейцарии.

Чат-бот давал неточные ответы на информацию о кандидатах, опросах, скандалах и голосовании, а также неверно цитировал свои источники.

Другой случай, хотя и не конкретно в ЕС, был замечен с чат-ботом Gemini AI от Google, который предоставлял «пробуждённые» и неточные изображения в своем генераторе изображений. Google принесла извинения за инцидент и заявила, что обновит свою модель.

Источник
Оцените автора
CryptoHamster.org
Добавить комментарий