Известный разработчик искусственного интеллекта (ИИ) OpenAI оказался в центре новой жалобы на конфиденциальность, поданной группой по защите прав на данные в Австрии.
29 апреля Noyb подала жалобу, утверждая, что OpenAI не исправила ложную информацию, предоставленную своим чат-ботом с генеративным искусственным интеллектом ChatGPT. Группа заявила, что эти действия или их отсутствие могут нарушать правила конфиденциальности в Европейском Союзе.
По данным группы, заявитель по делу, неназванный общественный деятель, запрашивал у чат-бота OpenAI информацию о себе и постоянно получал неверную информацию.
OpenAI якобы отклонила просьбу общественного деятеля исправить или удалить данные, заявив, что это невозможно. Он также отказался раскрыть информацию о своих обучающих данных и их источниках.
Маартье де Грааф, юрист Noyb по защите данных, прокомментировал это дело в своем заявлении:
«Если система не может давать точные и прозрачные результаты, ее нельзя использовать для генерации данных о людях. Технология должна соответствовать требованиям законодательства, а не наоборот».
Связанный: OpenAI Сэма Альтмана, как сообщается, ведет переговоры о партнерстве с другой его фирмой, Worldcoin
Noyb подала жалобу в австрийский орган по защите данных с просьбой расследовать обработку данных OpenAI и то, как она обеспечивает точность личных данных, обрабатываемых ее большими языковыми моделями (LLM).
Де Грааф сказал, что «очевидно, что компании в настоящее время не могут заставить чат-ботов, таких как ChatGPT, соответствовать законам ЕС при обработке данных о физических лицах».
Noyb, также известный как Европейский центр цифровых прав, работает в Вене, Австрия, с целью запуска «стратегических судебных дел и медиа-инициатив», которые поддерживают законы Европейского общего регламента по защите данных (GDPR).
Это не первый случай, когда активисты и исследователи в Европе критикуют чат-ботов.
В декабре 2023 года исследование двух европейских некоммерческих организаций показало, что чат-бот Microsoft Bing AI, переименованный в Copilot, предоставлял вводящую в заблуждение или неточную информацию о местных выборах на политических выборах в Германии и Швейцарии.
Чат-бот давал неточные ответы на информацию о кандидатах, опросах, скандалах и голосовании, а также неверно цитировал свои источники.
Другой случай, хотя и не конкретно в ЕС, был замечен с чат-ботом Gemini AI от Google, который предоставлял «пробуждённые» и неточные изображения в своем генераторе изображений. Google принесла извинения за инцидент и заявила, что обновит свою модель.