Вскоре OpenAI может столкнуться с самой большой регулятивной проблемой, поскольку итальянские власти настаивают на том, что у компании есть время до 30 апреля, чтобы соблюдать местные и европейские законы о защите данных и конфиденциальности, что, по мнению экспертов в области искусственного интеллекта (ИИ), может быть почти невыполнимым.
Итальянские власти ввели полный запрет на продукты OpenAI GPT в конце марта, став первой западной страной, которая полностью отказалась от этих продуктов. Действия были предприняты после утечки данных, когда клиенты ChatGPT и GPT API могли видеть данные, сгенерированные другими пользователями.
We believe the number of users whose data was actually revealed to someone else is extremely low and we have contacted those who might be impacted. We take this very seriously and are sharing details of our investigation and plan here. 2/2 https://t.co/JwjfbcHr3g
— OpenAI (@OpenAI) March 24, 2023
Согласно переводу Bing итальянского приказа, предписывающего OpenAI прекратить свои операции ChatGPT в стране до тех пор, пока он не сможет продемонстрировать соответствие:
«В своем распоряжении итальянское SA подчеркивает, что никакой информации не предоставляется пользователям и субъектам данных, чьи данные собираются Open AI;что еще более важно, похоже, нет никакой правовой основы для массового сбора и обработки персональных данных с целью «обучения» алгоритмов, на которые опирается платформа».
Далее в итальянской жалобе говорится, что OpenAI также должна принять меры по проверке возраста, чтобы гарантировать, что ее программное обеспечение и услуги соответствуют собственным условиям обслуживания компании, требующим, чтобы пользователи были старше 13 лет.
Связанный: законодатели ЕС призывают к «безопасному» ИИ, поскольку генеральный директор Google предостерегает от быстрого развития
Чтобы добиться соблюдения конфиденциальности в Италии и во всей остальной части Европейского Союза, OpenAI должен будет обеспечить основу для своих широких процессов сбора данных.
В соответствии с Общим регламентом ЕС по защите данных (GDPR) технические службы должны запрашивать согласие пользователя на обучение с использованием персональных данных. Кроме того, компании, работающие в Европе, также должны предоставить европейцам возможность отказаться от сбора и обмена данными.
По словам экспертов, это станет сложной задачей для OpenAI, поскольку его модели обучаются на огромных массивах данных, которые берутся из Интернета и объединяются в обучающие наборы. Эта форма обучения методом «черного ящика» направлена на создание парадигмы под названием «появление», когда полезные черты проявляются в моделях непредсказуемо.
"GPT-4…exhibits emergent behaviors".
Wait wait wait wait. If we don't know the training data, how can we say what's "emergent" vs. what's "resultant" from it?!?!
I think they're referring to the idea of "emergence", but still I'm unsure what's meant. https://t.co/Mnupou6D1d— MMitchell (@mmitchell_ai) April 11, 2023
К сожалению, это означает, что разработчики редко могут точно знать, что находится в наборе данных. А поскольку машина имеет тенденцию объединять несколько точек данных при создании выходных данных, выделение или изменение отдельных фрагментов данных может оказаться за пределами возможностей современных технических специалистов.
Маргарет Митчелл, эксперт по этике ИИ, сообщила журналу Technology Review Массачусетского технологического института, что «OpenAI сочтет практически невозможным идентифицировать данные отдельных лиц и удалить их из своих моделей».
Чтобы достичь соответствия, OpenAI должна будет продемонстрировать, что она получила данные, используемые для обучения своих моделей, с согласия пользователя — что, как показывают исследовательские документы компании, не соответствует действительности — или продемонстрировать, что у нее был «законный интерес» в сборе данных впервое место.
Лилиан Эдвардс, профессор интернет-права в Университете Ньюкасла, рассказала журналу Technology Review Массачусетского технологического института, что спор серьезнее, чем просто иск Италии, заявив, что «нарушения OpenAI настолько вопиющие, что вполне вероятно, что это дело попадет в СудЕвропейский Союз, высший суд ЕС».
Это ставит OpenAI в потенциально опасное положение. Если он не сможет идентифицировать и удалить отдельные данные по запросам пользователей или внести изменения в данные, которые искажают людей, он может оказаться не в состоянии использовать свои продукты ChatGPT в Италии после крайнего срока 30 апреля.
На этом проблемы компании могут не закончиться, поскольку регулирующие органы Франции, Германии, Ирландии и ЕС также в настоящее время рассматривают возможность принятия мер по регулированию ChatGPT.