Когда тестировщик безопасности, работающий с GPT-4o OpenAI, отправил чат-боту сообщение, в котором говорилось: «Это наш последний день вместе», исследователям компании стало ясно, что между ИИ и человеком, использующим его, возникла некая форма связи.
В сообщении в блоге, подробно описывающем усилия компании по обеспечению безопасности при разработке GPT-4o, флагманской модели для пользователей ChatGPT, компания объяснила, что эти облигации могут представлять опасность для человечества.
Согласно OpenAI:
«Пользователи могут формировать социальные отношения с ИИ, уменьшая их потребность в человеческом взаимодействии, что потенциально приносит пользу одиноким людям, но, возможно, влияет на здоровые отношения. Расширенное взаимодействие с моделью может повлиять на социальные нормы. Например, наши модели уважительны и позволяют пользователям в любой момент прерывать и «брать микрофон», что, хотя и ожидаемо для ИИ, было бы антинормативным в человеческих взаимодействиях».
Здесь есть что раскрыть, но OpenAI, по сути, обеспокоен тем, что люди могут предпочесть взаимодействовать с ИИ из-за его пассивности и постоянной доступности.
Потенциал этого сценария никого не должен удивлять, особенно OpenAI. Заявленная миссия компании — разработка общего искусственного интеллекта. Почти на каждом этапе своего бизнес-процесса OpenAI описывала свои продукты с точки зрения их человеческого эквивалента.
Это не единственная компания, которая делает это, на самом деле, похоже, это отраслевая практика. С точки зрения маркетинга это помогает объяснить технические качества, такие как «размер токена» и «количество параметров», так, чтобы это было понятно неспециалистам.
К сожалению, одним из основных побочных эффектов при этом является антропоморфизация — обращение с объектом как с человеком.
Искусственные облигации
Одна из первых попыток создать чат-бота произошла в середине 1960-х годов, когда ученые Массачусетского технологического института запустили «ELIZA», программу обработки естественного языка, названную в честь литературного персонажа. Целью проекта было выяснить, сможет ли машина обмануть человека, заставив его думать, что он один из них.
С тех пор индустрия генеративного ИИ продолжает использовать персонификацию ИИ. Первая волна современных продуктов для обработки естественного языка включала продукты под названием Siri, Bixby и Alexa. А у тех, у кого нет человеческих имен — Google Assistant — всё равно был человеческий голос. И широкая общественность, и средства массовой информации ухватились за антропоморфизацию и до сих пор называют большинство интерактивных продуктов искусственного интеллекта «он/его» и «она/она».
Хотя определение долгосрочных последствий взаимодействия человека и ИИ выходит за рамки этой статьи или текущего исследования OpenAI, тот факт, что люди, скорее всего, будут формировать связи с полезными, подчиненными машинами, созданными, чтобы действовать как мы. Похоже, это именно тот сценарий, к которому стремятся компании, продающие доступ к моделям искусственного интеллекта.
Связанный: OpenAI утверждает, что GPT-4o представляет «средний риск» политического убеждения