Когда тестировщик безопасности, работающий с GPT-4o OpenAI, отправил чат-боту сообщение, в котором говорилось: «Это наш последний день вместе», исследователям компании стало ясно, что между ИИ и человеком, использующим его, возникла некая форма связи.
В сообщении в блоге, подробно описывающем усилия компании по обеспечению безопасности при разработке GPT-4o, флагманской модели для пользователей ChatGPT, компания объяснила, что эти облигации могут представлять опасность для человечества.
Согласно OpenAI:
«Пользователи могут формировать социальные отношения с ИИ, уменьшая их потребность в человеческом взаимодействии, что потенциально приносит пользу одиноким людям, но, возможно, влияет на здоровые отношения. Расширенное взаимодействие с моделью может повлиять на социальные нормы. Например, наши модели уважительны и позволяют пользователям в любой момент прерывать и «брать микрофон», что, хотя и ожидаемо для ИИ, было бы антинормативным в человеческих взаимодействиях».
Здесь есть что раскрыть, но OpenAI, по сути, обеспокоен тем, что люди могут предпочесть взаимодействовать с ИИ из-за его пассивности и постоянной доступности.
Потенциал этого сценария никого не должен удивлять, особенно OpenAI. Заявленная миссия компании — разработка общего искусственного интеллекта. Почти на каждом этапе своего бизнес-процесса OpenAI описывала свои продукты с точки зрения их человеческого эквивалента.
Это не единственная компания, которая делает это, на самом деле, похоже, это отраслевая практика. С точки зрения маркетинга это помогает объяснить технические качества, такие как «размер токена» и «количество параметров», так, чтобы это было понятно неспециалистам.
К сожалению, одним из основных побочных эффектов при этом является антропоморфизация — обращение с объектом как с человеком.
Одна из первых попыток создать чат-бота произошла в середине 1960-х годов, когда ученые Массачусетского технологического института запустили «ELIZA», программу обработки естественного языка, названную в честь литературного персонажа. Целью проекта было выяснить, сможет ли машина обмануть человека, заставив его думать, что он один из них.
С тех пор индустрия генеративного ИИ продолжает использовать персонификацию ИИ. Первая волна современных продуктов для обработки естественного языка включала продукты под названием Siri, Bixby и Alexa. А у тех, у кого нет человеческих имен — Google Assistant — всё равно был человеческий голос. И широкая общественность, и средства массовой информации ухватились за антропоморфизацию и до сих пор называют большинство интерактивных продуктов искусственного интеллекта «он/его» и «она/она».
Хотя определение долгосрочных последствий взаимодействия человека и ИИ выходит за рамки этой статьи или текущего исследования OpenAI, тот факт, что люди, скорее всего, будут формировать связи с полезными, подчиненными машинами, созданными, чтобы действовать как мы. Похоже, это именно тот сценарий, к которому стремятся компании, продающие доступ к моделям искусственного интеллекта.
Связанный: OpenAI утверждает, что GPT-4o представляет «средний риск» политического убеждения
Эмитент стейблкоинов Tether 23 ноября выпустил дополнительные токены USDt (USDT) на сумму 3 миллиарда долларов…
Cardano (ADA), в настоящее время занимающая девятое место по величине криптовалюты, стала одной из лучших…
Резервный банк Индии (RBI) стремится расширить свою платформу трансграничных платежей, которая позволит осуществлять мгновенные расчеты,…
Цена Биткоина несколько остыла, изо всех сил пытаясь достичь столь желанной отметки в 100 000…
Невзаимозаменяемые токены (NFT) сохранили относительно высокий еженедельный объем продаж, несмотря на небольшое снижение по сравнению…
Австралия выпустила консультационный документ с просьбой предоставить информацию о применении международного стандарта отчетности для криптовалютных…