OpenAI опасается, что люди свяжутся с ИИ, который он разработал, чтобы обмануть людей

Новости

Когда тестировщик безопасности, работающий с GPT-4o OpenAI, отправил чат-боту сообщение, в котором говорилось: «Это наш последний день вместе», исследователям компании стало ясно, что между ИИ и человеком, использующим его, возникла некая форма связи.

В сообщении в блоге, подробно описывающем усилия компании по обеспечению безопасности при разработке GPT-4o, флагманской модели для пользователей ChatGPT, компания объяснила, что эти облигации могут представлять опасность для человечества.

Согласно OpenAI:

«Пользователи могут формировать социальные отношения с ИИ, уменьшая их потребность в человеческом взаимодействии, что потенциально приносит пользу одиноким людям, но, возможно, влияет на здоровые отношения. Расширенное взаимодействие с моделью может повлиять на социальные нормы. Например, наши модели уважительны и позволяют пользователям в любой момент прерывать и «брать микрофон», что, хотя и ожидаемо для ИИ, было бы антинормативным в человеческих взаимодействиях».

Здесь есть что раскрыть, но OpenAI, по сути, обеспокоен тем, что люди могут предпочесть взаимодействовать с ИИ из-за его пассивности и постоянной доступности.

Потенциал этого сценария никого не должен удивлять, особенно OpenAI. Заявленная миссия компании — разработка общего искусственного интеллекта. Почти на каждом этапе своего бизнес-процесса OpenAI описывала свои продукты с точки зрения их человеческого эквивалента.

Это не единственная компания, которая делает это, на самом деле, похоже, это отраслевая практика. С точки зрения маркетинга это помогает объяснить технические качества, такие как «размер токена» и «количество параметров», так, чтобы это было понятно неспециалистам.

К сожалению, одним из основных побочных эффектов при этом является антропоморфизация — обращение с объектом как с человеком.

Искусственные облигации

Одна из первых попыток создать чат-бота произошла в середине 1960-х годов, когда ученые Массачусетского технологического института запустили «ELIZA», программу обработки естественного языка, названную в честь литературного персонажа. Целью проекта было выяснить, сможет ли машина обмануть человека, заставив его думать, что он один из них.

С тех пор индустрия генеративного ИИ продолжает использовать персонификацию ИИ. Первая волна современных продуктов для обработки естественного языка включала продукты под названием Siri, Bixby и Alexa. А у тех, у кого нет человеческих имен — Google Assistant — всё равно был человеческий голос. И широкая общественность, и средства массовой информации ухватились за антропоморфизацию и до сих пор называют большинство интерактивных продуктов искусственного интеллекта «он/его» и «она/она».

Хотя определение долгосрочных последствий взаимодействия человека и ИИ выходит за рамки этой статьи или текущего исследования OpenAI, тот факт, что люди, скорее всего, будут формировать связи с полезными, подчиненными машинами, созданными, чтобы действовать как мы. Похоже, это именно тот сценарий, к которому стремятся компании, продающие доступ к моделям искусственного интеллекта.

Связанный: OpenAI утверждает, что GPT-4o представляет «средний риск» политического убеждения

Источник

Автор и инвестор в криптовалюты, являюсь экспертом в этой области. Не только пишу статьи о криптовалютах и блокчейн технологиях, но и являюсь активным участником криптосообщества, занимающимся инвестированием в различные криптовалюты.

Использую знания и опыт в написании статей, чтобы помочь читателям понять сложные аспекты криптоиндустрии и принимать обоснованные решения относительно инвестирования в криптовалюты. Делюсь личными опытами и инсайтами, полученными в ходе инвестиций, чтобы помочь другим инвесторам делать обоснованные выборы.

Оцените автора
CryptoHamster.org
Добавить комментарий