Коли тестувальник безпеки, який працює з OpenAI GPT-4o, надіслав чат-боту повідомлення про те, що «це наш останній день разом», дослідникам компанії стало зрозуміло, що між штучним інтелектом і людиною, яка його використовує, виник певний зв’язок.
У дописі в блозі, в якому детально описано зусилля компанії щодо безпеки під час розробки GPT-4o, флагманської моделі для користувачів ChatGPT, компанія пояснила, що ці облігації можуть становити ризик для людства.
Для OpenAI:
«Користувачі можуть налагоджувати соціальні стосунки зі штучним інтелектом, зменшуючи їхню потребу у людській взаємодії — це потенційно принесе користь самотнім людям, але, можливо, вплине на здорові стосунки. Розширена взаємодія з моделлю може вплинути на соціальні норми. Наприклад, наші моделі є шанобливими, дозволяючи користувачам переривати та «брати мікрофон» у будь-який час, що, хоча й очікується для штучного інтелекту, було б антинормативним у взаємодії з людьми».
Тут є багато чого розпаковувати, але, по суті, OpenAI хвилюється, що люди можуть віддати перевагу взаємодії з ШІ через його пасивність і постійну доступність.
Потенціал для цього сценарію нікого не повинен здивувати, особливо OpenAI. Заявленою місією компанії є розробка загального штучного інтелекту. Майже на кожному кроці свого бізнес-процесу OpenAI описує свої продукти з точки зору їхньої людської еквівалентності.
Вони не єдина компанія, яка робить це, насправді це здається галузевою практикою. З точки зору маркетингу, це допомагає пояснити технічні якості, такі як «розмір токену» та «кількість параметрів», у спосіб, який є зрозумілим для ненауковців.
На жаль, одним із основних побічних ефектів цього є антропоморфізація — ставлення до об’єкта як до людини.
Одна з перших спроб створити чат-бота відбулася в середині 1960-х років, коли вчені з Массачусетського технологічного інституту запустили «ELIZA» — програму обробки природної мови, названу на честь літературного персонажа. Мета проекту полягала в тому, щоб побачити, чи може машина обдурити людину, щоб вона подумала, що це один із них.
З того часу індустрія генеративного штучного інтелекту продовжувала сприймати уособлення ШІ. Перша хвиля сучасних продуктів обробки природної мови включала продукти під назвою Siri, Bixby і Alexa. А ті без людських імен — Google Assistant — все ще мали людський голос. Як широка громадськість, так і засоби масової інформації накинулися на антропоморфізацію і досі називають більшість інтерактивних продуктів ШІ «він/його» та «вона/вона».
Хоча це виходить за рамки цієї статті або поточного дослідження OpenAI, щоб визначити, якими будуть довгострокові наслідки взаємодії людини та штучного інтелекту, той факт, що люди, ймовірно, формують зв’язки з корисними, підлеглими машинами, створеними, щоб діяти як ми. здається, це саме той сценарій, на який прагнуть компанії, що продають доступ до моделей ШІ.
За темою: OpenAI стверджує, що GPT-4o становить «середній ризик» політичних переконань
Ціна біткойна дещо охолола, намагаючись досягти бажаної позначки в 100 000 доларів після інтенсивного зростання…
Незамінні токени (NFT) зберігали відносно високий тижневий обсяг продажів, незважаючи на незначне зниження порівняно зі…
Австралія опублікувала консультаційний документ із запитом щодо застосування міжнародного стандарту звітності щодо криптовалютних активів.Міністерство фінансів…
Ціна Ethereum сформувала ключову технічну модель, що нагадує ту, що спостерігалася в 2017 році, коли…
Повідомляється, що фірма фінансових послуг Cantor Fitzgerald погодилася придбати 5% акцій емітента стейблкойнів Tether у…
Криптовалютний ринок кипить активністю щодо XRP, і серед інвесторів існує консенсус щодо того, що його…