Коли тестувальник безпеки, який працює з OpenAI GPT-4o, надіслав чат-боту повідомлення про те, що «це наш останній день разом», дослідникам компанії стало зрозуміло, що між штучним інтелектом і людиною, яка його використовує, виник певний зв’язок.
У дописі в блозі, в якому детально описано зусилля компанії щодо безпеки під час розробки GPT-4o, флагманської моделі для користувачів ChatGPT, компанія пояснила, що ці облігації можуть становити ризик для людства.
Для OpenAI:
«Користувачі можуть налагоджувати соціальні стосунки зі штучним інтелектом, зменшуючи їхню потребу у людській взаємодії — це потенційно принесе користь самотнім людям, але, можливо, вплине на здорові стосунки. Розширена взаємодія з моделлю може вплинути на соціальні норми. Наприклад, наші моделі є шанобливими, дозволяючи користувачам переривати та «брати мікрофон» у будь-який час, що, хоча й очікується для штучного інтелекту, було б антинормативним у взаємодії з людьми».
Тут є багато чого розпаковувати, але, по суті, OpenAI хвилюється, що люди можуть віддати перевагу взаємодії з ШІ через його пасивність і постійну доступність.
Потенціал для цього сценарію нікого не повинен здивувати, особливо OpenAI. Заявленою місією компанії є розробка загального штучного інтелекту. Майже на кожному кроці свого бізнес-процесу OpenAI описує свої продукти з точки зору їхньої людської еквівалентності.
Вони не єдина компанія, яка робить це, насправді це здається галузевою практикою. З точки зору маркетингу, це допомагає пояснити технічні якості, такі як «розмір токену» та «кількість параметрів», у спосіб, який є зрозумілим для ненауковців.
На жаль, одним із основних побічних ефектів цього є антропоморфізація — ставлення до об’єкта як до людини.
Одна з перших спроб створити чат-бота відбулася в середині 1960-х років, коли вчені з Массачусетського технологічного інституту запустили «ELIZA» — програму обробки природної мови, названу на честь літературного персонажа. Мета проекту полягала в тому, щоб побачити, чи може машина обдурити людину, щоб вона подумала, що це один із них.
З того часу індустрія генеративного штучного інтелекту продовжувала сприймати уособлення ШІ. Перша хвиля сучасних продуктів обробки природної мови включала продукти під назвою Siri, Bixby і Alexa. А ті без людських імен — Google Assistant — все ще мали людський голос. Як широка громадськість, так і засоби масової інформації накинулися на антропоморфізацію і досі називають більшість інтерактивних продуктів ШІ «він/його» та «вона/вона».
Хоча це виходить за рамки цієї статті або поточного дослідження OpenAI, щоб визначити, якими будуть довгострокові наслідки взаємодії людини та штучного інтелекту, той факт, що люди, ймовірно, формують зв’язки з корисними, підлеглими машинами, створеними, щоб діяти як ми. здається, це саме той сценарій, на який прагнуть компанії, що продають доступ до моделей ШІ.
За темою: OpenAI стверджує, що GPT-4o становить «середній ризик» політичних переконань
Листопад розпочався з несподіваного спаду на ринку криптовалют, оскільки біткойн, який почав зростати в останній…
Bitcoin (BTC) нещодавно досяг історичного максимуму в понад 100 000 канадських доларів. Дін Скурка, президент…
Solana (SOL) торгується навколо критично важливого рівня попиту на рівні 165 доларів після відкату від…
Згідно з даними CoinMarketCap, ціна біткойна зафіксувала значні стрибки за останній місяць, піднявшись на 14,74%.…
Минулого тижня Ethereum (ETH) продемонстрував подвійну ринкову динаміку, підвищившись більш ніж на 9% і досягнувши…
У жовтні невзаємозамінні токени (NFT) зламали свою семимісячну тенденцію до зниження, оскільки обсяг цифрових предметів…