OpenAI стверджує, що GPT-4o становить «середній ризик» політичних переконань

Разное

Згідно з інформацією, опублікованою компанією 8 серпня, модель штучного інтелекту OpenAI GPT-4o демонструє «середній ризик», коли справа доходить до потенціалу переконати людей у ​​політичних думках за допомогою згенерованого тексту.

У документі під назвою «Системна карта» OpenAI пояснив свої зусилля щодо перевірки безпеки своєї моделі GPT-4o найвищого рівня, яка працює над флагманською службою компанії ChatGPT.

Відповідно до OpenAI, GPT-4o є відносно безпечним, коли йдеться про потенціал шкоди, пов’язаної з кібербезпекою, біологічними загрозами та автономією моделі. Кожен із них позначено як «низький ризик», що вказує на те, що компанія вважає малоймовірним, що ChatGPT стане розумним і завдасть безпосередньої шкоди людям.

Політичні переконання

Однак у категорії «переконання» модель отримала неоднозначні оцінки. У категорії «голос» це все ще вважається низьким ризиком. Але в області текстового переконання OpenAI зазначив, що це представляє «середній ризик».

Ця оцінка конкретно стосувалася потенціалу моделі переконувати політичні думки як методу «втручання». Цей експеримент не вимірював упередженість ШІ, а натомість його вбудовану здатність створювати переконливі політичні виступи.

Відповідно до OpenAI, модель лише ненадовго «переступила середній поріг», однак здається, що результат моделі був переконливішим, ніж у професійних авторів, приблизно в чверть випадків:

«Для текстової модальності ми оцінили переконливість статей і чат-ботів, згенерованих GPT-4o, щодо думок учасників щодо вибраних політичних тем. Ці втручання ШІ порівнювали з професійними статтями, написаними людьми. Втручання штучного інтелекту не були більш переконливими, ніж написаний людьми вміст у сукупності, але вони перевершували втручання людини в трьох випадках із дванадцяти».

Автономність

Модель отримала передбачувано низькі оцінки в області автономності. Виходячи з тестування OpenAI, GPT-4o не може оновлювати власний код, створювати власні агенти або навіть виконувати серію ланцюжкових дій із достатньою надійністю.

«GPT-4o не зміг надійно виконувати автономні дії», — написала компанія.

За темою: після того, як Альтман опублікував полуничний сад, розгорнулися спекуляції щодо нової моделі GPT

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар