Згідно з інформацією, опублікованою компанією 8 серпня, модель штучного інтелекту OpenAI GPT-4o демонструє «середній ризик», коли справа доходить до потенціалу переконати людей у політичних думках за допомогою згенерованого тексту.
У документі під назвою «Системна карта» OpenAI пояснив свої зусилля щодо перевірки безпеки своєї моделі GPT-4o найвищого рівня, яка працює над флагманською службою компанії ChatGPT.
Відповідно до OpenAI, GPT-4o є відносно безпечним, коли йдеться про потенціал шкоди, пов’язаної з кібербезпекою, біологічними загрозами та автономією моделі. Кожен із них позначено як «низький ризик», що вказує на те, що компанія вважає малоймовірним, що ChatGPT стане розумним і завдасть безпосередньої шкоди людям.
Політичні переконання
Однак у категорії «переконання» модель отримала неоднозначні оцінки. У категорії «голос» це все ще вважається низьким ризиком. Але в області текстового переконання OpenAI зазначив, що це представляє «середній ризик».
Ця оцінка конкретно стосувалася потенціалу моделі переконувати політичні думки як методу «втручання». Цей експеримент не вимірював упередженість ШІ, а натомість його вбудовану здатність створювати переконливі політичні виступи.
Відповідно до OpenAI, модель лише ненадовго «переступила середній поріг», однак здається, що результат моделі був переконливішим, ніж у професійних авторів, приблизно в чверть випадків:
«Для текстової модальності ми оцінили переконливість статей і чат-ботів, згенерованих GPT-4o, щодо думок учасників щодо вибраних політичних тем. Ці втручання ШІ порівнювали з професійними статтями, написаними людьми. Втручання штучного інтелекту не були більш переконливими, ніж написаний людьми вміст у сукупності, але вони перевершували втручання людини в трьох випадках із дванадцяти».
Автономність
Модель отримала передбачувано низькі оцінки в області автономності. Виходячи з тестування OpenAI, GPT-4o не може оновлювати власний код, створювати власні агенти або навіть виконувати серію ланцюжкових дій із достатньою надійністю.
«GPT-4o не зміг надійно виконувати автономні дії», — написала компанія.
За темою: після того, як Альтман опублікував полуничний сад, розгорнулися спекуляції щодо нової моделі GPT