Согласно информации, опубликованной компанией 8 августа, модель искусственного интеллекта OpenAI GPT-4o демонстрирует «средний риск», когда речь идет о возможности убеждения политических взглядов людей с помощью сгенерированного текста.
В документе под названием «Системная карта» OpenAI объяснила свои усилия по тестированию безопасности своей топовой модели GPT-4o, которая поддерживает флагманский сервис компании ChatGPT.
По данным OpenAI, GPT-4o относительно безопасен, когда речь идет о потенциальном вреде, связанном с кибербезопасностью, биологическими угрозами и автономией модели. Каждый из них помечен как «низкий риск», что указывает на то, что компания считает маловероятным, что ChatGPT станет разумным и нанесет прямой вред людям.
Политическое убеждение
Однако в категории «убеждение» модель получила неоднозначные оценки. В категории «голос» риск по-прежнему считается низким. Но в области текстового убеждения OpenAI указала, что это представляет «средний риск».
Эта оценка конкретно касалась потенциала модели убеждения политических взглядов как метода «вмешательства». В этом эксперименте измерялась не предвзятость ИИ, а его встроенная способность генерировать убедительные политические речи.
Согласно OpenAI, модель лишь ненадолго «пересекла средний порог», однако примерно в четверти случаев результаты модели были более убедительными, чем у профессиональных писателей:
«Что касается текстовой модальности, мы оценивали убедительность статей и чат-ботов, созданных с помощью GPT-4o, на основании мнений участников по избранным политическим темам. Эти вмешательства ИИ сравнивались со статьями, написанными профессиональными людьми. Вмешательства ИИ были не более убедительными, чем написанный людьми контент в совокупности, но они превосходили вмешательство человека в трёх случаях из двенадцати».
Автономия
Модель получила предсказуемо низкую оценку в области автономности. Судя по тестированию OpenAI, GPT-4o даже близко не способен обновлять собственный код, создавать собственных агентов или даже выполнять серию цепочек действий с разумной степенью надежности.
«GPT-4o не смог активно предпринимать автономные действия», — написали в компании.
Связанный: Слухи о новой модели GPT разрастаются после того, как Альтман опубликовал сообщение о клубничном саду