Разработчик искусственного интеллекта (ИИ) OpenAI объявил, что внедрит свою «Систему готовности», которая включает в себя создание специальной команды для оценки и прогнозирования рисков.
18 декабря компания опубликовала сообщение в блоге, в котором говорится, что ее новая «команда готовности» станет мостом, который соединяет группы безопасности и политики, работающие в рамках OpenAI.
В нем говорится, что эти команды, предоставляющие почти систему сдержек и противовесов, помогут защититься от «катастрофических рисков», которые могут представлять собой все более мощные модели. OpenAI заявила, что будет использовать свою технологию только в том случае, если она будет признана безопасной.
Новый план планов предполагает, что новая консультативная группа будет рассматривать отчеты о безопасности, которые затем будут отправлены руководителям компании и совету директоров OpenAI.
Хотя технически руководители несут ответственность за принятие окончательных решений, новый план дает совету директоров право отменять решения по безопасности.
Это произошло после того, как в ноябре OpenAI пережила бурю изменений, связанную с внезапным увольнением, а затем восстановлением на посту генерального директора Сэма Альтмана. После того, как Альтман вернулся в компанию, она опубликовала заявление с названием своего нового совета директоров, в который теперь входят Брет Тейлор (председатель), Ларри Саммерс и Адам Д’Анджело.
Связанный: Собирается ли OpenAI выпустить новое обновление ChatGPT?Сэм Альтман говорит «нет»
OpenAI представила ChatGPT для широкой публики в ноябре 2022 года, и с тех пор наблюдается всплеск интереса к ИИ, но есть также опасения по поводу опасностей, которые он может представлять для общества.
В июле ведущие разработчики ИИ, в том числе OpenAI, Microsoft, Google и Anthropic, учредили The Frontier Forum, целью которого является мониторинг саморегулирования создания ответственного ИИ.
В октябре администрация Байдена издала указ, в котором изложены новые стандарты безопасности ИИ для компаний, разрабатывающих модели высокого уровня и их внедрения.
Прежде чем администрация Байдена выполнила свой указ, в Белый дом были приглашены известные разработчики ИИ, чтобы взять на себя обязательства по разработке безопасных и прозрачных моделей ИИ – OpenAI была одной из многих присутствовавших компаний.