OpenAI запускает «Группу готовности» для обеспечения безопасности ИИ, дает окончательное слово совету директоров

Новости

Разработчик искусственного интеллекта (ИИ) OpenAI объявил, что внедрит свою «Систему готовности», которая включает в себя создание специальной команды для оценки и прогнозирования рисков.

18 декабря компания опубликовала сообщение в блоге, в котором говорится, что ее новая «команда готовности» станет мостом, который соединяет группы безопасности и политики, работающие в рамках OpenAI.

В нем говорится, что эти команды, предоставляющие почти систему сдержек и противовесов, помогут защититься от «катастрофических рисков», которые могут представлять собой все более мощные модели. OpenAI заявила, что будет использовать свою технологию только в том случае, если она будет признана безопасной.

Новый план планов предполагает, что новая консультативная группа будет рассматривать отчеты о безопасности, которые затем будут отправлены руководителям компании и совету директоров OpenAI.

Хотя технически руководители несут ответственность за принятие окончательных решений, новый план дает совету директоров право отменять решения по безопасности.

Это произошло после того, как в ноябре OpenAI пережила бурю изменений, связанную с внезапным увольнением, а затем восстановлением на посту генерального директора Сэма Альтмана. После того, как Альтман вернулся в компанию, она опубликовала заявление с названием своего нового совета директоров, в который теперь входят Брет Тейлор (председатель), Ларри Саммерс и Адам Д’Анджело.

Связанный: Собирается ли OpenAI выпустить новое обновление ChatGPT?Сэм Альтман говорит «нет»

OpenAI представила ChatGPT для широкой публики в ноябре 2022 года, и с тех пор наблюдается всплеск интереса к ИИ, но есть также опасения по поводу опасностей, которые он может представлять для общества.

В июле ведущие разработчики ИИ, в том числе OpenAI, Microsoft, Google и Anthropic, учредили The Frontier Forum, целью которого является мониторинг саморегулирования создания ответственного ИИ.

В октябре администрация Байдена издала указ, в котором изложены новые стандарты безопасности ИИ для компаний, разрабатывающих модели высокого уровня и их внедрения.

Прежде чем администрация Байдена выполнила свой указ, в Белый дом были приглашены известные разработчики ИИ, чтобы взять на себя обязательства по разработке безопасных и прозрачных моделей ИИ – OpenAI была одной из многих присутствовавших компаний.

Источник

Автор статей о криптовалюте и блокчейн технологиях, являюсь экспертом в этой области. Имею опыт работы в этой сфере и активно изучаю новые тенденции и развития. Мои статьи являются источником информации для любителей криптовалют и блокчейн технологий.

Занимаюсь в анализом и оценкой криптовалютных проектов и блокчейн решений, что позволяет мне предоставлять ценные рекомендации и прогнозы для читателей. Стремлюсь предоставлять качественную и доступную информацию, которая поможет людям понять сложные технологии и тенденции в этой области.

Оцените автора
CryptoHamster.org
Добавить комментарий