OpenAI запускає «Групу готовності» для безпеки штучного інтелекту, дає останнє слово правлінню

Разное

Розробник штучного інтелекту (ШІ) OpenAI оголосив про впровадження своєї «Рамки готовності», яка включає створення спеціальної команди для оцінки та прогнозування ризиків.

18 грудня компанія опублікувала допис у блозі, в якому говориться, що її нова «Команда готовності» стане мостом, який з’єднає команди безпеки та політики, які працюють у OpenAI.

Зазначається, що ці команди, що забезпечують майже систему стримувань і противаг, допоможуть захистити від «катастрофічних ризиків», які можуть бути створені дедалі потужнішими моделями. OpenAI заявив, що розгортатиме свою технологію, лише якщо вона буде визнана безпечною.

Новий план передбачає, що нова група консультантів перевірить звіти про безпеку, які потім будуть надіслані керівникам компанії та раді OpenAI.

Хоча керівники технічно відповідають за прийняття остаточних рішень, новий план дає правлінню право скасовувати рішення щодо безпеки.

Це сталося після того, як у листопаді в OpenAI відбувся вихор змін із раптовим звільненням, а потім відновленням Сема Альтмана на посаді генерального директора. Після того, як Альтман знову приєднався до компанії, вона оприлюднила заяву, в якій назвала нову правління, до складу якого тепер входять Брет Тейлор (голова), Ларрі Саммерс і Адам Д’Анджело.

За темою: OpenAI збирається відмовитися від нового оновлення ChatGPT?Сем Альтман каже “ні”

OpenAI запустив ChatGPT для громадськості в листопаді 2022 року, і з тих пір спостерігається стрімкий інтерес до ШІ, але також є занепокоєння щодо небезпек, які він може становити для суспільства.

У липні провідні розробники штучного інтелекту, включаючи OpenAI, Microsoft, Google і Anthropic, заснували The Frontier Forum, який покликаний стежити за саморегулюванням створення відповідального ШІ.

У жовтні адміністрація Байдена видала виконавчий наказ, який виклав нові стандарти безпеки штучного інтелекту для компаній, що розробляють моделі високого рівня та їх впровадження.

Перед тим, як адміністрація Байдена виконала свій виконавчий наказ, відомих розробників ШІ запросили до Білого дому, щоб взяти на себе зобов’язання розробити безпечні та прозорі моделі ШІ – OpenAI була однією з багатьох компаній, які були присутні.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар