Команда, що стоїть за популярним чат-ботом зі штучним інтелектом (ШІ) ChatGPT, каже, що буде формувати команду, яка буде контролювати та керувати ризиками суперінтелектуальних систем ШІ.
У оголошенні в блозі OpenAI від 5 липня компанія каже, що нова команда буде створена, щоб «керувати та контролювати системи ШІ набагато розумніші за нас».
У своїй заяві некомерційна організація заявила, що вважає, що суперінтелект стане «найвпливовішою технологією, яку коли-небудь винайшло людство», і допоможе вирішити багато проблем, хоча існують ризики.
«Величезна сила суперінтелекту також може бути дуже небезпечною та може призвести до позбавлення людства можливостей або навіть його вимирання».
OpenAI вважає, що суперінтелект може з’явитися цього десятиліття.
OpenAI заявив, що виділить 20% уже захищеної обчислювальної потужності для цих зусиль і прагне створити автоматизований дослідник вирівнювання «на рівні людини». Автоматизований дослідник, теоретично, допоможе команді керувати безпекою суперрозвідки та узгодити її з «намірами людини».
Наразі вона назвала свого головного наукового співробітника Іллю Суцкевера та керівника науково-дослідницької лабораторії Яна Лейке співкерівниками проекту. Він відкрито закликав дослідників та інженерів машинного навчання приєднатися до команди.
Пов’язане: OpenAI призупиняє функцію ChatGPT Bing, оскільки користувачі переходили через систему оплати
Це оголошення від OpenAI зроблено, коли уряди в усьому світі розглядають заходи щодо контролю над розробкою, розгортанням і використанням систем ШІ.
Регулятори в Європейському Союзі є одними з найвіддаленіших у впровадженні правил ШІ.14 червня Європейський парламент прийняв свій перший закон про штучний інтелект ЄС – законодавство, яке зобов’язує такі системи, як ChatGPT, розкривати весь контент, створений штучним інтелектом, а також інші заходи.
Законопроект все ще потребує додаткового обговорення в парламенті до його впровадження. Тим не менш, законопроект викликав обурення розробників штучного інтелекту щодо його потенціалу зупинити інновації.
У травні генеральний директор OpenAI Сем Альтман відвідав Брюссель, щоб обговорити правила ЄС щодо потенційних негативних наслідків надмірного регулювання.
Законодавці Сполучених Штатів також запровадили «Закон про національну комісію з штучного інтелекту» для створення комісії, яка прийматиме рішення про підхід країни до штучного інтелекту. Регулятори в США також відверто заявили про свої бажання регулювати цю технологію.
30 червня сенатор Майкл Беннет підготував лист до великих технологічних компаній, включаючи OpenAI, із закликом позначати контент, створений ШІ.