Колишні співробітники OpenAI, Anthropic закликають до «права попереджати» про ризики ШІ

Разное

Колишні співробітники провідних розробників штучного інтелекту (ШІ) закликають ці інноваційні компанії ШІ посилити захист інформаторів. Це дало б їм змогу висловити «занепокоєння, пов’язані з ризиком» громадськості щодо розвитку складних систем ШІ.

4 червня 13 колишніх і нинішніх співробітників OpenAI (ChatGPT), Anthropic (Claude) і DeepMind (Google) разом із «хрещеними батьками штучного інтелекту» Йошуа Бенджіо та Джефрі Хінтоном і відомим ученим ШІ Стюартом Расселом розпочали «Право попереджати». AI» петиція.

Заява має на меті встановити зобов’язання передових компаній, що займаються штучним інтелектом, дозволити своїм співробітникам висловлювати занепокоєння, пов’язані з ризиком щодо штучного інтелекту, як усередині компанії, так і серед громадськості.

Вільям Сондерс, колишній співробітник OpenAI і прихильник руху, прокоментував, що при роботі з потенційно небезпечними новими технологіями повинні бути способи обміну інформацією про ризики з незалежними експертами, урядами та громадськістю.

«Сьогодні люди, які володіють найбільшими знаннями про те, як працюють прикордонні системи ШІ та ризики, пов’язані з їх розгортанням, не мають повної свободи говорити через можливу помсту та надто широкі угоди про конфіденційність».

Принципи права на попередження

Ця пропозиція містить чотири основні пропозиції для розробників штучного інтелекту. Перша полягає у виключенні неприниження ризиків, щоб компанії не змушували співробітників мовчати угодами, які заважають їм висловлювати занепокоєння щодо ризиків штучного інтелекту або карати їх за це.

Вони також прагнуть створити анонімні канали повідомлень для людей, щоб висловити занепокоєння щодо ризиків ШІ, тим самим культивуючи середовище, сприятливе для відкритої критики навколо таких ризиків.

Нарешті, у петиції міститься прохання про захист інформаторів, у якому компанії не будуть мстити співробітникам, які розкривають інформацію, щоб викрити серйозні ризики ШІ.

Сондерс сказав, що запропоновані принципи є «проактивним способом» взаємодії з компаніями, що займаються штучним інтелектом, для досягнення необхідного безпечного та корисного ШІ.

Зростаюче занепокоєння щодо безпеки ШІ

Петиція надходить у зв’язку зі зростанням занепокоєння з приводу «депріоритизації» лабораторіями штучного інтелекту щодо безпеки їхніх останніх моделей, особливо в умовах штучного загального інтелекту (AGI), який намагається створити програмне забезпечення з людським інтелектом і здатністю до самонавчання.

Колишній співробітник OpenAI Даніель Кокотайло сказав, що вирішив покинути компанію, оскільки «втратив надію, що вони діятимуть відповідально», зокрема щодо створення AGI.

«Вони та інші підтримали підхід «рухайся швидко і ламай речі», і це протилежно тому, що потрібно для такої потужної та погано зрозумілої технології».

28 травня Гелен Тонер, колишній член правління OpenAI, сказала під час подкасту Ted AI, що Сема Альтмана, генерального директора OpenAI, нібито звільнили з компанії за нібито приховування інформації від правління.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар