Технічний директор OpenAI пропонує: Державні регулятори повинні активно взаємодіяти з регулюванням ШІ

Разное

Міра Мураті, головний технічний директор OpenAI, вважає, що державні регулятори повинні бути «дуже залучені» до розробки стандартів безпеки для розгортання передових моделей штучного інтелекту, таких як ChatGPT.

Вона також вважає, що запропонована шестимісячна пауза в розробці не є правильним способом створення безпечніших систем і що галузь наразі не наблизилася до досягнення загального штучного інтелекту (AGI) — гіпотетичного інтелектуального порогу, на якому штучний агент здатнийвиконання будь-якого завдання, що потребує інтелекту, включно з пізнанням людського рівня. Її коментарі випливають з інтерв’ю Associated Press, опублікованого 24 квітня.

За темою: Ілон Маск запустить платформу штучного інтелекту TruthGPT для пошуку правди

Коли його запитали про заходи безпеки, яких OpenAI вживав перед запуском GPT-4, Мураті пояснив, що компанія повільно підходила до навчання, щоб не лише запобігти схильності машини до небажаної поведінки, але й виявити будь-які проблеми, пов’язані з такими змінами:

«Ви повинні бути дуже обережними, тому що ви можете створити інший дисбаланс. Ви маєте постійно перевіряти […] Тож тоді вам доведеться коригувати це знову та бути дуже обережними кожного разу, коли ви робите втручання, дивлячись, що ще порушується».

Після запуску GPT-4 експерти, побоюючись невідомого-невідомого, що оточує майбутнє ШІ, закликали до втручання, починаючи від посилення державного регулювання до шестимісячної паузи в глобальній розробці ШІ.

Остання пропозиція привернула увагу та підтримку таких світил у галузі штучного інтелекту, як Ілон Маск, Гері Маркус та Елізер Юдковскі, тоді як багато відомих діячів, зокрема Білл Гейтс, Ян ЛеКун та Ендрю Нґ, виступили проти.

Зі свого боку, Мураті висловила підтримку ідеї посилення участі уряду, заявивши, що «ці системи повинні регулюватися». Вона продовжила: «У OpenAI ми постійно спілкуємося з урядами, регуляторами та іншими організаціями, які розробляють ці системи, щоб, принаймні на рівні компанії, домовитися про певний рівень стандартів».

Але щодо паузи в розвитку тон Мураті був більш критичним:

«Деякі твердження в листі були просто неправдивими щодо розробки GPT-4 або GPT-5. Ми не навчаємо GPT-5. У нас немає жодних планів робити це протягом наступних шести місяців. І ми не поспішали з ГПТ-4. Нам знадобилося шість місяців, щоб повністю зосередитися на безпечній розробці та розгортанні GPT-4».

Відповідаючи на запитання про те, чи є наразі «шлях між такими продуктами, як GPT-4 і AGI», Мураті сказав Associated Press, що «ми далекі від того, щоб мати безпечну, надійну, узгоджену систему AGI».

Це може бути поганою новиною для тих, хто вважає, що GPT-4 межує з AGI. Поточна зосередженість компанії на безпеці та той факт, що, за словами Мураті, вона ще навіть не навчає GPT-5, є переконливими показниками того, що бажане відкриття загального інтелекту поки що залишається недосяжним.

Підвищена увага компанії до регулювання відбувається на тлі більшої тенденції до державного контролю. Нещодавно в Італії було заборонено продукти OpenAI GPT, а в Ірландії до 30 квітня настає крайній термін для відповідності місцевим нормам і нормам ЄС — один експерт каже, що цього буде важко виконати.

Такі заборони можуть серйозно вплинути на європейську криптовалютну сцену, оскільки зростає рух до впровадження вдосконалених ботів для торгівлі криптовалютою, побудованих на програмах, що використовують API GPT. Якщо OpenAI та компанії, що розробляють подібні продукти, виявляться нездатними легально працювати в Європі, трейдери, які використовують цю технологію, можуть бути змушені кудись в іншому місці.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар