Творець ChatGPT OpenAI створює нову команду для перевірки ризиків ШІ

Разное

OpenAI, дослідницька та розгортаюча фірма зі штучного інтелекту (ШІ), що стоїть за ChatGPT, запускає нову ініціативу з оцінки широкого спектру ризиків, пов’язаних зі ШІ.

25 жовтня компанія оголосила, що OpenAI створює нову команду, яка займатиметься відстеженням, оцінкою, прогнозуванням і захистом потенційних катастрофічних ризиків, пов’язаних із ШІ.

Під назвою «Готовність» новий підрозділ OpenAI спеціально зосереджуватиметься на потенційних загрозах штучного інтелекту, пов’язаних із хімічними, біологічними, радіологічними та ядерними загрозами, індивідуальним переконанням, кібербезпекою та автономною реплікацією та адаптацією.

Під керівництвом Олександра Мадрі команда підготовки намагатиметься відповісти на такі запитання, як те, наскільки небезпечними є передові системи штучного інтелекту, коли їх використовують не за призначенням, а також чи зможуть зловмисники розгорнути вкрадені моделі штучного інтелекту.

«Ми віримо, що передові моделі штучного інтелекту, які перевищуватимуть можливості, наявні в даний час у найдосконаліших існуючих моделях, мають потенціал принести користь всьому людству», — написав OpenAI, визнаючи, що моделі штучного інтелекту також становлять «все більші ризики». Фірма додала:

«Ми серйозно ставимося до повного спектру ризиків для безпеки, пов’язаних зі ШІ, від систем, які ми маємо сьогодні, до найвіддаленіших досягнень суперінтелекту.[…] Щоб забезпечити безпеку високопродуктивних систем ШІ, ми розробляємо наш підхід до готовності до катастрофічних ризиків».

Відповідно до публікації в блозі, OpenAI зараз шукає талантів з різними технічними знаннями для своєї нової команди підготовки. Крім того, фірма запускає конкурс на підготовку до штучного інтелекту для запобігання катастрофічним зловживанням, пропонуючи 25 000 доларів США у вигляді кредитів API за 10 найкращих заявок.

Раніше OpenAI повідомляла, що планує сформувати нову команду, яка займатиметься усуненням потенційних загроз штучного інтелекту, у липні 2023 року.

За темою: CoinMarketCap запускає плагін ChatGPT

Ризики, потенційно пов’язані зі штучним інтелектом, часто висвітлювалися разом із побоюваннями, що штучний інтелект має потенціал стати розумнішим за будь-яку людину. Незважаючи на визнання цих ризиків, такі компанії, як OpenAI, протягом останніх років активно розробляють нові технології штучного інтелекту, що, у свою чергу, викликало додаткові занепокоєння.

У травні 2023 року некомерційна організація Center for AI Safety опублікувала відкритий лист щодо ризиків штучного інтелекту, закликаючи спільноту зменшити ризики зникнення штучного інтелекту як глобальний пріоритет поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар