Категории: Разное

Творець ChatGPT OpenAI створює нову команду для перевірки ризиків ШІ

OpenAI, дослідницька та розгортаюча фірма зі штучного інтелекту (ШІ), що стоїть за ChatGPT, запускає нову ініціативу з оцінки широкого спектру ризиків, пов’язаних зі ШІ.

25 жовтня компанія оголосила, що OpenAI створює нову команду, яка займатиметься відстеженням, оцінкою, прогнозуванням і захистом потенційних катастрофічних ризиків, пов’язаних із ШІ.

Під назвою «Готовність» новий підрозділ OpenAI спеціально зосереджуватиметься на потенційних загрозах штучного інтелекту, пов’язаних із хімічними, біологічними, радіологічними та ядерними загрозами, індивідуальним переконанням, кібербезпекою та автономною реплікацією та адаптацією.

Під керівництвом Олександра Мадрі команда підготовки намагатиметься відповісти на такі запитання, як те, наскільки небезпечними є передові системи штучного інтелекту, коли їх використовують не за призначенням, а також чи зможуть зловмисники розгорнути вкрадені моделі штучного інтелекту.

«Ми віримо, що передові моделі штучного інтелекту, які перевищуватимуть можливості, наявні в даний час у найдосконаліших існуючих моделях, мають потенціал принести користь всьому людству», — написав OpenAI, визнаючи, що моделі штучного інтелекту також становлять «все більші ризики». Фірма додала:

«Ми серйозно ставимося до повного спектру ризиків для безпеки, пов’язаних зі ШІ, від систем, які ми маємо сьогодні, до найвіддаленіших досягнень суперінтелекту.[…] Щоб забезпечити безпеку високопродуктивних систем ШІ, ми розробляємо наш підхід до готовності до катастрофічних ризиків».

Відповідно до публікації в блозі, OpenAI зараз шукає талантів з різними технічними знаннями для своєї нової команди підготовки. Крім того, фірма запускає конкурс на підготовку до штучного інтелекту для запобігання катастрофічним зловживанням, пропонуючи 25 000 доларів США у вигляді кредитів API за 10 найкращих заявок.

Раніше OpenAI повідомляла, що планує сформувати нову команду, яка займатиметься усуненням потенційних загроз штучного інтелекту, у липні 2023 року.

За темою: CoinMarketCap запускає плагін ChatGPT

Ризики, потенційно пов’язані зі штучним інтелектом, часто висвітлювалися разом із побоюваннями, що штучний інтелект має потенціал стати розумнішим за будь-яку людину. Незважаючи на визнання цих ризиків, такі компанії, як OpenAI, протягом останніх років активно розробляють нові технології штучного інтелекту, що, у свою чергу, викликало додаткові занепокоєння.

У травні 2023 року некомерційна організація Center for AI Safety опублікувала відкритий лист щодо ризиків штучного інтелекту, закликаючи спільноту зменшити ризики зникнення штучного інтелекту як глобальний пріоритет поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна.

CryptoHamster

Недавние статьи

Біткойн повинен досягти 93 тисяч доларів, щоб отримати срібло прямо зараз

Цього року срібло вражаюче повернулося проти біткойна (BTC), випередивши криптовалюту як 8-й за величиною актив…

3 години ago

5 із 7 індикаторів у мережі свідчать про те, що зростання тільки починається

За словами аналітиків, незважаючи на те, що ринки криптовалюти консолідувалися в бік протягом останніх трьох…

3 години ago

Spot Ether ETF зводитимуться до голосування 5 осіб: Генслер вирішальний?

Доля фондових біржових фондів спотового ефіру (ETH) може бути вирішена цього тижня одним голосуванням Гері…

4 години ago

Експлуататор Pump. fun стверджує, що він був заарештований у Великій Британії та тепер під заставою

Колишній співробітник платформи для створення та торгівлі memecoin pump.fun, який, як стверджується, нещодавно здійснив експлойт…

6 години ago

Криптовалютна біржа Kraken наразі «не планує» виключати USDT з біржі в Європі

Криптовалютна біржа Kraken наразі «не планує» виводити Tether (USDT) з біржі в Європі, незважаючи на…

8 години ago

Ripple публікує попередження професора математики: «криптосистеми з відкритим ключем слід замінити»

Професор Массіміліано Сала з Університету Тренто в Італії нещодавно обговорював майбутнє технології блокчейну, оскільки вона…

13 години ago