Создатель ChatGPT OpenAI создает новую команду для проверки рисков ИИ

Новости

OpenAI, компания по исследованию и развертыванию искусственного интеллекта (ИИ), стоящая за ChatGPT, запускает новую инициативу по оценке широкого спектра рисков, связанных с ИИ.

OpenAI создает новую команду, занимающуюся отслеживанием, оценкой, прогнозированием и защитой потенциальных катастрофических рисков, связанных с ИИ, объявила компания 25 октября.

Новое подразделение OpenAI, получившее название «Готовность», сосредоточится на потенциальных угрозах ИИ, связанных с химическими, биологическими, радиологическими и ядерными угрозами, индивидуальном убеждении, кибербезопасности, а также автономном репликации и адаптации.

Группа готовности под руководством Александра Мадри попытается ответить на такие вопросы, как насколько опасны передовые системы ИИ при неправильном использовании, а также смогут ли злоумышленники использовать украденные веса моделей ИИ.

«Мы считаем, что передовые модели ИИ, которые превзойдут возможности, имеющиеся в настоящее время в самых передовых существующих моделях, могут принести пользу всему человечеству», — пишет OpenAI, признавая, что модели ИИ также представляют «все более серьезные риски». Фирма добавила:

«Мы серьезно относимся ко всему спектру рисков безопасности, связанных с ИИ, от систем, которые мы имеем сегодня, до самых дальних пределов сверхразума.[…] Чтобы обеспечить безопасность высокопроизводительных систем искусственного интеллекта, мы разрабатываем наш подход к обеспечению готовности к катастрофическим рискам».

Согласно сообщению в блоге, OpenAI сейчас ищет таланты с различным техническим опытом для своей новой команды по обеспечению готовности. Кроме того, компания запускает конкурс по обеспечению готовности к искусственному интеллекту для предотвращения катастрофических злоупотреблений, предлагая 25 000 долларов США в виде кредитов API 10 лучшим работам.

Ранее OpenAI заявляла, что планирует сформировать новую команду, занимающуюся устранением потенциальных угроз ИИ, в июле 2023 года.

Связанный: CoinMarketCap запускает плагин ChatGPT

Часто подчеркивались риски, потенциально связанные с искусственным интеллектом, а также опасения, что ИИ может стать умнее любого человека. Несмотря на признание этих рисков, такие компании, как OpenAI, в последние годы активно разрабатывают новые технологии искусственного интеллекта, что, в свою очередь, вызывает дополнительные опасения.

В мае 2023 года некоммерческая организация «Центр безопасности ИИ» опубликовала открытое письмо о рисках ИИ, призывая сообщество снизить риски исчезновения ИИ в качестве глобального приоритета наряду с другими рисками социального масштаба, такими как пандемии и ядерная война.

Источник

Автор статей о криптовалюте и блокчейн технологиях, являюсь экспертом в этой области. Имею опыт работы в этой сфере и активно изучаю новые тенденции и развития. Мои статьи являются источником информации для любителей криптовалют и блокчейн технологий.

Занимаюсь в анализом и оценкой криптовалютных проектов и блокчейн решений, что позволяет мне предоставлять ценные рекомендации и прогнозы для читателей. Стремлюсь предоставлять качественную и доступную информацию, которая поможет людям понять сложные технологии и тенденции в этой области.

Оцените автора
CryptoHamster.org
Добавить комментарий