Негативные последствия технологии искусственного интеллекта (ИИ) в руках преступников, позволяющей создавать подделки и вредоносное ПО, усилили необходимость принятия мер.
Компания OpenAI, создатель ChatGPT и Dall-e, объявила о программе грантов на кибербезопасность на сумму 1 миллион долларов США для повышения и измерения влияния технологий кибербезопасности, основанных на искусственном интеллекте.
Компания, занимающаяся искусственным интеллектом, постоянно подчеркивает важность регулирования искусственного интеллекта для предотвращения потенциальных вредоносных приложений. Это непрекращающаяся цифровая гонка вооружений, и OpenAI принимает упреждающие меры, чтобы положительные силы не отставали.
OpenAI представил широкий спектр концепций проектов, включая создание приманок для захвата злоумышленников, помощь разработчикам в разработке безопасного программного обеспечения и усовершенствование процедур управления исправлениями для обеспечения оптимальной эффективности.
Цели программы очевидны, как указано OpenAI в своем официальном сообщении в блоге: «Наша цель — способствовать развитию возможностей кибербезопасности на основе ИИ для защитников посредством грантов и дополнительной помощи». Основное внимание уделяется оценке эффективности этих моделей ИИ и определению методов повышения их возможностей кибербезопасности.
Эта новаторская инициатива направлена на достижение трех ключевых целей. Во-первых, он стремится «расширить возможности защитников», используя возможности ИИ и совместные усилия, чтобы сместить баланс в пользу тех, кто занимается повышением общей безопасности и защищенности.
Следующим направлением инициативы является «измерение возможностей». OpenAI стремится оказывать поддержку проектам, направленным на разработку методов количественной оценки для оценки эффективности моделей ИИ в области кибербезопасности. Кроме того, OpenAI намеревается «поднять дискурс», способствуя углубленному обсуждению сложных отношений между ИИ и кибербезопасностью.
Связанный: OpenAI получает предупреждение от японских регуляторов о сборе данных
Эта инициатива разрушает традиционный взгляд на кибербезопасность. OpenAI подчеркивает значение часто слышимой фразы о том, что защитники должны быть правы все время, а злоумышленникам нужно добиться успеха только один раз. Однако OpenAI признает силу сотрудничества для достижения общей цели обеспечения безопасности людей. Они полны решимости продемонстрировать, что с помощью ИИ защитники могут изменить динамику и одержать верх.