OpenAI запускает программу Bug Bounty для борьбы с уязвимостями системы

Новости

Из-за проблем с конфиденциальностью и кибербезопасностью, а также недавних запретов в разных странах компания OpenAI, занимающаяся искусственным интеллектом (ИИ), выпустила программу для борьбы с проблемами уязвимости.

OpenAI, компания, стоящая за ChatGPT, во вторник объявила о запуске программы OpenAI Bug Bounty, чтобы помочь выявить и устранить уязвимости в своих системах. Согласно объявлению, программа вознаграждает исследователей безопасности за их вклад в обеспечение безопасности технологии OpenAI и компании.

OpenAI пригласил глобальное сообщество исследователей безопасности, этичных хакеров и энтузиастов технологий, предложив поощрения за квалификацию информации об уязвимостях. Компания AI считает, что опыт и бдительность окажут непосредственное влияние на сохранение ее систем и обеспечение безопасности пользователей.

Запуск программы последовал за заявлением, сделанным в понедельник главным секретарем кабинета министров Хирокадзу Мацуно, о том, что Япония рассмотрит возможность внедрения технологии искусственного интеллекта в государственные системы при условии, что будут решены вопросы конфиденциальности и кибербезопасности.

20 марта в OpenAI произошла утечка данных, когда пользовательские данные были раскрыты другому пользователю из-за ошибки в Library с открытым исходным кодом.

В объявлении OpenAI заявила, что сотрудничает с Bugcrowd, платформой для поиска ошибок, для управления процессом отправки и вознаграждения, который предназначен для обеспечения упрощенного опыта для всех участников. Денежные вознаграждения будут присуждаться в зависимости от серьезности и влияния заявленных проблем. Награды варьируются от 200 долларов за находки с низким уровнем серьезности до 20 000 долларов за исключительные открытия.

Связанный: приложения GPT-4 BabyAGI и AutoGPT могут иметь разрушительные последствия для криптовалюты

Защита Safe Harbor предоставляется для исследований уязвимостей, проводимых в соответствии с конкретными рекомендациями, перечисленными OpenAI. Ожидается, что исследователи будут соблюдать все применимые законы.

Если третья сторона возбудит судебный иск против исследователя безопасности, который участвовал в программе OpenAI по поиску ошибок, и исследователь следовал правилам программы, OpenAI сообщит другим, что исследователь действовал в рамках правил программы. Это связано с тем, что системы OpenAI связаны с другими сторонними системами и службами.

Источник
Оцените автора
CryptoHamster.org
Добавить комментарий