OpenAI і Microsoft об’єднують зусилля, щоб запобігти пов’язаним із державою кібератакам

Разное

OpenAI, розробник ChatGPT, співпрацював зі своїм головним інвестором, Microsoft, щоб запобігти п’яти кібератакам, пов’язаним з різними державами.

Згідно зі звітом, опублікованим у середу, Microsoft відстежувала хакерські групи, пов’язані з російською військовою розвідкою, Революційною гвардією Ірану, а також урядами Китаю та Північної Кореї, оскільки вони прагнули вдосконалити свої стратегії злому за допомогою великих мовних моделей (LLM).

LLM — це комп’ютерні програми, які зазвичай називають штучним інтелектом (AI), які використовують величезні набори текстових даних для створення відповідей, схожих на людину.

За даними OpenAI, кібератаки здійснили дві групи, пов’язані з Китаєм — Charcoal Typhoon і Salmon Typhoon. Крім того, атаки були пов’язані з Іраном через Crimson Sandstorm, Північною Кореєю через Emerald Sleet і Росією через Forest Blizzard.

Відповідно до OpenAI, групи намагалися використовувати GPT-4 для дослідження інструментів кібербезпеки компаній, налагодження коду, генерації сценаріїв, проведення фішингових кампаній, перекладу технічних документів, уникнення виявлення зловмисного програмного забезпечення та вивчення супутникового зв’язку та радіолокаційних технологій. Облікові записи були деактивовані після виявлення.

Компанія оприлюднила це відкриття, вводячи загальну заборону на використання продуктів штучного інтелекту за підтримки державних хакерських груп. Хоча OpenAI ефективно запобігав цим випадкам, він визнав складність уникнення будь-якого неправильного використання.

За темою: OpenAI надає ChatGPT пам’ять: немає більше мозку золотої рибки?

Після сплеску дипфейків і шахрайства, створених штучним інтелектом після запуску ChatGPT, політики посилили перевірку розробників генеративного штучного інтелекту. У червні 2023 року OpenAI оголосила про грантову програму кібербезпеки вартістю 1 мільйон доларів США для посилення та вимірювання впливу технологій кібербезпеки, керованих ШІ.

Незважаючи на зусилля OpenAI щодо кібербезпеки та впровадження заходів безпеки, щоб запобігти створенню шкідливих або неналежних відповідей ChatGPT, хакери знайшли методи обійти ці заходи та маніпулювати чат-ботом для створення такого вмісту.

Понад 200 організацій, включаючи OpenAI, Microsoft, Anthropic і Google, нещодавно співпрацювали з адміністрацією Байдена для створення Інституту безпеки штучного інтелекту та консорціуму Інституту безпеки штучного інтелекту США (AISIC). Мета — сприяти безпечній розробці штучного інтелекту, боротися з дипфейками, створеними штучним інтелектом, і вирішувати проблеми кібербезпеки.

Ця подія послідувала за створенням Інституту безпеки штучного інтелекту США (USAISI), який було створено в результаті указу президента Джо Байдена щодо безпеки штучного інтелекту наприкінці жовтня 2023 року.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар