OpenAI, розробник ChatGPT, співпрацював зі своїм головним інвестором, Microsoft, щоб запобігти п’яти кібератакам, пов’язаним з різними державами.
Згідно зі звітом, опублікованим у середу, Microsoft відстежувала хакерські групи, пов’язані з російською військовою розвідкою, Революційною гвардією Ірану, а також урядами Китаю та Північної Кореї, оскільки вони прагнули вдосконалити свої стратегії злому за допомогою великих мовних моделей (LLM).
LLM — це комп’ютерні програми, які зазвичай називають штучним інтелектом (AI), які використовують величезні набори текстових даних для створення відповідей, схожих на людину.
We disrupted five state-affiliated malicious cyber actors’ use of our platform.
Work done in collaboration with Microsoft Threat Intelligence Center. https://t.co/xpEeQDYjrQ
— OpenAI (@OpenAI) February 14, 2024
За даними OpenAI, кібератаки здійснили дві групи, пов’язані з Китаєм — Charcoal Typhoon і Salmon Typhoon. Крім того, атаки були пов’язані з Іраном через Crimson Sandstorm, Північною Кореєю через Emerald Sleet і Росією через Forest Blizzard.
Відповідно до OpenAI, групи намагалися використовувати GPT-4 для дослідження інструментів кібербезпеки компаній, налагодження коду, генерації сценаріїв, проведення фішингових кампаній, перекладу технічних документів, уникнення виявлення зловмисного програмного забезпечення та вивчення супутникового зв’язку та радіолокаційних технологій. Облікові записи були деактивовані після виявлення.
Компанія оприлюднила це відкриття, вводячи загальну заборону на використання продуктів штучного інтелекту за підтримки державних хакерських груп. Хоча OpenAI ефективно запобігав цим випадкам, він визнав складність уникнення будь-якого неправильного використання.
За темою: OpenAI надає ChatGPT пам’ять: немає більше мозку золотої рибки?
Після сплеску дипфейків і шахрайства, створених штучним інтелектом після запуску ChatGPT, політики посилили перевірку розробників генеративного штучного інтелекту. У червні 2023 року OpenAI оголосила про грантову програму кібербезпеки вартістю 1 мільйон доларів США для посилення та вимірювання впливу технологій кібербезпеки, керованих ШІ.
Незважаючи на зусилля OpenAI щодо кібербезпеки та впровадження заходів безпеки, щоб запобігти створенню шкідливих або неналежних відповідей ChatGPT, хакери знайшли методи обійти ці заходи та маніпулювати чат-ботом для створення такого вмісту.
Понад 200 організацій, включаючи OpenAI, Microsoft, Anthropic і Google, нещодавно співпрацювали з адміністрацією Байдена для створення Інституту безпеки штучного інтелекту та консорціуму Інституту безпеки штучного інтелекту США (AISIC). Мета — сприяти безпечній розробці штучного інтелекту, боротися з дипфейками, створеними штучним інтелектом, і вирішувати проблеми кібербезпеки.
Ця подія послідувала за створенням Інституту безпеки штучного інтелекту США (USAISI), який було створено в результаті указу президента Джо Байдена щодо безпеки штучного інтелекту наприкінці жовтня 2023 року.
Dogecoin (DOGE) знову в центрі уваги, привертаючи увагу ентузіастів і аналітиків криптовалюти. Останні тенденції свідчать…
Ціна біткойна на шляху до досягнення позначки в 100 000 доларів США, за багатьма прогнозами,…
Згідно зі звітом Консультативного комітету з глобальних ринків CFTC від 21 листопада, Комісія з торгівлі…
За останні місяці екосистема блокчейну Sui зазнала значного зростання, а його рідний токен Sui (SUI)…
Марк Уєда, республіканський уповноважений Комісії з цінних паперів і бірж США (SEC), припустив, що він…
22 листопада суд у Сеулі визнав південнокорейську платформу депозитів віртуальних активів Delio банкрутом, згідно з…