OpenAI, разработчик ChatGPT, сотрудничал со своим главным инвестором Microsoft, чтобы предотвратить пять кибератак, связанных с различными штатами.
Согласно отчету, опубликованному в среду, Microsoft отслеживала хакерские группы, связанные с российской военной разведкой, Стражами исламской революции и правительствами Китая и Северной Кореи, поскольку они стремились усовершенствовать свои хакерские стратегии с использованием больших языковых моделей (LLM).
LLM — это компьютерные программы, обычно называемые искусственным интеллектом (ИИ), которые используют обширные наборы текстовых данных для создания ответов, похожих на человеческие.
We disrupted five state-affiliated malicious cyber actors’ use of our platform.
Work done in collaboration with Microsoft Threat Intelligence Center. https://t.co/xpEeQDYjrQ
— OpenAI (@OpenAI) February 14, 2024
OpenAI сообщила, что кибератаки исходили от двух связанных с Китаем группировок — Charcoal Typhoon и Salmon Typhoon. Кроме того, атаки были связаны с Ираном через «Багровую песчаную бурю», с Северной Кореей через «Изумрудный снег» и с Россией через «Лесную метель».
По данным OpenAI, группы пытались использовать GPT-4 для исследования инструментов компании и кибербезопасности, отладки кода, создания сценариев, проведения фишинговых кампаний, перевода технических документов, уклонения от обнаружения вредоносного ПО, а также изучения спутниковой связи и радиолокационных технологий. Аккаунты были деактивированы после обнаружения.
Компания раскрыла это открытие, введя полный запрет поддерживаемым государством хакерским группам, использующим продукты искусственного интеллекта. Хотя OpenAI эффективно предотвращала подобные случаи, она осознавала необходимость предотвращения любого неправильного использования.
Связанный: OpenAI дает ChatGPT память: мозга золотой рыбки больше нет?
После всплеска дипфейков и мошенничества, созданных ИИ, после запуска ChatGPT, политики усилили контроль над разработчиками генеративного ИИ. В июне 2023 года OpenAI объявила о программе грантов на кибербезопасность в размере 1 миллиона долларов для повышения и измерения воздействия технологий кибербезопасности, основанных на искусственном интеллекте.
Несмотря на усилия OpenAI в области кибербезопасности и реализации мер безопасности, предотвращающих генерирование вредоносных или ненадлежащих ответов ChatGPT, хакеры нашли способы обойти эти меры и манипулировать чат-ботом для создания такого контента.
Более 200 организаций, включая OpenAI, Microsoft, Anthropic и Google, недавно сотрудничали с администрацией Байдена в создании Института безопасности ИИ и Консорциума Института безопасности ИИ США (AISIC). Цель — способствовать безопасному развитию искусственного интеллекта, борьбе с дипфейками, создаваемыми ИИ, и решению проблем кибербезопасности.
Это развитие последовало за созданием Института безопасности ИИ США (USAISI), который был создан в результате указа президента Джо Байдена о безопасности ИИ в конце октября 2023 года.
Государственным пенсионным планам легче распределять часть своих активов в криптовалютах по сравнению с частными пенсионными…
22 ноября правозащитная группа Blockchain Association из Вашингтона, округ Колумбия, направила письмо Дональду Трампу с…
Биткоин (BTC) в четверг подскочил выше 99 000 долларов, установив новый рубеж, а затем немного…
Биткоин остается на пути к отметке в 100 000 долларов, несмотря на опасения инвесторов по…
Deribit, одна из крупнейших в мире бирж криптовалютных деривативов, планирует интегрировать синтетический доллар Ethena USDe…
Крупнейшая страховая компания Германии Allianz приобрела почти четверть конвертируемых банкнот MicroStrategy на сумму 2,6 миллиарда…