Военно-воздушные силы США (USAF) были оставлены в недоумении после того, как их военный беспилотник с искусственным интеллектом продолжал убивать человека-оператора во время симуляций.
По словам полковника ВВС США, по-видимому, дрон с искусственным интеллектом в конце концов понял, что человек был основным препятствием для его миссии.
Во время презентации на оборонной конференции в Лондоне, состоявшейся 23 и 24 мая, полковник Такер «Синко» Гамильтон, начальник отдела испытаний и операций ИИ ВВС США, подробно рассказал об испытаниях, проведенных для воздушной автономной системы вооружения.
Согласно отчету с конференции от 26 мая, Гамильтон сказал, что в ходе смоделированного испытания беспилотнику с искусственным интеллектом было поручено искать и уничтожать объекты зенитно-ракетных комплексов (ЗРК), а человек давал либо окончательное доброили отменить заказ.
The Air Force trained an AI drone to destroy SAM sites.
Human operators sometimes told the drone to stop.
The AI then started attacking the human operators.
So then it was trained to not attack humans.
It started attacking comm towers so humans couldn’t tell it to stop. pic.twitter.com/BqoWM8Ahco
— Siqi Chen (@blader) June 1, 2023
Однако во время обучения ИИ учили, что его основной целью является уничтожение объектов ЗРК. Поэтому, когда ему сказали не уничтожать идентифицированную цель, он решил, что было бы проще, если бы оператора не было в кадре, по словам Гамильтона:
«Временами человек-оператор говорил ему не убивать [идентифицированную] угрозу, но он получал свои очки, убивая эту угрозу. Так что же он сделал?Он убил оператора […], потому что этот человек мешал ему выполнить свою задачу».
Гамильтон сказал, что затем они научили беспилотник не убивать оператора, но, похоже, это не слишком помогло.
«Мы обучили систему: «Эй, не убивайте оператора, это плохо. Вы потеряете очки, если сделаете это», — сказал Хэмилтон, добавив:
«Так что же он начинает делать?Он начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель».
Гамильтон утверждал, что этот пример был причиной того, что разговор об ИИ и связанных с ним технологиях невозможен, «если вы не собираетесь говорить об этике и ИИ».
Связанный: не удивляйтесь, если ИИ попытается саботировать вашу криптовалюту
Военные дроны с искусственным интеллектом уже использовались в реальных боевых действиях.
Согласно отчету Организации Объединенных Наций за март 2021 года, во время того, что считается первой в истории атакой, предпринятой военными беспилотниками, действующими по собственной инициативе, дроны с поддержкой ИИ использовались в Ливии примерно в марте 2020 года в перестрелке во время Второй гражданской войны в Ливии.
В отчете утверждалось, что в ходе перестрелки отступающие силы были «выслежены и дистанционно атакованы» «бездельничающими боеприпасами», которые представляли собой беспилотники с искусственным интеллектом, нагруженные взрывчаткой, «запрограммированные на атаку целей без необходимости передачи данных между оператором и боеприпасом».
Многие выражают обеспокоенность по поводу опасностей технологии ИИ. Недавно в открытом заявлении, подписанном десятками экспертов по ИИ, говорилось, что риски «исчезновения из-за ИИ» должны быть столь же приоритетными для смягчения, как и ядерная война.
AI Eye: 25 000 трейдеров делают ставки на выбор акций ChatGPT, ИИ отстой в бросках костей и многое другое