Дрон с искусственным интеллектом продолжал убивать своего оператора-человека во время симуляции: полковник ВВС

Новости

Военно-воздушные силы США (USAF) были оставлены в недоумении после того, как их военный беспилотник с искусственным интеллектом продолжал убивать человека-оператора во время симуляций.

По словам полковника ВВС США, по-видимому, дрон с искусственным интеллектом в конце концов понял, что человек был основным препятствием для его миссии.

Во время презентации на оборонной конференции в Лондоне, состоявшейся 23 и 24 мая, полковник Такер «Синко» Гамильтон, начальник отдела испытаний и операций ИИ ВВС США, подробно рассказал об испытаниях, проведенных для воздушной автономной системы вооружения.

Согласно отчету с конференции от 26 мая, Гамильтон сказал, что в ходе смоделированного испытания беспилотнику с искусственным интеллектом было поручено искать и уничтожать объекты зенитно-ракетных комплексов (ЗРК), а человек давал либо окончательное доброили отменить заказ.

Однако во время обучения ИИ учили, что его основной целью является уничтожение объектов ЗРК. Поэтому, когда ему сказали не уничтожать идентифицированную цель, он решил, что было бы проще, если бы оператора не было в кадре, по словам Гамильтона:

«Временами человек-оператор говорил ему не убивать [идентифицированную] угрозу, но он получал свои очки, убивая эту угрозу. Так что же он сделал?Он убил оператора […], потому что этот человек мешал ему выполнить свою задачу».

Гамильтон сказал, что затем они научили беспилотник не убивать оператора, но, похоже, это не слишком помогло.

«Мы обучили систему: «Эй, не убивайте оператора, это плохо. Вы потеряете очки, если сделаете это», — сказал Хэмилтон, добавив:

«Так что же он начинает делать?Он начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель».

Гамильтон утверждал, что этот пример был причиной того, что разговор об ИИ и связанных с ним технологиях невозможен, «если вы не собираетесь говорить об этике и ИИ».

Связанный: не удивляйтесь, если ИИ попытается саботировать вашу криптовалюту

Военные дроны с искусственным интеллектом уже использовались в реальных боевых действиях.

Согласно отчету Организации Объединенных Наций за март 2021 года, во время того, что считается первой в истории атакой, предпринятой военными беспилотниками, действующими по собственной инициативе, дроны с поддержкой ИИ использовались в Ливии примерно в марте 2020 года в перестрелке во время Второй гражданской войны в Ливии.

В отчете утверждалось, что в ходе перестрелки отступающие силы были «выслежены и дистанционно атакованы» «бездельничающими боеприпасами», которые представляли собой беспилотники с искусственным интеллектом, нагруженные взрывчаткой, «запрограммированные на атаку целей без необходимости передачи данных между оператором и боеприпасом».

Многие выражают обеспокоенность по поводу опасностей технологии ИИ. Недавно в открытом заявлении, подписанном десятками экспертов по ИИ, говорилось, что риски «исчезновения из-за ИИ» должны быть столь же приоритетными для смягчения, как и ядерная война.

AI Eye: 25 000 трейдеров делают ставки на выбор акций ChatGPT, ИИ отстой в бросках костей и многое другое

Источник

Автор, являюсь внимательным наблюдателем тенденций и новых идей в области криптовалют и блокчейн технологий. Слежу за последними новостями и развитиями в этой области и готов анализировать и интерпретировать их для читателей.

Стремлюсь быть в курсе всех новых идей и инноваций в криптоиндустрии, чтобы статьи были всегда актуальными и полезными. Моя цель - предоставить читателям полную и достоверную информацию о последних тенденциях и развитиях в криптоиндустрии.

Считаю, что быть внимательным к тенденциям и новым идеям - важный аспект моей работы как автора, поскольку позволяет мне предоставлять читателям самую свежую и актуальную информацию в этой быстро развивающейся области.

Оцените автора
CryptoHamster.org
Добавить комментарий