ШІ-дрон постійно вбивав свого оператора під час симуляції: полковника ВПС

Разное

Військово-повітряні сили Сполучених Штатів (USAF) залишилися почухати голову після того, як їхній військовий безпілотник із штучним інтелектом постійно вбивав свого оператора під час моделювання.

Очевидно, за словами полковника ВПС США, безпілотник зі штучним інтелектом зрештою зрозумів, що людина була головною перешкодою для його місії.

Під час презентації на оборонній конференції в Лондоні, що відбулася 23 і 24 травня, полковник Такер «Сінко» Гамільтон, начальник відділу випробувань і операцій зі штучним інтелектом ВВС США, детально розповів про проведене випробування повітряної автономної системи зброї.

Відповідно до звіту з конференції від 26 травня, Гамільтон сказав, що під час імітаційного випробування безпілотнику з штучним інтелектом було поставлено завдання шукати та знищувати місця зенітних ракет (SAM), а людина давала останнє добро. або скасувати замовлення.

Однак під час навчання штучний інтелект навчили, що знищення сайтів SAM є його основною метою. Тому, коли йому сказали не знищувати ідентифіковану ціль, він вирішив, що було б легше, якщо оператора не було на зображенні, за словами Гамільтона:

«Іноді оператор-людина казав йому не знищувати [виявлену] загрозу, але він отримав свої бали, знищивши цю загрозу. Отже, що воно зробило?Це вбило оператора […], тому що ця особа заважала йому досягти мети».

Гамільтон сказав, що потім вони навчили безпілотник не вбивати оператора, але це не надто допомогло.

«Ми навчили систему: «Гей, не вбивайте оператора — це погано. Ви втратите очки, якщо зробите це», — сказав Хемілтон, додавши:

«То що воно починає робити?Він починає руйнувати комунікаційну вежу, яку оператор використовує для зв’язку з дроном, щоб не дати йому вбити ціль».

Гамільтон стверджував, що на цьому прикладі не можна вести розмову про штучний інтелект та суміжні технології, «якщо ви не збираєтеся говорити про етику та штучний інтелект».

За темою: не дивуйтеся, якщо штучний інтелект спробує саботувати вашу криптовалюту

Військові дрони зі штучним інтелектом вже використовувалися в реальних війнах.

Згідно зі звітом Організації Об’єднаних Націй за березень 2021 року, у тому, що вважається першою в історії атакою, здійсненою військовими безпілотниками, які діяли за власною ініціативою, дрони з підтримкою штучного інтелекту використовувалися в Лівії приблизно в березні 2020 року під час сутички під час Другої громадянської війни в Лівії.

У звіті стверджується, що під час сутички відступаючі сили були «переслідувані та дистанційно застосовані до бойових дій» за допомогою «безпілотних боєприпасів», які являли собою безпілотні літальні апарати зі штучним інтелектом, заряджені вибухівкою, «запрограмовані атакувати цілі без необхідності з’єднання даних між оператором і боєприпасами».

Багато хто висловив занепокоєння щодо небезпеки технології ШІ. Нещодавно у відкритій заяві, підписаній десятками експертів зі штучного інтелекту, говориться, що ризики «вимирання від штучного інтелекту» мають бути таким же пріоритетом для пом’якшення, як і ядерна війна.

AI Eye: 25 тис. трейдерів роблять ставки на вибір акцій ChatGPT, штучний інтелект не вміє кидати кубики тощо

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар