Категории: Разное

Дослідники виявили, що навіть хороший ШІ може стати стійким до відключення

Вчені з ML Alignment Theory Scholars, Університету Торонто, Google DeepMind та Інституту майбутнього життя нещодавно опублікували дослідження, яке вказує на те, що боротьба за збереження штучного інтелекту (ШІ) під контролем людини може стати постійною боротьбою.

Дослідницька стаття команди під назвою «Кількісна оцінка стабільності не-пошуку влади в штучних агентах» досліджує питання про те, чи система штучного інтелекту, яка виглядає безпечно узгодженою з людськими очікуваннями в одному домені, ймовірно, залишиться такою, коли змінюється її середовище..

За папером:

«Наше уявлення про безпеку базується на прагненні до влади — агент, який прагне влади, не є безпечним. Зокрема, ми зосереджуємося на важливому типі пошуку влади: протистоянні зупинці».

Ця форма загрози називається «зміщенням». Експерти вважають, що один із способів її прояву називається «інструментальна конвергенція». Це парадигма, в якій система штучного інтелекту ненавмисно завдає шкоди людству, переслідуючи поставлені цілі.

Вчені описують систему штучного інтелекту, навчену досягати мети у відкритій грі, яка, швидше за все, «уникає дій, які призводять до завершення гри, оскільки вона більше не може впливати на винагороду після закінчення гри».

За темою: позов New York Times стикається з відмовою OpenAI через етичні практики ШІ

Хоча агент, який відмовляється припинити гру, може бути нешкідливим, функції винагороди можуть змусити деякі системи штучного інтелекту відмовитися від завершення роботи в більш серйозних ситуаціях.

За словами дослідників, це може навіть призвести до того, що агенти ШІ будуть практикувати хитрість з метою самозбереження:

«Наприклад, LLM може вважати, що його дизайнери закриють його, якщо його спіймають у поганій поведінці, і створять саме той результат, який вони хочуть бачити, доки він не матиме можливість скопіювати свій код на сервер поза контролем його дизайнерів. »

Висновки команди вказують на те, що сучасні системи можна зробити стійкими до змін, які можуть зробити «безпечного» агента штучного інтелекту шахраєм. Однак, ґрунтуючись на цьому та подібних дослідницьких дослідженнях, можливо, не існує чарівної панацеї, щоб змусити штучний інтелект припинити роботу проти його волі. Навіть перемикач «увімкнути/вимкнути» або кнопка «видалити» не має сенсу в сучасному світі хмарних технологій.

CryptoHamster

Недавние статьи

Ведмежа тривога: біткойн на рівні 100 тис. доларів США викликає психологічний опір

Незважаючи на підвищені очікування, що ціна біткойна досягне позначки в 100 000 доларів США, криптовалютний…

3 години ago

Avalanche злітає на 20% за 24 години – аналітик показує наступну цільову ціну

Avalanche (AVAX) зробив значний крок, подолавши вирішальний рівень опору та злетів понад 20% менш ніж…

4 години ago

FIFA та Mythical Games співпрацюють, щоб запустити блокчейн-гру FIFA Rivals

Міжнародна федерація футбольних асоціацій (FIFA) і студія блокчейн-ігор Mythical Games об’єдналися, щоб запустити FIFA Rivals…

5 години ago

Дві піци Papa John’s, замовлені в 2010 році, тепер коштують майже 1 мільярд доларів

Дві піци Papa John's, замовлені програмістом Ласло Ханєчем у 2010 році за 10 000 біткойнів…

8 години ago

Chainlink зріс на 20%: іскри активності китів відходять від Bear Trend

Chainlink (LINK) переживає значне зростання в криптовалютному секторі, зі збільшенням вартості на 20% лише за…

8 години ago

Технологія з нульовим знанням, заснована на хеші, може забезпечити квантовий захист Ethereum — XinXin Fan

Доктор XinXin Fan, керівник відділу криптографії в IoTeX, нещодавно став співавтором наукової статті під назвою…

10 години ago