Ваше право на носіння ШІ незабаром може бути порушено

Разное

Єдиним способом боротьби зі зловмисним використанням штучного інтелекту (ШІ) може бути постійна розробка більш потужного ШІ та передача його в руки уряду.

Схоже, до такого висновку прийшла група дослідників у нещодавно опублікованій статті під назвою «Обчислювальна потужність, а потім управління штучним інтелектом».

Вчені з OpenAI, Кембриджа, Оксфорда та дюжини інших університетів та інститутів провели дослідження, щоб дослідити поточні та потенційні майбутні виклики, пов’язані з керуванням використанням і розвитком ШІ.

Централізація

Основний аргумент статті зосереджується на ідеї про те, що нібито єдиний спосіб контролювати, хто матиме доступ до найпотужніших систем штучного інтелекту в майбутньому, — це контролювати доступ до обладнання, необхідного для навчання та запуску моделей.

Як кажуть дослідники:

«Якщо точніше, політики можуть використовувати обчислення для сприяння регулятивній видимості ШІ, розподіляти ресурси для сприяння сприятливим результатам і вводити обмеження проти безвідповідальної або зловмисної розробки та використання ШІ».

У цьому контексті «обчислення» відноситься до основного апаратного забезпечення, необхідного для розробки штучного інтелекту, наприклад графічних і центральних процесорів.

По суті, дослідники припускають, що найкращим способом запобігти людям використовувати штучний інтелект для заподіяння шкоди було б відрізати їх у джерелі. Це свідчить про те, що урядам потрібно буде розробити системи, за допомогою яких можна було б контролювати розробку, продаж і роботу будь-якого апаратного забезпечення, яке буде вважатися необхідним для розробки передового ШІ.

Управління за допомогою штучного інтелекту

Певним чином уряди в усьому світі вже здійснюють «комп’ютерне управління». Наприклад, США обмежують продаж певних моделей графічних процесорів, які зазвичай використовуються для навчання систем ШІ, таким країнам, як Китай.

За темою: офіційні особи США поширюють обмеження на експорт чіпів Nvidia AI на «деякі країни Близького Сходу»

Але, згідно з дослідженням, справжнє обмеження здатності зловмисників завдавати шкоди за допомогою штучного інтелекту вимагатиме від виробників вбудувати «відключачі» в апаратне забезпечення. Це може дати урядам можливість здійснювати заходи «віддаленого примусу», наприклад, закривати незаконні навчальні центри ШІ.

Однак, як зазначають дослідники, «наївні або погано охоплені підходи до управління обчислювальною технікою несуть значні ризики в таких сферах, як конфіденційність, економічні наслідки та централізація влади».

Моніторинг використання апаратного забезпечення в США, наприклад, може суперечити нещодавній вказівці Білого дому щодо розробки «схеми білля про права на штучний інтелект», згідно з яким громадяни мають право захищати свої дані.

Вимикачі можуть бути DOA

Окрім цих проблем, дослідники також зазначають, що нещодавні досягнення в «комунікаційно-ефективному» навчанні можуть призвести до використання децентралізованих обчислень для навчання, створення та запуску моделей.

Це може ускладнити для урядів пошук, моніторинг і відключення обладнання, пов’язаного з незаконними навчальними зусиллями.

На думку дослідників, це може не залишити урядам іншого вибору, окрім як зайняти позицію гонки озброєнь проти незаконного використання ШІ. «Суспільству доведеться своєчасно та мудро використовувати більш потужні, керовані обчислення, щоб розробити захист від нових ризиків, створених некерованими обчисленнями».

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар