Вчені штучного інтелекту пропонують «план на випадок непередбачених обставин» на випадок, якщо люди втратять контроль над ШІ

Група вчених у галузі штучного інтелекту закликає країни створити глобальну систему нагляду, щоб запобігти потенційним «катастрофічним наслідкам», якщо люди втратять контроль над ШІ.

У заяві, опублікованій 16 вересня, група впливових учених штучного інтелекту висловила стурбованість тим, що технологія, яку вони допомогли розробити, може завдати серйозної шкоди, якщо людина втратить контроль.

«Втрата контролю людиною або зловмисне використання цих систем штучного інтелекту може призвести до катастрофічних наслідків для всього людства», — йдеться в заяві перед тим, як продовжити:

«На жаль, ми ще не розвинули необхідну науку для контролю та захисту використання такого передового інтелекту».

Вчені погодилися, що країни повинні розвинути органи для виявлення та реагування на інциденти штучного інтелекту та катастрофічні ризики в межах своєї юрисдикції, а також що необхідно розробити «глобальний план на випадок надзвичайних ситуацій».

«У довгостроковій перспективі держави повинні розробити міжнародний режим управління, щоб запобігти розвитку моделей, які можуть створити глобальні катастрофічні ризики».

Заява базується на результатах Міжнародного діалогу з безпеки ШІ у Венеції на початку вересня, третьої зустрічі такого роду, організованої некомерційною дослідницькою групою США Safe AI Forum.

Професор Університету Джона Гопкінса Джилліан Гедфілд, яка опублікувала цю заяву в дописі на X, сказала: «Якщо через шість місяців у нас трапиться якась катастрофа, якщо ми виявимо, що існують моделі, які починають автономно самовдосконалюватися, якіти будеш дзвонити?»

Джерело: Джилліан Хедфілд

Вони заявили, що безпека штучного інтелекту визнана глобальним суспільним благом, яке вимагає міжнародної співпраці та управління.

Розробники штучного інтелекту запропонували три ключові процеси: угоди та установи щодо готовності до надзвичайних ситуацій, структуру забезпечення безпеки та незалежні глобальні дослідження щодо безпеки та перевірки штучного інтелекту.

За темою: Ілон Маск висловився за підтримку широких правил безпеки ШІ

Заяву підписали понад 30 із США, Канади, Китаю, Великобританії, Сінгапуру та інших країн. До групи увійшли експерти з провідних дослідницьких установ ШІ та університетів, а також кілька лауреатів премії Тюрінга, еквівалента Нобелівської премії з обчислювальної техніки.

Вчені заявили, що діалог необхідний через скорочення наукового обміну між наддержавами та зростання недовіри між США та Китаєм, що ускладнює досягнення консенсусу щодо загроз ШІ.

На початку вересня США, ЄС і Велика Британія підписали першу в світі юридично обов’язкову міжнародну угоду щодо штучного інтелекту, яка віддає перевагу правам людини та підзвітності в регулюванні штучного інтелекту.

Однак технологічні корпорації та керівники заявили, що надмірне регулювання може придушити інновації, особливо в Європейському Союзі.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар