Радник цільової групи ШІ при прем’єр-міністрі Сполученого Королівства сказав, що у людей є приблизно два роки, щоб контролювати та регулювати штучний інтелект (ШІ), перш ніж він стане надто потужним.
В інтерв’ю місцевому британському ЗМІ Метт Кліффорд, який також є головою урядового Агентства перспективних досліджень і винаходів (ARIA), підкреслив, що поточні системи стають «все більш і більш спроможними з дедалі більшою швидкістю».
Він продовжив говорити, що якщо офіційні особи не почнуть розглядати безпеку та правила зараз, через два роки системи стануть «дуже потужними».
«У нас є два роки, щоб створити структуру, яка зробить контроль і регулювання цих дуже великих моделей набагато можливішим, ніж сьогодні».
Кліффорд попередив, що існує «багато різних типів ризиків», коли справа стосується ШІ, як короткострокових, так і довгострокових, які він назвав «досить страшними».
Інтерв’ю з’явилося після листа, опублікованого Центром безпеки штучного інтелекту минулого тижня, підписаного 350 експертами зі штучного інтелекту, включаючи генерального директора OpenAI, у якому говориться, що штучний інтелект слід розглядати як екзистенціальну загрозу, подібну до тієї, яку становлять ядерна зброя та пандемії..
«Вони говорять про те, що станеться, коли ми фактично створимо новий вид, щось на зразок інтелекту, який перевершить людський інтелект».
Радник цільової групи штучного інтелекту сказав, що ці загрози, створені штучним інтелектом, можуть бути «дуже небезпечними», які можуть «вбити багатьох людей, а не всіх людей, просто там, де ми очікуємо, що моделі будуть через два роки».
За темою: дохід від криптовалюти, пов’язаної зі штучним інтелектом, зріс на 41% після запуску ChatGPT: дослідження
За словами Кліффорда, основна увага регуляторів і розробників повинна бути зосереджена на розумінні того, як контролювати моделі, а потім на впровадженні правил у глобальному масштабі.
Наразі він сказав, що його найбільше боїться відсутність розуміння того, чому моделі ШІ поводяться так, як вони.
«Люди, які створюють найпотужніші системи, вільно визнають, що вони не розуміють, як саме [системи ШІ] демонструють таку поведінку».
Кліффорд підкреслив, що багато лідерів організацій, які створюють штучний інтелект, також погоджуються з тим, що потужні моделі штучного інтелекту повинні пройти певний тип аудиту та процесу оцінки перед їх розгортанням.
Наразі регулюючі органи в усьому світі намагаються зрозуміти технологію та її наслідки, одночасно намагаючись створити правила, які захищають користувачів і водночас дозволяють інновації.
5 червня офіційні особи в Європейському Союзі зайшли так далеко, що запропонували зобов’язати весь створений ШІ контент маркувати як такий, щоб запобігти дезінформації.
У Великій Британії міністр від опозиційної партії повторив настрої, згадані в листі CAIS, заявивши, що технологія повинна регулюватися, як медицина та ядерна енергетика
Ціна біткойна може впасти, якщо їй не вдасться утримати ключові рівні опору. Криптовалютний аналітик виявив,…
Повідомляється, що Марокко планує легалізувати всі криптовалюти після того, як країна заборонила цифрові активи в…
Starknet, рішення для масштабування рівня 2 (L2) Ethereum, розгорнуло першу фазу свого механізму стекінгу, дозволяючи…
Власність криптовалюти серед інвесторів у Сполученому Королівстві зростає, що спонукає до більшої уваги регуляторів з…
Вперше з 2019 року біткойн наближається до мільйона щоденних активних користувачів, що відображає зростання поширення…
Поки Європа готується до кінцевого терміну виконання Регламенту ринків криптовалют (MiCA) до кінця року, на…