ШІ має регулюватися, як медицина та ядерна енергетика, – міністр Великобританії

Разное

За словами представника опозиційної політичної партії Британії, розробники, які працюють над штучним інтелектом, повинні отримувати ліцензії та регулюватися подібно до фармацевтичної, медичної чи ядерної промисловості.

Люсі Пауелл, політик і цифровий представник Лейбористської партії Сполученого Королівства, 5 червня сказала The Guardian, що такі фірми, як OpenAI або Google, які створюють моделі штучного інтелекту, повинні «потрібно мати ліцензію на створення цих моделей», додавши:

«Мене справді хвилює відсутність будь-якого регулювання великих мовних моделей, які потім можуть бути застосовані до цілого ряду інструментів штучного інтелекту, незалежно від того, як вони будуються, як ними керують або як ними керують».

Пауелл стверджував, що регулювання розвитку певних технологій є кращим варіантом, ніж їх заборона, подібно до того, як Європейський Союз заборонив інструменти розпізнавання облич.

Вона додала, що штучний інтелект «може мати багато непередбачуваних наслідків», але якщо розробники будуть змушені відкрито говорити про свої навчальні моделі штучного інтелекту та набори даних, уряд може пом’якшити деякі ризики.

«Ця технологія розвивається настільки швидко, що потребує активного, інтервенціоністського підходу уряду, а не підходу laissez faire», – сказала вона.

Пауелл також вважає, що така передова технологія може сильно вплинути на економіку Великобританії, і Лейбористська партія нібито завершує свою власну політику щодо ШІ та пов’язаних технологій.

Наступного тижня лідер лейбористів Кейр Стармер планує провести зустріч з тіньовим кабінетом партії в офісах Google у Великобританії, щоб він міг поспілкуватися з її керівниками, орієнтованими на ШІ.

За темою: офіційні особи ЄС хочуть, щоб увесь створений штучним інтелектом контент був позначений

Тим часом 5 червня Метт Кліффорд, голова Агентства передових досліджень та винаходів — урядового дослідницького агентства, створеного в лютому минулого року — виступив на TalkTV, щоб попередити, що ШІ може загрожувати людям уже через два роки.

«Якщо ми зараз не почнемо думати про те, як регулювати і не думати про безпеку, то через два роки ми побачимо, що у нас є дійсно дуже потужні системи», — сказав він. Однак Кліффорд уточнив, що дворічний термін є «бичачим кінцем спектру».

Кліффорд підкреслив, що сьогодні інструменти штучного інтелекту можуть бути використані для «запуску широкомасштабних кібератак». OpenAI виділила 1 мільйон доларів на підтримку технології кібербезпеки за допомогою штучного інтелекту, щоб перешкоджати такому використанню.

«Я думаю, що існує багато різних сценаріїв, про які варто турбуватися», — сказав він. «Я, звичайно, вважаю правильним те, що це має бути дуже важливим у порядку денному політиків».

BitCulture: образотворче мистецтво на Solana, музика AI, подкаст + огляди книг

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар