Інститут безпеки штучного інтелекту (ШІ) Сполученого Королівства має намір розширитися на міжнародному рівні завдяки новому офісу в Сполучених Штатах.
20 травня Мішель Донелан, міністр технологій Великої Британії, оголосила, що влітку інститут відкриє свій перший закордонний офіс у Сан-Франциско.
У повідомленні говориться, що стратегічний вибір офісу в Сан-Франциско дозволить Великій Британії «використати багатство технічних талантів, наявних у Bay Area», а також співпрацювати з однією з найбільших у світі лабораторій ШІ, розташованих між Лондоном і Сан-Франциско.
Крім того, він сказав, що цей крок допоможе йому «зміцнити» відносини з ключовими гравцями в США, щоб просувати глобальну безпеку штучного інтелекту «в інтересах суспільства».
У лондонському відділенні Інституту безпеки штучного інтелекту вже є команда з 30 осіб, яка працює над розширенням і набуває додаткових знань, зокрема, у сфері оцінки ризиків для передових моделей ШІ.
Донелан сказав, що розширення представляє лідера Великобританії та бачення безпеки штучного інтелекту в дії.
«Це ключовий момент у здатності Великої Британії вивчати як ризики, так і потенціал штучного інтелекту з глобальної точки зору, зміцнюючи наше партнерство зі США та прокладаючи шлях для інших країн використовувати наш досвід, оскільки ми продовжуємо лідирувати у світіБезпека ШІ».
Це сталося після знакового саміту з питань безпеки штучного інтелекту у Великій Британії, який відбувся в Лондоні в листопаді 2023 року. Цей саміт став першим у своєму роді, присвяченим безпеці штучного інтелекту в глобальному масштабі.
За темою: Microsoft загрожує багатомільярдний штраф у ЄС за Bing AI
У заході взяли участь лідери з усього світу, включаючи США та Китай, а також провідні голоси у сфері штучного інтелекту, зокрема президент Microsoft Бред Сміт, генеральний директор OpenAI Сем Альтман, генеральний директор Google і DeepMind Деміс Хассабісс та Ілон Маск.
В цьому останньому оголошенні Великобританія повідомила, що також публікує добірку останніх результатів інституту з тестування безпеки, яке він провів для п’яти загальнодоступних передових моделей ШІ.
Він анонімізував моделі та сказав, що результати надають «моментальний знімок» можливостей моделей, а не позначають їх як «безпечні» чи «небезпечні».
Частина висновків включала те, що деякі моделі можуть вирішити завдання кібербезпеки, хоча інші мають проблеми з більш просунутими. Було виявлено, що кілька моделей мають знання на рівні доктора філософії з хімії та біології.
Було зроблено висновок, що всі протестовані моделі були «дуже вразливі» до базових джейлбрейків і що протестовані моделі не змогли виконати більш «складні, трудомісткі завдання» без нагляду людини.
Ян Хогерт, голова інституту, сказав, що ці оцінки допоможуть зробити внесок у емпіричну оцінку можливостей моделі.
«Безпека штучного інтелекту все ще є дуже молодою сферою, яка розвивається. Ці результати представляють лише невелику частину підходу до оцінки, який розробляє AISI».