Британский институт безопасности искусственного интеллекта (ИИ) намерен выйти на международный уровень, открыв новое место в Соединенных Штатах.
20 мая Мишель Донелан, министр технологий Великобритании, объявила, что летом институт откроет свой первый зарубежный офис в Сан-Франциско.
В объявлении говорится, что стратегический выбор офиса в Сан-Франциско позволит Великобритании «использовать богатство технических талантов, доступных в районе залива», а также сотрудничать с одной из крупнейших в мире лабораторий искусственного интеллекта, расположенной между Лондоном и Сан-Франциско.
Кроме того, компания заявила, что этот шаг поможет ей «укрепить» отношения с ключевыми игроками в США, чтобы добиться глобальной безопасности ИИ «в интересах общества».
В лондонском филиале Института безопасности ИИ уже есть команда из 30 человек, которая находится на пути к расширению и приобретению большего опыта, особенно в области оценки рисков для передовых моделей ИИ.
Донелан сказал, что расширение отражает лидерство Великобритании и видение безопасности ИИ в действии.
«Это поворотный момент в способности Великобритании изучать как риски, так и потенциал ИИ с глобальной точки зрения, укрепляя наше партнерство с США и открывая путь другим странам к использованию нашего опыта, поскольку мы продолжаем лидировать в мире вБезопасность ИИ».
Это последовало за знаковым британским саммитом по безопасности ИИ, который состоялся в Лондоне в ноябре 2023 года. Саммит стал первым в своем роде, посвященным безопасности ИИ в глобальном масштабе.
По теме: Microsoft грозит многомиллиардный штраф в ЕС за Bing AI
В мероприятии приняли участие лидеры со всего мира, включая США и Китай, а также ведущие голоса в сфере искусственного интеллекта, в том числе президент Microsoft Брэд Смит, генеральный директор OpenAI Сэм Альтман, генеральный директор Google и DeepMind Демис Хассабисс и Илон Маск.
В своем последнем объявлении Великобритания заявила, что также публикует подборку недавних результатов института по проведенным им испытаниям на безопасность пяти общедоступных передовых моделей искусственного интеллекта.
Они анонимизировали модели и заявили, что результаты дают «моментальный снимок» возможностей моделей, а не обозначают их как «безопасные» или «небезопасные».
Часть результатов заключалась в том, что некоторые модели могут решить проблемы кибербезопасности, хотя другие с трудом справляются с более сложными задачами. Было обнаружено, что несколько моделей обладают докторскими знаниями в области химии и биологии.
Он пришел к выводу, что все протестированные модели были «высоко уязвимы» для базовых взломов и что протестированные модели не могли выполнять более «сложные и трудоемкие задачи» без присмотра человека.
Ян Хогерт, председатель института, сказал, что эти оценки помогут внести вклад в эмпирическую оценку возможностей модели.
«Безопасность ИИ — все еще очень молодая и развивающаяся область. Эти результаты представляют собой лишь небольшую часть подхода к оценке, который разрабатывает AISI».