Британский институт безопасности искусственного интеллекта пересек океан и открыл новое место в США

Новости

Британский институт безопасности искусственного интеллекта (ИИ) намерен выйти на международный уровень, открыв новое место в Соединенных Штатах.

20 мая Мишель Донелан, министр технологий Великобритании, объявила, что летом институт откроет свой первый зарубежный офис в Сан-Франциско.

В объявлении говорится, что стратегический выбор офиса в Сан-Франциско позволит Великобритании «использовать богатство технических талантов, доступных в районе залива», а также сотрудничать с одной из крупнейших в мире лабораторий искусственного интеллекта, расположенной между Лондоном и Сан-Франциско.

Кроме того, компания заявила, что этот шаг поможет ей «укрепить» отношения с ключевыми игроками в США, чтобы добиться глобальной безопасности ИИ «в интересах общества».

В лондонском филиале Института безопасности ИИ уже есть команда из 30 человек, которая находится на пути к расширению и приобретению большего опыта, особенно в области оценки рисков для передовых моделей ИИ.

Донелан сказал, что расширение отражает лидерство Великобритании и видение безопасности ИИ в действии.

«Это поворотный момент в способности Великобритании изучать как риски, так и потенциал ИИ с глобальной точки зрения, укрепляя наше партнерство с США и открывая путь другим странам к использованию нашего опыта, поскольку мы продолжаем лидировать в мире вБезопасность ИИ».

Это последовало за знаковым британским саммитом по безопасности ИИ, который состоялся в Лондоне в ноябре 2023 года. Саммит стал первым в своем роде, посвященным безопасности ИИ в глобальном масштабе.

По теме: Microsoft грозит многомиллиардный штраф в ЕС за Bing AI

В мероприятии приняли участие лидеры со всего мира, включая США и Китай, а также ведущие голоса в сфере искусственного интеллекта, в том числе президент Microsoft Брэд Смит, генеральный директор OpenAI Сэм Альтман, генеральный директор Google и DeepMind Демис Хассабисс и Илон Маск.

В своем последнем объявлении Великобритания заявила, что также публикует подборку недавних результатов института по проведенным им испытаниям на безопасность пяти общедоступных передовых моделей искусственного интеллекта.

Они анонимизировали модели и заявили, что результаты дают «моментальный снимок» возможностей моделей, а не обозначают их как «безопасные» или «небезопасные».

Часть результатов заключалась в том, что некоторые модели могут решить проблемы кибербезопасности, хотя другие с трудом справляются с более сложными задачами. Было обнаружено, что несколько моделей обладают докторскими знаниями в области химии и биологии.

Он пришел к выводу, что все протестированные модели были «высоко уязвимы» для базовых взломов и что протестированные модели не могли выполнять более «сложные и трудоемкие задачи» без присмотра человека.

Ян Хогерт, председатель института, сказал, что эти оценки помогут внести вклад в эмпирическую оценку возможностей модели.

«Безопасность ИИ — все еще очень молодая и развивающаяся область. Эти результаты представляют собой лишь небольшую часть подхода к оценке, который разрабатывает AISI».

Источник

Автор статей о криптовалюте и блокчейн технологиях, являюсь экспертом в этой области. Имею опыт работы в этой сфере и активно изучаю новые тенденции и развития. Мои статьи являются источником информации для любителей криптовалют и блокчейн технологий.

Занимаюсь в анализом и оценкой криптовалютных проектов и блокчейн решений, что позволяет мне предоставлять ценные рекомендации и прогнозы для читателей. Стремлюсь предоставлять качественную и доступную информацию, которая поможет людям понять сложные технологии и тенденции в этой области.

Оцените автора
CryptoHamster.org
Добавить комментарий