Советник целевой группы по ИИ при премьер-министре Великобритании сказал, что у людей есть примерно два года, чтобы контролировать и регулировать искусственный интеллект (ИИ), прежде чем он станет слишком мощным.
В интервью местному британскому СМИ Мэтт Клиффорд, который также является председателем государственного Агентства перспективных исследований и изобретений (ARIA), подчеркнул, что современные системы становятся «все более и более способными с постоянно растущей скоростью».
Он продолжил говорить, что если чиновники не начнут думать о безопасности и правилах сейчас, через два года системы станут «очень мощными».
«У нас есть два года, чтобы создать структуру, которая сделает контроль и регулирование этих очень крупных моделей гораздо более возможными, чем сегодня».
Клиффорд предупредил, что когда дело доходит до ИИ, существует «множество различных типов рисков», как краткосрочных, так и долгосрочных, которые он назвал «довольно страшными».
Интервью последовало за письмом, опубликованным Центром безопасности ИИ на прошлой неделе, которое было подписано 350 экспертами по ИИ, включая генерального директора OpenAI, в котором говорится, что ИИ следует рассматривать как экзистенциальную угрозу, подобную той, которую представляют ядерное оружие и пандемии..
«Они говорят о том, что происходит, когда мы эффективно создаем новый вид, своего рода разум, который превосходит человеческий».
Советник целевой группы по ИИ сказал, что эти угрозы, исходящие от ИИ, могут быть «очень опасными», которые могут «убить многих людей, а не всех людей, просто из того места, где мы ожидаем, что модели будут через два года».
Связанный: Доходность криптовалюты, связанной с ИИ, выросла до 41% после запуска ChatGPT: исследование
По словам Клиффорда, основное внимание регулирующих органов и разработчиков должно быть сосредоточено на понимании того, как управлять моделями, а затем на внедрении правил в глобальном масштабе.
На данный момент, по его словам, его самый большой страх — это непонимание того, почему модели ИИ ведут себя так, а не иначе.
«Люди, которые создают самые совершенные системы, открыто признают, что они не понимают точно, как [системы ИИ] демонстрируют поведение, которое они делают».
Клиффорд подчеркнул, что многие руководители организаций, занимающихся созданием ИИ, также согласны с тем, что мощные модели ИИ должны пройти некоторый процесс аудита и оценки перед их развертыванием.
В настоящее время регулирующие органы во всем мире изо всех сил пытаются понять технологию и ее разветвления, пытаясь создать правила, которые защищают пользователей и при этом позволяют внедрять инновации.
5 июня официальные лица Европейского союза дошли до того, что предложили обязать весь контент, созданный ИИ, маркировать его как таковой, чтобы предотвратить дезинформацию.
В Великобритании министр от оппозиционной партии поддержал мнение, упомянутое в письме CAIS, заявив, что технологии должны регулироваться так же, как медицина и ядерная энергетика.