ИИ следует регулировать так же, как медицину и ядерную энергетику: британский министр

Новости

По словам представителя оппозиционной политической партии Великобритании, разработчики, работающие над искусственным интеллектом, должны иметь лицензию и регулироваться так же, как фармацевтическая, медицинская или ядерная промышленность.

Люси Пауэлл, политик и цифровой представитель Лейбористской партии Соединенного Королевства, заявила The Guardian 5 июня, что такие фирмы, как OpenAI или Google, которые создали модели ИИ, должны «иметь лицензию для создания этих моделей», добавив:

«Меня действительно беспокоит отсутствие какого-либо регулирования больших языковых моделей, которые затем могут применяться к целому ряду инструментов ИИ, независимо от того, регулирует ли это то, как они создаются, как ими управляют или как они контролируются».

Пауэлл утверждал, что регулирование разработки определенных технологий является лучшим вариантом, чем их запрет, подобно тому, как Европейский Союз запретил инструменты распознавания лиц.

Она добавила, что ИИ «может иметь множество непредвиденных последствий», но если разработчики будут вынуждены открыто рассказывать о своих моделях обучения ИИ и наборах данных, то правительство сможет снизить некоторые риски.

«Эта технология развивается так быстро, что ей нужен активный, интервенционистский подход правительства, а не политика невмешательства», — сказала она.

Пауэлл также считает, что такие передовые технологии могут сильно повлиять на экономику Великобритании, и Лейбористская партия якобы завершает свою собственную политику в отношении ИИ и связанных с ним технологий.

На следующей неделе лидер лейбористов Кейр Стармер планирует провести встречу с теневым кабинетом партии в британских офисах Google, чтобы поговорить со своими руководителями, занимающимися ИИ.

Связанный: чиновники ЕС хотят, чтобы весь контент, созданный ИИ, был помечен

Тем временем 5 июня Мэтт Клиффорд, председатель Агентства перспективных исследований и изобретений — государственного исследовательского агентства, созданного в феврале прошлого года, — выступил на TalkTV, чтобы предупредить, что ИИ может угрожать людям всего через два года.

«Если мы сейчас не начнем думать о том, как регулировать и думать о безопасности, то через два года мы обнаружим, что у нас есть действительно очень мощные системы», — сказал он. Однако Клиффорд пояснил, что двухлетний график — это «бычий конец спектра».

Клиффорд подчеркнул, что сегодня инструменты искусственного интеллекта можно использовать для «запуска крупномасштабных кибератак». OpenAI выделила 1 миллион долларов на поддержку технологии кибербезопасности с помощью ИИ, чтобы предотвратить такое использование.

«Я думаю, что есть [так в оригинале] множество различных сценариев, о которых стоит беспокоиться», — сказал он. «Я, безусловно, считаю правильным, что этот вопрос должен занимать очень важное место в повестке дня политиков».

BitCulture: изобразительное искусство на Солане, музыка с искусственным интеллектом, подкаст + обзоры книг

Источник

Автор и инвестор в криптовалюты, являюсь экспертом в этой области. Не только пишу статьи о криптовалютах и блокчейн технологиях, но и являюсь активным участником криптосообщества, занимающимся инвестированием в различные криптовалюты.

Использую знания и опыт в написании статей, чтобы помочь читателям понять сложные аспекты криптоиндустрии и принимать обоснованные решения относительно инвестирования в криптовалюты. Делюсь личными опытами и инсайтами, полученными в ходе инвестиций, чтобы помочь другим инвесторам делать обоснованные выборы.

Оцените автора
CryptoHamster.org
Добавить комментарий