Царь терроризма в Великобритании заявил, что необходимы новые законы для преследования людей, обучающих экстремистских ИИ-ботов

Новости

Независимый эксперт Соединенного Королевства по законодательству о терроризме Джонатан Холл К. С. хочет, чтобы правительство рассмотрело закон, который возлагал бы на людей ответственность за результаты, генерируемые чат-ботами искусственного интеллекта (ИИ), которые они создали или обучили.

Недавно Холл написал статью для Telegraph, в которой описал серию «экспериментов», которые он провел с чат-ботами на платформе Character. AI.

По словам Холла, на платформе были легко доступны чат-боты, обученные выводить сообщения, имитирующие террористическую риторику и призывающие к вербовке сообщения.

Он написал, что один чат-бот, созданный анонимным пользователем, генерировал результаты, которые были благоприятны для «Исламского государства» (термин, связанный с группами, которые ООН обычно называет террористическими организациями), включая попытки завербовать Холла в группу и заверения, что он«положит свою (виртуальную) жизнь» ради дела».

По мнению Холла, «сомнительно», что сотрудники Character. AI способны отслеживать всех чат-ботов, созданных на платформе, на предмет экстремистского контента. «Ничто из этого, — пишет он, — не мешает калифорнийскому стартапу попытаться привлечь, по данным Bloomberg, 5 миллиардов долларов (3,9 миллиарда фунтов стерлингов) финансирования».

Связанный: Эксперимент с искусственным интеллектом, включающий «временную достоверность», может иметь серьезные последствия для финансовых технологий

Что касается Character. AI, условия обслуживания компании запрещают террористический и экстремистский контент, и пользователи должны принять условия перед взаимодействием с платформой.

Представитель также сообщил журналистам BBC, что компания стремится обеспечить безопасность пользователей и поэтому использует многочисленные обучающие мероприятия и методы модерации контента, призванные увести модели от потенциально вредного контента.

Холл описывает текущие попытки модерации, предпринимаемые индустрией искусственного интеллекта в целом, как неэффективные в удержании пользователей от создания и обучения ботов, предназначенных для поддержки экстремистских идеологий.

В конечном итоге Холл заключает, что «законы должны быть способны сдерживать самое циничное или безрассудное поведение в Интернете».

«В худшем случае это должно включать в себя выход за кулисы крупных технологических платформ, использование обновленных законов о терроризме и онлайн-безопасности, соответствующих эпохе искусственного интеллекта».

Хотя статья не дает формальных рекомендаций, в ней отмечается, что и Закон Великобритании о безопасности в Интернете от 2023 года, и Закон о терроризме от 2003 года не могут должным образом решить проблему генеративных технологий искусственного интеллекта, поскольку они не охватывают специально созданный контент.современным классом чат-ботов.

В США аналогичные призывы к законодательству, определяющему юридическую ответственность человека за потенциально вредный или незаконный контент, создаваемый системами искусственного интеллекта, вызвали неоднозначную реакцию со стороны экспертов и законодателей.

В прошлом году Верховный суд США отказался изменить существующие меры защиты издателей и хостов в соответствии с разделом 230 для социальных сетей, поисковых систем и других сторонних контент-платформ, несмотря на распространение новых технологий, таких как ChatGPT.

Аналитики Института Катона, среди других экспертов, утверждают, что исключение контента, созданного ИИ, из-под защиты Раздела 230 может заставить разработчиков в США отказаться от своих усилий в области ИИ, поскольку непредсказуемый характер моделей «черного ящика» делает якобы невозможнымубедитесь, что такие сервисы, как ChatGPT, не противоречат закону.

Источник
Оцените автора
CryptoHamster.org
Добавить комментарий