Сенаторы США изучают работу Федеральной торговой комиссии по отслеживанию атак ИИ на пожилых граждан

Новости

Четыре сенатора США обратились к председателю Федеральной торговой комиссии (FTC) Лине Хан с просьбой предоставить информацию об усилиях, предпринимаемых FTC по отслеживанию использования искусственного интеллекта (ИИ) для мошенничества с пожилыми американцами.

В письме, адресованном Хану, сенаторы США Роберт Кейси, Ричард Блюменталь, Джон Феттерман и Кирстен ГилФлибранд подчеркнули необходимость эффективного реагирования на мошенничество и обман с помощью искусственного интеллекта.

Подчеркнув важность понимания масштабов угрозы для противодействия ей, они заявили:

«Мы просим FTC рассказать, как она работает над сбором данных об использовании ИИ в мошенничестве, и обеспечить их точное отражение в базе данных Consumer Sentinel Network (Sentinel)».

Consumer Sentinel — это кибер-инструмент Федеральной торговой комиссии, используемый федеральными, государственными и местными правоохранительными органами и собирающий отчеты о различных мошенничествах. Сенаторы задали председателю Федеральной торговой комиссии четыре вопроса о методах сбора данных с помощью ИИ.

Сенаторы хотели знать, способна ли Федеральная торговая комиссия выявлять мошенничества с использованием искусственного интеллекта и соответствующим образом помечать их в Sentinel. Кроме того, Комиссию спросили, может ли она выявить мошенничества с генеративным искусственным интеллектом, которые остались незамеченными жертвами.

Законодатели также запросили анализ данных Sentinel, чтобы определить популярность и показатели успеха каждого типа мошенничества. Последний вопрос: использует ли Федеральная торговая комиссия искусственный интеллект для обработки данных, собранных Sentinal.

Сенатор Кейси также является председателем Специального комитета по проблемам старения, который изучает проблемы, связанные с пожилыми американцами.

Связанный: Сингапур выпускает Национальную стратегию искусственного интеллекта 2.0 и планирует привлечь 15 000 экспертов по искусственному интеллекту

27 ноября США, Великобритания, Австралия и 15 других стран совместно выпустили глобальные рекомендации, помогающие защитить модели искусственного интеллекта (ИИ) от несанкционированного доступа, призывая компании делать свои модели «безопасными по своей конструкции».

В руководящих принципах главным образом рекомендовалось сохранять жесткий контроль над инфраструктурой модели ИИ, отслеживать любое вмешательство в модели до и после выпуска, а также обучать персонал рискам кибербезопасности.

Однако в нем не обсуждались возможные меры контроля за использованием моделей генерации изображений и дипфейков или методов сбора данных и их использования в обучающих моделях.

Источник

Автор, являюсь внимательным наблюдателем тенденций и новых идей в области криптовалют и блокчейн технологий. Слежу за последними новостями и развитиями в этой области и готов анализировать и интерпретировать их для читателей.

Стремлюсь быть в курсе всех новых идей и инноваций в криптоиндустрии, чтобы статьи были всегда актуальными и полезными. Моя цель - предоставить читателям полную и достоверную информацию о последних тенденциях и развитиях в криптоиндустрии.

Считаю, что быть внимательным к тенденциям и новым идеям - важный аспект моей работы как автора, поскольку позволяет мне предоставлять читателям самую свежую и актуальную информацию в этой быстро развивающейся области.

Оцените автора
CryptoHamster.org
Добавить комментарий