Четыре сенатора США обратились к председателю Федеральной торговой комиссии (FTC) Лине Хан с просьбой предоставить информацию об усилиях, предпринимаемых FTC по отслеживанию использования искусственного интеллекта (ИИ) для мошенничества с пожилыми американцами.
В письме, адресованном Хану, сенаторы США Роберт Кейси, Ричард Блюменталь, Джон Феттерман и Кирстен ГилФлибранд подчеркнули необходимость эффективного реагирования на мошенничество и обман с помощью искусственного интеллекта.
Подчеркнув важность понимания масштабов угрозы для противодействия ей, они заявили:
«Мы просим FTC рассказать, как она работает над сбором данных об использовании ИИ в мошенничестве, и обеспечить их точное отражение в базе данных Consumer Sentinel Network (Sentinel)».
Consumer Sentinel — это кибер-инструмент Федеральной торговой комиссии, используемый федеральными, государственными и местными правоохранительными органами и собирающий отчеты о различных мошенничествах. Сенаторы задали председателю Федеральной торговой комиссии четыре вопроса о методах сбора данных с помощью ИИ.
Сенаторы хотели знать, способна ли Федеральная торговая комиссия выявлять мошенничества с использованием искусственного интеллекта и соответствующим образом помечать их в Sentinel. Кроме того, Комиссию спросили, может ли она выявить мошенничества с генеративным искусственным интеллектом, которые остались незамеченными жертвами.
Законодатели также запросили анализ данных Sentinel, чтобы определить популярность и показатели успеха каждого типа мошенничества. Последний вопрос: использует ли Федеральная торговая комиссия искусственный интеллект для обработки данных, собранных Sentinal.
Сенатор Кейси также является председателем Специального комитета по проблемам старения, который изучает проблемы, связанные с пожилыми американцами.
Связанный: Сингапур выпускает Национальную стратегию искусственного интеллекта 2.0 и планирует привлечь 15 000 экспертов по искусственному интеллекту
27 ноября США, Великобритания, Австралия и 15 других стран совместно выпустили глобальные рекомендации, помогающие защитить модели искусственного интеллекта (ИИ) от несанкционированного доступа, призывая компании делать свои модели «безопасными по своей конструкции».
Exciting news! We joined forces with @NCSC and 21 international partners to develop the “Guidelines for Secure AI System Development”! This is operational collaboration in action for secure AI in the digital age: https://t.co/DimUhZGW4R#AISafety #SecureByDesign pic.twitter.com/e0sv5ACiC3
— Cybersecurity and Infrastructure Security Agency (@CISAgov) November 27, 2023
В руководящих принципах главным образом рекомендовалось сохранять жесткий контроль над инфраструктурой модели ИИ, отслеживать любое вмешательство в модели до и после выпуска, а также обучать персонал рискам кибербезопасности.
Однако в нем не обсуждались возможные меры контроля за использованием моделей генерации изображений и дипфейков или методов сбора данных и их использования в обучающих моделях.