Сенатори США вивчають роботу FTC, щоб відстежувати атаки ШІ на людей похилого віку

Разное

Чотири сенатори Сполучених Штатів написали голові Федеральної торгової комісії (FTC) Ліні Хан з проханням надати інформацію про зусилля, вжиті FTC для відстеження використання штучного інтелекту (ШІ) для шахрайства літніх американців.

У листі, адресованому Хану, американські сенатори Роберт Кейсі, Річард Блюменталь, Джон Феттерман і Кірстен ГілФлібранд підкреслили необхідність ефективного реагування на шахрайство та обман за допомогою ШІ.

Підкреслюючи важливість розуміння масштабів загрози для протидії їй, вони заявили:

«Ми просимо FTC поділитися тим, як вона збирає дані про використання штучного інтелекту в шахрайстві та забезпечити точне відображення в своїй базі даних Consumer Sentinel Network (Sentinel). »

Consumer Sentinel — це кіберрозслідувальний інструмент Федеральної торгової комісії, який використовують федеральні, державні та місцеві правоохоронні органи та містить звіти про різноманітні шахрайства. Сенатори поставили голові FTC чотири запитання про практику збору даних про шахрайство штучного інтелекту.

Сенатори хотіли знати, чи має FTC можливість ідентифікувати шахрайство на основі штучного інтелекту та позначати їх відповідним чином у Sentinel. Крім того, Комісію запитали, чи може вона виявити генеративне шахрайство ШІ, яке залишилося непоміченим жертвами.

Законодавці також вимагали розбивки даних Sentinel, щоб визначити популярність і рівень успішності кожного типу шахрайства. Останнє запитання: чи FTC використовує ШІ для обробки даних, зібраних Sentinal.

Сенатор Кейсі також є головою спеціального комітету з питань старіння, який вивчає питання, пов’язані з літніми американцями.

За темою: Сінгапур випускає національну стратегію штучного інтелекту 2.0, плани щодо 15 000 експертів штучного інтелекту

27 листопада США, Велика Британія, Австралія та 15 інших країн спільно опублікували глобальні рекомендації щодо захисту моделей штучного інтелекту (ШІ) від підробки, закликаючи компанії зробити свої моделі «захищеними за проектом».

Рекомендації в основному рекомендували підтримувати жорсткий контроль над інфраструктурою моделі штучного інтелекту, стежити за будь-яким втручанням у моделі до та після випуску та навчати персонал ризикам кібербезпеки.

Однак він не обговорив можливі засоби контролю за використанням моделей генерації зображень і глибоких фейків або методів збору даних і їх використання в навчальних моделях.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар