Финансовые учреждения сталкиваются с растущей угрозой изощренного мошенничества с использованием искусственного интеллекта

Новости

В мире финансов искусственный интеллект (ИИ) стал одновременно инструментом и генератором новых проблем. Оно приносит компаниям инновации, производительность и эффективность, однако оно также порождает сложные проблемы, к решению которых многие финансовые учреждения не готовы.

С появлением доступных инструментов искусственного интеллекта многие финансовые учреждения столкнулись с нехваткой инструментов для точного выявления и отделения мошенничества с использованием искусственного интеллекта от других типов мошенничества.

Эта неспособность различать различные типы мошенничества в их системах оставляет эти учреждения слепым пятном и затрудняет понимание масштабов и последствий мошенничества, основанного на искусственном интеллекте.

Коинтелеграф услышал от Ари Джейкоби, эксперта по мошенничеству с использованием искусственного интеллекта и генерального директора Deduce, чтобы лучше понять, как финансовые учреждения могут выявлять и отделять мошенничество с использованием искусственного интеллекта, что можно сделать, чтобы предотвратить мошенничество этого типа до того, как оно произойдет, и как его быстрый рост может повлиять нацелая индустрия.

Идентификация мошенничества с помощью ИИ

Учитывая, что основная проблема заключается в том, что большинство финансовых учреждений в настоящее время не имеют возможности отличить мошенничество, генерируемое ИИ, от всех других типов, оно объединено в одну категорию мошенничества.

Джейкоби сказал, что сочетание законной личной информации, такой как номера социального страхования, имена и даты рождения, с адресами электронной почты, созданными с помощью социальной инженерии, и законными номерами телефонов делает обнаружение устаревшими системами практически невозможным.

Джейкоби сказал, что это делает предотвращение и устранение основных причин мошенничества исключительно трудным, особенно по мере увеличения количества новых видов мошенничества.

«ИИ особенно трудно обнаружить из-за его способности создавать синтетические, реалистичные личности в масштабе, который делает практически невозможным идентификацию технологий».

По словам генерального директора Deduce, проблема с решениями заключается в том, что технологии быстро развиваются, а значит, растет и набор навыков тех, кто совершает мошенничество с использованием ИИ. Это означает, что финансовые учреждения сейчас должны быть на высоте, чтобы понять, где ИИ вступает в игру в таких случаях мошенничества.

Поиск решений

По словам Джейкоби, первым шагом во внедрении решения является анализ моделей онлайн-активности отдельных лиц и групп личностей, чтобы выявить мошеннические действия, которые могут показаться законными, но на самом деле являются мошенничеством.

Он сказал, что устаревших методов предотвращения мошенничества уже просто недостаточно, и финансовым учреждениям придется стать «неустанно активными» в своем стремлении предотвратить продолжающийся взрыв мошенничества, генерируемого ИИ.

Скорее всего, это не будет означать внедрение только одного решения — это будет означать создание многоуровневой программы, которая будет выявлять существующих мошенников, задерживающихся в существующей клиентской базе, а также предотвращать появление новых фальшивых личностей до их проникновения.

«Благодаря многоуровневому решению, использованию огромных наборов данных для выявления закономерностей и более точному анализу показателей доверия этот тип мошенничества можно лучше смягчить».

Джейкоби сказал, что большинство групп по борьбе с финансовым мошенничеством, с которыми они общаются, смещают риск «на одну шкалу вправо», при этом все, что ранее относилось к категории низкого риска, теперь является средним риском, и они предпринимают дополнительные шаги для предотвращения мошенничества на всех этапах жизни клиента.цикл.

«Они серьезно относятся к угрозе мошенничества с использованием ИИ;это одна из главных проблем, с которыми сталкивается финансовая индустрия, и мы находимся лишь на начальных этапах того, насколько продвинутой станет эта технология».

Джейкоби подчеркнул, что мошенничество выросло на 20% по сравнению с прошлым годом, а развитие искусственного интеллекта значительно увеличило распространенность синтетических идентификационных данных.

«Мошенничество с использованием искусственного интеллекта сегодня является наиболее быстро растущим аспектом мошенничества с личными данными, и в этом году его стоимость составит более 100 миллиардов долларов».

Помимо традиционных финансовых учреждений, фальшивые идентификаторы, генерируемые искусственным интеллектом, также могут изменить меры KYC криптовалютной биржи и кибербезопасность в целом.

Проблема настолько велика, что регулирующие органы уже рассматривают ее.2 мая член Комиссии по торговле товарными фьючерсами США (CFTC) Кристин Джонсон выдвинула три предложения по регулированию технологий искусственного интеллекта применительно к финансовым рынкам США.

В частности, введение ужесточенных наказаний для тех, кто намеренно использует технологии искусственного интеллекта для мошенничества, манипулирования рынком или обхода правил.

Если финансовые учреждения и регулирующие органы не примут меры сейчас, они рискуют оказаться неспособными эффективно найти правильное решение.

Источник
Оцените автора
CryptoHamster.org
Добавить комментарий