В мире финансов искусственный интеллект (ИИ) стал одновременно инструментом и генератором новых проблем. Оно приносит компаниям инновации, производительность и эффективность, однако оно также порождает сложные проблемы, к решению которых многие финансовые учреждения не готовы.
С появлением доступных инструментов искусственного интеллекта многие финансовые учреждения столкнулись с нехваткой инструментов для точного выявления и отделения мошенничества с использованием искусственного интеллекта от других типов мошенничества.
Эта неспособность различать различные типы мошенничества в их системах оставляет эти учреждения слепым пятном и затрудняет понимание масштабов и последствий мошенничества, основанного на искусственном интеллекте.
Коинтелеграф услышал от Ари Джейкоби, эксперта по мошенничеству с использованием искусственного интеллекта и генерального директора Deduce, чтобы лучше понять, как финансовые учреждения могут выявлять и отделять мошенничество с использованием искусственного интеллекта, что можно сделать, чтобы предотвратить мошенничество этого типа до того, как оно произойдет, и как его быстрый рост может повлиять нацелая индустрия.
Идентификация мошенничества с помощью ИИ
Учитывая, что основная проблема заключается в том, что большинство финансовых учреждений в настоящее время не имеют возможности отличить мошенничество, генерируемое ИИ, от всех других типов, оно объединено в одну категорию мошенничества.
Джейкоби сказал, что сочетание законной личной информации, такой как номера социального страхования, имена и даты рождения, с адресами электронной почты, созданными с помощью социальной инженерии, и законными номерами телефонов делает обнаружение устаревшими системами практически невозможным.
Джейкоби сказал, что это делает предотвращение и устранение основных причин мошенничества исключительно трудным, особенно по мере увеличения количества новых видов мошенничества.
«ИИ особенно трудно обнаружить из-за его способности создавать синтетические, реалистичные личности в масштабе, который делает практически невозможным идентификацию технологий».
По словам генерального директора Deduce, проблема с решениями заключается в том, что технологии быстро развиваются, а значит, растет и набор навыков тех, кто совершает мошенничество с использованием ИИ. Это означает, что финансовые учреждения сейчас должны быть на высоте, чтобы понять, где ИИ вступает в игру в таких случаях мошенничества.
Поиск решений
По словам Джейкоби, первым шагом во внедрении решения является анализ моделей онлайн-активности отдельных лиц и групп личностей, чтобы выявить мошеннические действия, которые могут показаться законными, но на самом деле являются мошенничеством.
Он сказал, что устаревших методов предотвращения мошенничества уже просто недостаточно, и финансовым учреждениям придется стать «неустанно активными» в своем стремлении предотвратить продолжающийся взрыв мошенничества, генерируемого ИИ.
Скорее всего, это не будет означать внедрение только одного решения — это будет означать создание многоуровневой программы, которая будет выявлять существующих мошенников, задерживающихся в существующей клиентской базе, а также предотвращать появление новых фальшивых личностей до их проникновения.
«Благодаря многоуровневому решению, использованию огромных наборов данных для выявления закономерностей и более точному анализу показателей доверия этот тип мошенничества можно лучше смягчить».
Джейкоби сказал, что большинство групп по борьбе с финансовым мошенничеством, с которыми они общаются, смещают риск «на одну шкалу вправо», при этом все, что ранее относилось к категории низкого риска, теперь является средним риском, и они предпринимают дополнительные шаги для предотвращения мошенничества на всех этапах жизни клиента.цикл.
«Они серьезно относятся к угрозе мошенничества с использованием ИИ;это одна из главных проблем, с которыми сталкивается финансовая индустрия, и мы находимся лишь на начальных этапах того, насколько продвинутой станет эта технология».
Джейкоби подчеркнул, что мошенничество выросло на 20% по сравнению с прошлым годом, а развитие искусственного интеллекта значительно увеличило распространенность синтетических идентификационных данных.
«Мошенничество с использованием искусственного интеллекта сегодня является наиболее быстро растущим аспектом мошенничества с личными данными, и в этом году его стоимость составит более 100 миллиардов долларов».
Помимо традиционных финансовых учреждений, фальшивые идентификаторы, генерируемые искусственным интеллектом, также могут изменить меры KYC криптовалютной биржи и кибербезопасность в целом.
Проблема настолько велика, что регулирующие органы уже рассматривают ее.2 мая член Комиссии по торговле товарными фьючерсами США (CFTC) Кристин Джонсон выдвинула три предложения по регулированию технологий искусственного интеллекта применительно к финансовым рынкам США.
В частности, введение ужесточенных наказаний для тех, кто намеренно использует технологии искусственного интеллекта для мошенничества, манипулирования рынком или обхода правил.
Если финансовые учреждения и регулирующие органы не примут меры сейчас, они рискуют оказаться неспособными эффективно найти правильное решение.