В мире финансов искусственный интеллект (ИИ) стал одновременно инструментом и генератором новых проблем. Оно приносит компаниям инновации, производительность и эффективность, однако оно также порождает сложные проблемы, к решению которых многие финансовые учреждения не готовы.
С появлением доступных инструментов искусственного интеллекта многие финансовые учреждения столкнулись с нехваткой инструментов для точного выявления и отделения мошенничества с использованием искусственного интеллекта от других типов мошенничества.
Эта неспособность различать различные типы мошенничества в их системах оставляет эти учреждения слепым пятном и затрудняет понимание масштабов и последствий мошенничества, основанного на искусственном интеллекте.
Коинтелеграф услышал от Ари Джейкоби, эксперта по мошенничеству с использованием искусственного интеллекта и генерального директора Deduce, чтобы лучше понять, как финансовые учреждения могут выявлять и отделять мошенничество с использованием искусственного интеллекта, что можно сделать, чтобы предотвратить мошенничество этого типа до того, как оно произойдет, и как его быстрый рост может повлиять нацелая индустрия.
Учитывая, что основная проблема заключается в том, что большинство финансовых учреждений в настоящее время не имеют возможности отличить мошенничество, генерируемое ИИ, от всех других типов, оно объединено в одну категорию мошенничества.
Джейкоби сказал, что сочетание законной личной информации, такой как номера социального страхования, имена и даты рождения, с адресами электронной почты, созданными с помощью социальной инженерии, и законными номерами телефонов делает обнаружение устаревшими системами практически невозможным.
Джейкоби сказал, что это делает предотвращение и устранение основных причин мошенничества исключительно трудным, особенно по мере увеличения количества новых видов мошенничества.
«ИИ особенно трудно обнаружить из-за его способности создавать синтетические, реалистичные личности в масштабе, который делает практически невозможным идентификацию технологий».
По словам генерального директора Deduce, проблема с решениями заключается в том, что технологии быстро развиваются, а значит, растет и набор навыков тех, кто совершает мошенничество с использованием ИИ. Это означает, что финансовые учреждения сейчас должны быть на высоте, чтобы понять, где ИИ вступает в игру в таких случаях мошенничества.
По словам Джейкоби, первым шагом во внедрении решения является анализ моделей онлайн-активности отдельных лиц и групп личностей, чтобы выявить мошеннические действия, которые могут показаться законными, но на самом деле являются мошенничеством.
Он сказал, что устаревших методов предотвращения мошенничества уже просто недостаточно, и финансовым учреждениям придется стать «неустанно активными» в своем стремлении предотвратить продолжающийся взрыв мошенничества, генерируемого ИИ.
Скорее всего, это не будет означать внедрение только одного решения — это будет означать создание многоуровневой программы, которая будет выявлять существующих мошенников, задерживающихся в существующей клиентской базе, а также предотвращать появление новых фальшивых личностей до их проникновения.
«Благодаря многоуровневому решению, использованию огромных наборов данных для выявления закономерностей и более точному анализу показателей доверия этот тип мошенничества можно лучше смягчить».
Джейкоби сказал, что большинство групп по борьбе с финансовым мошенничеством, с которыми они общаются, смещают риск «на одну шкалу вправо», при этом все, что ранее относилось к категории низкого риска, теперь является средним риском, и они предпринимают дополнительные шаги для предотвращения мошенничества на всех этапах жизни клиента.цикл.
«Они серьезно относятся к угрозе мошенничества с использованием ИИ;это одна из главных проблем, с которыми сталкивается финансовая индустрия, и мы находимся лишь на начальных этапах того, насколько продвинутой станет эта технология».
Джейкоби подчеркнул, что мошенничество выросло на 20% по сравнению с прошлым годом, а развитие искусственного интеллекта значительно увеличило распространенность синтетических идентификационных данных.
«Мошенничество с использованием искусственного интеллекта сегодня является наиболее быстро растущим аспектом мошенничества с личными данными, и в этом году его стоимость составит более 100 миллиардов долларов».
Помимо традиционных финансовых учреждений, фальшивые идентификаторы, генерируемые искусственным интеллектом, также могут изменить меры KYC криптовалютной биржи и кибербезопасность в целом.
Проблема настолько велика, что регулирующие органы уже рассматривают ее.2 мая член Комиссии по торговле товарными фьючерсами США (CFTC) Кристин Джонсон выдвинула три предложения по регулированию технологий искусственного интеллекта применительно к финансовым рынкам США.
В частности, введение ужесточенных наказаний для тех, кто намеренно использует технологии искусственного интеллекта для мошенничества, манипулирования рынком или обхода правил.
Если финансовые учреждения и регулирующие органы не примут меры сейчас, они рискуют оказаться неспособными эффективно найти правильное решение.
Криптовалютный аналитик, который точно спрогнозировал рост цены Биткоина до исторического максимума в $99 000 (ATH),…
Цена Биткоина (BTC) может достичь $180 000 к концу 2025 года, считает Георгий Вербицкий, основатель…
Кардано (ADA) продемонстрировал один из лучших показателей за последние три недели, поднявшись более чем на…
Спотовые биржевые фонды Биткоин (ETF) пережили четвертую лучшую неделю по инвестициям, в то время как…
Цена Dogecoin недавно продемонстрировала на графике классический бычий флаг — технический индикатор, часто сигнализирующий о…
В ближайшие недели цена эфира может увидеть неизбежную коррекцию, прежде чем возобновит устойчивое ралли до…