Войти в почту

В январе мошенники провели в России 2 тыс. атак с использованием дипфейков

В RTM Group фиксируют рост активности мошенников, атакующих россиян с помощью дипфейков. В первый месяц 2024 года исследователи насчитали более 2 тыс. таких инцидентов.

Примерно в 70% случаев злоумышленники пытались с помощью голосовых дипфейков выманить деньги у граждан, выдавая себя за родственника, коллегу или знакомого. В атаках на сотрудников организаций использовались сгенерированные ИИ аудиосообщения руководителей, при этом обманщики требовали предоставить интересующую их информацию либо перевести крупную сумму на указанный счет.

Рост подобных злоупотреблений в RTM объясняют расширением доступа к ИИ-технологиям. В прошлом году в паблик были слиты алгоритмы для подмены голоса почти в реальном времени; также в интернете плодятся услуги по созданию дипфейков на основе образцов аудио- и видеозаписи.

Убедительные имитации известных личностей помогают мошенникам обирать доверчивых инвесторов, продвигая сомнительные проекты. В ВТБ также зафиксированы случаи подмены биометрии клиента (голоса) и кражи денег с помощью фейковой видеоконсультации банка.

«К сожалению, успешность была 100 из 100, — цитируют «Известия» выступление зампредправления ВТБ Вадима Кулика на Уральском форуме «Кибербезопасность в финансах». — К этому виду фрода мы пока не готовы, Здесь нужно будет создавать серию новых процессов и новых технологий».

В отсутствие специализированных решений на рынке банки пытаются защитить клиентов от дипфейк-атак посредством отслеживания аномалий (переводы больших сумм на незафиксированные ранее счета, оформление крупных кредитов). В таких случаях банк может приостановить операцию и уведомить клиента о рисках.