Жителям Ямала рассказали, как аферисты подделывают голоса, чтобы выманить деньги

Ямальцев предупредили о новой уловке мошенников. Аферисты научились подделывать голоса людей, чтобы впоследствии обманывать их близких. Для этого мошенники используют нейросети на основе искусственного интеллекта, предупредили в Роскачестве. — Благодаря имеющимся технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота, — рассказал эксперт направления информационной безопасности Центра цифровой экспертизы Роскачества Сергей Кузьменко «Прайму». Голосом якобы близкого человека аферисты могут попросить денег в долг. Или голосом начальника дать распоряжение передать деньги из кассы «доверенному лицу». Вариантов может быть множество, предупреждает эксперт. Специалисты рекомендуют прекращать сомнительные разговоры. Следует положить трубку и самостоятельно перезвонить якобы звонившему человеку. Редакция «Ямал 1» обратилась в полицию округа, чтобы уточнить, есть ли в регионе жертвы такой схемы обмана. Предварительно, обманутых с помощью поддельного голоса в округе пока нет. Всего в 2023 году ущерб от IT-мошенничеств на Ямале составил более 660 миллионов рублей. Один из инцидентов произошел в преддверии Нового года в Салехарде. Пенсионерка отдала более 13 миллионов рублей..

Жителям Ямала рассказали, как аферисты подделывают голоса, чтобы выманить деньги
© N24.ru