ЦБ рассказал, как распознать дипфейк мошенников и не лишиться денег
Центральный банк России опубликовал рекомендации по выявлению аудио- и видеоматериалов, созданных с помощью нейросетей, чтобы помочь гражданам защититься от мошенников. Соответствующее разъяснение появилось в официальном Telegram-канале регулятора.
С развитием технологий искусственного интеллекта качество дипфейков постоянно улучшается, что создает благоприятные условия для злоумышленников, использующих их для хищения денежных средств. Возврат похищенного в таких случаях становится крайне затруднительным, предупреждают в ЦБ. Рядовым пользователям обнаружить подделку голосового или видеосообщения становится все сложнее, особенно если речь идет о пожилых людях или тех, кто впервые сталкивается с подобными технологиями.
«Тем не менее есть признаки, по которым можно определить дипфейк: Неестественная, роботизированная, монотонная речь без эмоций. Она может резко обрываться, нарушаться синхронизация между речью и движением губ. Неестественная мимика — редкое моргание, нетипичное движение губ или бровей, отсутствие проявления эмоций, а также дефекты звука и видео, посторонние шумы. Но чаще всего даже нет смысла гадать, дипфейк перед вами или нет», — указали в регуляторе.
Вместо попыток технической идентификации фальшивки Центробанк рекомендует придерживаться простого правила: если знакомый направил голосовое или видеосообщение с просьбой о денежных средствах или финансовой помощи — это повод насторожиться.
«Обязательно свяжитесь с человеком, от которого поступило такое сообщение, альтернативным способом и перепроверьте информацию. Наиболее безопасный способ для этого — просто позвонить ему. Если возможности позвонить у вас нет — задайте собеседнику «проверочный» личный вопрос, ответ на который знает только настоящий близкий», — добавили в Центробанке.
Регулятор акцентирует внимание на том, что даже при высоком качестве подделки голоса или видео злоумышленники не могут знать личные детали из жизни жертвы и ее близких. Поэтому вопросы о событиях, известных только узкому кругу людей, становятся эффективным методом верификации собеседника.
ЦБ призывает граждан проявлять повышенную бдительность при получении любых обращений финансового характера, даже если они внешне исходят от родственников, друзей или коллег. Мошенники активно используют возможности искусственного интеллекта для создания убедительных имитаций голоса и внешности реальных людей, что требует от потенциальных жертв дополнительных мер предосторожности.
Эксперты по кибербезопасности отмечают, что технологии генерации синтетических медиафайлов становятся все доступнее, а качество создаваемых материалов неуклонно растет. Это превращает дипфейки в один из наиболее опасных инструментов социальной инженерии в руках киберпреступников.
Источник: ТАСС
Все материалы на сайте Баффетт.РУ носят исключительно информационный характер, не являются офертой и не могут быть восприняты как рекомендации или призыв к действию с нашей стороны. Финансовые рынки несут высокие риски и любые торговые операции должны быть тщательно обдуманы.
Похожие материалы:
- В пунктах выдачи СДЭК появилась услуга хранения вещей
- Air Arabia запустила еженедельные рейсы из Казани в Рас-эль-Хайму
- Краснодар ожидает 200 тысяч туристов на новогодние праздники
- Спрос россиян на поездки в ноябрьские праздники вырос на 30%
- Серый майнинг станет нерентабельным с 2027 года по данным экспертов
- МВД предупредило о мошенничестве через фейковые магазины перед черной пятницей
- Башкирия получит 60 млн рублей на развитие автотуристического маршрута
- Слуцкий предложил наказывать мошенников сроком до 10 лет за обман пожилых





