Categories: В России

ЦБ рассказал, как распознать дипфейк мошенников и не лишиться денег

Центральный банк России опубликовал рекомендации по выявлению аудио- и видеоматериалов, созданных с помощью нейросетей, чтобы помочь гражданам защититься от мошенников. Соответствующее разъяснение появилось в официальном Telegram-канале регулятора.

С развитием технологий искусственного интеллекта качество дипфейков постоянно улучшается, что создает благоприятные условия для злоумышленников, использующих их для хищения денежных средств. Возврат похищенного в таких случаях становится крайне затруднительным, предупреждают в ЦБ. Рядовым пользователям обнаружить подделку голосового или видеосообщения становится все сложнее, особенно если речь идет о пожилых людях или тех, кто впервые сталкивается с подобными технологиями.

«Тем не менее есть признаки, по которым можно определить дипфейк: Неестественная, роботизированная, монотонная речь без эмоций. Она может резко обрываться, нарушаться синхронизация между речью и движением губ. Неестественная мимика — редкое моргание, нетипичное движение губ или бровей, отсутствие проявления эмоций, а также дефекты звука и видео, посторонние шумы. Но чаще всего даже нет смысла гадать, дипфейк перед вами или нет», — указали в регуляторе.

Вместо попыток технической идентификации фальшивки Центробанк рекомендует придерживаться простого правила: если знакомый направил голосовое или видеосообщение с просьбой о денежных средствах или финансовой помощи — это повод насторожиться.

«Обязательно свяжитесь с человеком, от которого поступило такое сообщение, альтернативным способом и перепроверьте информацию. Наиболее безопасный способ для этого — просто позвонить ему. Если возможности позвонить у вас нет — задайте собеседнику «проверочный» личный вопрос, ответ на который знает только настоящий близкий», — добавили в Центробанке.

Регулятор акцентирует внимание на том, что даже при высоком качестве подделки голоса или видео злоумышленники не могут знать личные детали из жизни жертвы и ее близких. Поэтому вопросы о событиях, известных только узкому кругу людей, становятся эффективным методом верификации собеседника.

ЦБ призывает граждан проявлять повышенную бдительность при получении любых обращений финансового характера, даже если они внешне исходят от родственников, друзей или коллег. Мошенники активно используют возможности искусственного интеллекта для создания убедительных имитаций голоса и внешности реальных людей, что требует от потенциальных жертв дополнительных мер предосторожности.

Эксперты по кибербезопасности отмечают, что технологии генерации синтетических медиафайлов становятся все доступнее, а качество создаваемых материалов неуклонно растет. Это превращает дипфейки в один из наиболее опасных инструментов социальной инженерии в руках киберпреступников.

Источник: ТАСС

admin

Recent Posts

Зарубежные авиакомпании увеличили присутствие на российском рынке до 47%

Иностранные авиаперевозчики существенно усилили позиции на российских международных маршрутах в 2025 году. Их доля выросла…

23 часа ago

Авито второй год возглавляет рейтинг площадок для старта онлайн-торговли

Классифайд-платформа Авито сохранила лидерство среди интернет-площадок, наиболее удобных для запуска торгового бизнеса в России. Такие…

23 часа ago

Нехватка электромощностей угрожает развитию ИИ-инфраструктуры в России

Нехватка электрических мощностей и затянутые процедуры подключения к сетям становятся главными препятствиями для расширения инфраструктуры…

23 часа ago

Минюст защитит должников от ареста имущества за мелкие долги

Министерство юстиции разместило для публичного обсуждения законопроект, меняющий правила обращения взыскания на имущество граждан. Документ…

2 дня ago

Китай поднялся на седьмое место в рейтинге направлений у россиян

Отмена визовых требований для поездок в Китай привела к значительному росту интереса российских туристов к…

2 дня ago

Благосостояние Франции упало ниже среднего по Евросоюзу

По данным Евростата, уровень благосостояния на душу населения во Франции третий год подряд оказывается ниже…

2 дня ago