Categories: В России

ЦБ рассказал, как распознать дипфейк мошенников и не лишиться денег

Центральный банк России опубликовал рекомендации по выявлению аудио- и видеоматериалов, созданных с помощью нейросетей, чтобы помочь гражданам защититься от мошенников. Соответствующее разъяснение появилось в официальном Telegram-канале регулятора.

С развитием технологий искусственного интеллекта качество дипфейков постоянно улучшается, что создает благоприятные условия для злоумышленников, использующих их для хищения денежных средств. Возврат похищенного в таких случаях становится крайне затруднительным, предупреждают в ЦБ. Рядовым пользователям обнаружить подделку голосового или видеосообщения становится все сложнее, особенно если речь идет о пожилых людях или тех, кто впервые сталкивается с подобными технологиями.

«Тем не менее есть признаки, по которым можно определить дипфейк: Неестественная, роботизированная, монотонная речь без эмоций. Она может резко обрываться, нарушаться синхронизация между речью и движением губ. Неестественная мимика — редкое моргание, нетипичное движение губ или бровей, отсутствие проявления эмоций, а также дефекты звука и видео, посторонние шумы. Но чаще всего даже нет смысла гадать, дипфейк перед вами или нет», — указали в регуляторе.

Вместо попыток технической идентификации фальшивки Центробанк рекомендует придерживаться простого правила: если знакомый направил голосовое или видеосообщение с просьбой о денежных средствах или финансовой помощи — это повод насторожиться.

«Обязательно свяжитесь с человеком, от которого поступило такое сообщение, альтернативным способом и перепроверьте информацию. Наиболее безопасный способ для этого — просто позвонить ему. Если возможности позвонить у вас нет — задайте собеседнику «проверочный» личный вопрос, ответ на который знает только настоящий близкий», — добавили в Центробанке.

Регулятор акцентирует внимание на том, что даже при высоком качестве подделки голоса или видео злоумышленники не могут знать личные детали из жизни жертвы и ее близких. Поэтому вопросы о событиях, известных только узкому кругу людей, становятся эффективным методом верификации собеседника.

ЦБ призывает граждан проявлять повышенную бдительность при получении любых обращений финансового характера, даже если они внешне исходят от родственников, друзей или коллег. Мошенники активно используют возможности искусственного интеллекта для создания убедительных имитаций голоса и внешности реальных людей, что требует от потенциальных жертв дополнительных мер предосторожности.

Эксперты по кибербезопасности отмечают, что технологии генерации синтетических медиафайлов становятся все доступнее, а качество создаваемых материалов неуклонно растет. Это превращает дипфейки в один из наиболее опасных инструментов социальной инженерии в руках киберпреступников.

Источник: ТАСС

admin

Recent Posts

GIE зафиксировала снижение запасов газа в европейских ПХГ до 70%

Запасы газа в подземных хранилищах Европы опустились до 70%, однако темпы отбора в декабре резко…

2 дня ago

Закон о микрофинансовых организациях ограничил максимальную ставку

Государственная дума приняла закон, который устанавливает новые правила работы микрофинансовых организаций. Документ направлен на борьбу…

2 дня ago

США закупили рекордный объём российского мороженого за три года

Соединённые Штаты в сентябре закупили максимальный объём российского мороженого более чем за три года. Об…

3 дня ago

ЦБ разрешит квалифицированным инвесторам доступ к криптовалютным ПИФам

Центробанк выпустил проект указания, разрешающий паевым инвестиционным фондам для квалифицированных инвесторов работать с инструментами на…

4 дня ago

МВД предупредило о новой схеме мошенников с «Водоканалом»

Управление по борьбе с противоправным использованием информационно-коммуникационных технологий ГУ МВД России по Санкт-Петербургу и Ленинградской…

4 дня ago

Кипр открывает сеть визовых центров по всей России

С 15 декабря 2025 года по всей России начнёт работу сеть визовых центров для оформления…

5 дней ago