Categories: В России

ЦБ рассказал, как распознать дипфейк мошенников и не лишиться денег

Центральный банк России опубликовал рекомендации по выявлению аудио- и видеоматериалов, созданных с помощью нейросетей, чтобы помочь гражданам защититься от мошенников. Соответствующее разъяснение появилось в официальном Telegram-канале регулятора.

С развитием технологий искусственного интеллекта качество дипфейков постоянно улучшается, что создает благоприятные условия для злоумышленников, использующих их для хищения денежных средств. Возврат похищенного в таких случаях становится крайне затруднительным, предупреждают в ЦБ. Рядовым пользователям обнаружить подделку голосового или видеосообщения становится все сложнее, особенно если речь идет о пожилых людях или тех, кто впервые сталкивается с подобными технологиями.

«Тем не менее есть признаки, по которым можно определить дипфейк: Неестественная, роботизированная, монотонная речь без эмоций. Она может резко обрываться, нарушаться синхронизация между речью и движением губ. Неестественная мимика — редкое моргание, нетипичное движение губ или бровей, отсутствие проявления эмоций, а также дефекты звука и видео, посторонние шумы. Но чаще всего даже нет смысла гадать, дипфейк перед вами или нет», — указали в регуляторе.

Вместо попыток технической идентификации фальшивки Центробанк рекомендует придерживаться простого правила: если знакомый направил голосовое или видеосообщение с просьбой о денежных средствах или финансовой помощи — это повод насторожиться.

«Обязательно свяжитесь с человеком, от которого поступило такое сообщение, альтернативным способом и перепроверьте информацию. Наиболее безопасный способ для этого — просто позвонить ему. Если возможности позвонить у вас нет — задайте собеседнику «проверочный» личный вопрос, ответ на который знает только настоящий близкий», — добавили в Центробанке.

Регулятор акцентирует внимание на том, что даже при высоком качестве подделки голоса или видео злоумышленники не могут знать личные детали из жизни жертвы и ее близких. Поэтому вопросы о событиях, известных только узкому кругу людей, становятся эффективным методом верификации собеседника.

ЦБ призывает граждан проявлять повышенную бдительность при получении любых обращений финансового характера, даже если они внешне исходят от родственников, друзей или коллег. Мошенники активно используют возможности искусственного интеллекта для создания убедительных имитаций голоса и внешности реальных людей, что требует от потенциальных жертв дополнительных мер предосторожности.

Эксперты по кибербезопасности отмечают, что технологии генерации синтетических медиафайлов становятся все доступнее, а качество создаваемых материалов неуклонно растет. Это превращает дипфейки в один из наиболее опасных инструментов социальной инженерии в руках киберпреступников.

Источник: ТАСС

admin

Recent Posts

Иностранные инвестиции в ЕС упали до минимума за девять лет

Приток иностранных инвестиций в экономику Европейского союза достиг крайне низкого уровня за последние девять лет,…

4 часа ago

Закрытие границы с РФ нанесло удар по экономике Финляндии

Закрытие границы с Россией оказало разрушительное воздействие на экономику приграничных регионов Финляндии, в частности на…

4 часа ago

В пунктах выдачи СДЭК появилась услуга хранения вещей

Оператор экспресс-доставки СДЭК совместно с сервисом хранения вещей КИПЛ запустили услугу временного хранения багажа в…

5 часов ago

Air Arabia запустила еженедельные рейсы из Казани в Рас-эль-Хайму

Авиакомпания Air Arabia открыла регулярное воздушное сообщение между Казанью и эмиратом Рас-эль-Хайма в Объединенных Арабских…

5 часов ago

Американский майнер Riot Platforms сообщила о росте издержек на добычу биткоина

Американская майнинговая компания Riot Platforms сообщила, что средняя себестоимость добычи одного биткоина в третьем квартале…

1 день ago

Россия с Китаем прорабатывают инвестпроекты на 18 трлн рублей

Российско-китайский комитет предпринимателей и межправительственная комиссия по инвестиционному сотрудничеству в настоящее время прорабатывают 86 проектов…

1 день ago