Центральный банк России опубликовал рекомендации по выявлению аудио- и видеоматериалов, созданных с помощью нейросетей, чтобы помочь гражданам защититься от мошенников. Соответствующее разъяснение появилось в официальном Telegram-канале регулятора.
С развитием технологий искусственного интеллекта качество дипфейков постоянно улучшается, что создает благоприятные условия для злоумышленников, использующих их для хищения денежных средств. Возврат похищенного в таких случаях становится крайне затруднительным, предупреждают в ЦБ. Рядовым пользователям обнаружить подделку голосового или видеосообщения становится все сложнее, особенно если речь идет о пожилых людях или тех, кто впервые сталкивается с подобными технологиями.
«Тем не менее есть признаки, по которым можно определить дипфейк: Неестественная, роботизированная, монотонная речь без эмоций. Она может резко обрываться, нарушаться синхронизация между речью и движением губ. Неестественная мимика — редкое моргание, нетипичное движение губ или бровей, отсутствие проявления эмоций, а также дефекты звука и видео, посторонние шумы. Но чаще всего даже нет смысла гадать, дипфейк перед вами или нет», — указали в регуляторе.
Вместо попыток технической идентификации фальшивки Центробанк рекомендует придерживаться простого правила: если знакомый направил голосовое или видеосообщение с просьбой о денежных средствах или финансовой помощи — это повод насторожиться.
«Обязательно свяжитесь с человеком, от которого поступило такое сообщение, альтернативным способом и перепроверьте информацию. Наиболее безопасный способ для этого — просто позвонить ему. Если возможности позвонить у вас нет — задайте собеседнику «проверочный» личный вопрос, ответ на который знает только настоящий близкий», — добавили в Центробанке.
Регулятор акцентирует внимание на том, что даже при высоком качестве подделки голоса или видео злоумышленники не могут знать личные детали из жизни жертвы и ее близких. Поэтому вопросы о событиях, известных только узкому кругу людей, становятся эффективным методом верификации собеседника.
ЦБ призывает граждан проявлять повышенную бдительность при получении любых обращений финансового характера, даже если они внешне исходят от родственников, друзей или коллег. Мошенники активно используют возможности искусственного интеллекта для создания убедительных имитаций голоса и внешности реальных людей, что требует от потенциальных жертв дополнительных мер предосторожности.
Эксперты по кибербезопасности отмечают, что технологии генерации синтетических медиафайлов становятся все доступнее, а качество создаваемых материалов неуклонно растет. Это превращает дипфейки в один из наиболее опасных инструментов социальной инженерии в руках киберпреступников.
Источник: ТАСС
Страны должны продолжать социально-экономические преобразования, несмотря на растущую глобальную нестабильность и ближневосточный кризис. Об этом…
Розничная торговля Германии переживает масштабное сокращение. Впервые с момента объединения страны число стационарных магазинов упадет…
Министерство экономического развития планирует реформировать систему финансовых гарантий для выездного туризма. Новый механизм должен защитить…
В России с 1 апреля вступают в силу новые правила для пенсионеров, заемщиков и плательщиков…
Глава МИД России Сергей Лавров обвинил Соединенные Штаты в попытках полностью вытеснить РФ с мировых…
Международное энергетическое агентство выпустило список из десяти способов, как снизить потребление топлива на фоне скачка…