Categories: В России

Роскачество предупредило о мошенничестве с использованием цифровых копий умерших

Специалисты Центра цифровой экспертизы Роскачества зафиксировали применение злоумышленниками нейросетевых технологий для создания интерактивных цифровых копий умерших людей в мошеннических целях. О данной киберугрозе представители организации сообщили информационному агентству ТАСС.

Технология цифрового воссоздания личности базируется на нейросетевых алгоритмах, позволяющих генерировать интерактивные цифровые двойники покойных людей. Изначально подобные разработки предназначались для терапевтического применения, чтобы помочь людям справиться с тяжелой утратой через символическое взаимодействие с цифровой проекцией ушедшего человека.

«Изначально подобные разработки создавались в терапевтических целях, чтобы помочь людям в преодолении тяжелой утраты через символическое «общение» с цифровой проекцией умершего. Однако, как это часто происходит с перспективными технологиями, механизм быстро привлек внимание мошенников», — сообщили в Центре цифровой экспертизы Роскачества.

Эксперты отмечают, что преступники используют технологию для психологического воздействия на уязвимых граждан, переживающих потерю близких. Заинтересованные коммерческие структуры или киберпреступные группы могут применять данные симуляторы для скрытой рекламной деятельности или манипулирования пользователями, убеждая их, что цифровой бот представляет собой настоящего умершего родственника.

Цифровые копии могут быть использованы для убеждения родственников в необходимости предоставления финансовой помощи, рекомендаций по приобретению определенных товаров или услуг, что создает новый вид психологического мошенничества.

Особую опасность представляет способность нейроботов, обученных на реальных данных человека, проходить биометрическую верификацию в различных системах. Такие цифровые копии могут подтверждать голосом или онлайн-присутствием согласие на получение микрозаймов и даже подписывать электронные документы от имени умершего лица.

Специалисты подчеркивают, что кибератаки с применением дипфейк-видео приобретают массовый характер. Уже второй год подряд в Российской Федерации регистрируются случаи мошенничества, в ходе которых злоумышленники с помощью нейросетей похищают денежные средства, представляясь покойными людьми.

Аккаунты умерших граждан в социальных сетях и мессенджерах также становятся инструментом для фишинговых рассылок. Сообщения от профиля с историей активности и переписок не вызывают подозрений у потенциальных жертв, что значительно повышает эффективность мошеннических схем.

Кроме того, создание ботнетов из цифровых копий покойных людей предоставляет злоумышленникам возможность проведения масштабных DDoS-атак или организации массового распространения нежелательного контента в сети.

Заместитель руководителя Центра цифровой экспертизы Роскачества Георгий Тарачев отметил критическое отличие данного вида мошенничества от традиционных схем с дипфейками.

«Когда мошенники используют дипфейк живого человека, у жертвы всегда есть возможность проверить подлинность сообщения, например, связавшись альтернативным способом. Однако с цифровой копией умершего такая проверка невозможна в принципе. Это создает идеальные условия для преступников, ведь цифровой образ можно бесконтрольно использовать в мошеннических схемах, играя на эмоциях и доверии людей», — заявил Тарачев.

Отсутствие возможности верификации подлинности взаимодействия с цифровой копией умершего человека делает данный вид мошенничества особенно опасным. Преступники эксплуатируют эмоциональную уязвимость людей, находящихся в состоянии горя, что усиливает эффективность манипуляций.

Эксперты Роскачества призывают граждан проявлять повышенную бдительность при получении любых сообщений, якобы исходящих от умерших родственников или знакомых. Рекомендуется относиться с критическим недоверием к подобным контактам, особенно если они содержат просьбы финансового характера или побуждают к каким-либо действиям.

Специалисты также подчеркивают необходимость информирования родственников и близких о существовании подобных мошеннических технологий, чтобы предотвратить их эмоциональную эксплуатацию в уязвимый период переживания утраты.

Появление данного вида киберугрозы демонстрирует растущую изощренность мошеннических схем и необходимость постоянного совершенствования методов защиты от злонамеренного использования передовых технологий искусственного интеллекта.

Источник: ТАСС

admin

Recent Posts

Европейские компании потеряли €300-400 млрд из-за ухода из России

Четыре года санкционной политики Евросоюза против России привели к масштабной перестройке европейской экономики, сообщает ТАСС…

1 день ago

Импорт российских сладостей в США достиг четырехлетнего максимума

Американский рынок показал рост спроса на кондитерские изделия из России, следует из анализа статистики внешней…

2 дня ago

Россия и Турция договорились расширить энергетическое партнерство

Вице-премьер России Александр Новак провел переговоры с турецким министром энергетики Альпарсланом Байрактаром в Стамбуле. Стороны…

2 дня ago

Франция установила рекорд по импорту российского титана за 33 года

Несколько государств Европейского союза значительно увеличили объемы импорта титана из России по итогам прошлого года,…

2 дня ago

РЖД запускает новый туристический маршрут из Петербурга по Золотому кольцу

Федеральная пассажирская компания вводит дополнительное направление для путешественников между двумя столицами и городами центральной России.…

2 дня ago

Китай нарастил импорт российской нефти на фоне сокращения индийских закупок

Нефтеперерабатывающие предприятия КНР существенно увеличили объемы приобретения российского сырья в феврале, компенсировав падение спроса со…

3 дня ago