Специалисты Центра цифровой экспертизы Роскачества зафиксировали применение злоумышленниками нейросетевых технологий для создания интерактивных цифровых копий умерших людей в мошеннических целях. О данной киберугрозе представители организации сообщили информационному агентству ТАСС.
Технология цифрового воссоздания личности базируется на нейросетевых алгоритмах, позволяющих генерировать интерактивные цифровые двойники покойных людей. Изначально подобные разработки предназначались для терапевтического применения, чтобы помочь людям справиться с тяжелой утратой через символическое взаимодействие с цифровой проекцией ушедшего человека.
«Изначально подобные разработки создавались в терапевтических целях, чтобы помочь людям в преодолении тяжелой утраты через символическое «общение» с цифровой проекцией умершего. Однако, как это часто происходит с перспективными технологиями, механизм быстро привлек внимание мошенников», — сообщили в Центре цифровой экспертизы Роскачества.
Эксперты отмечают, что преступники используют технологию для психологического воздействия на уязвимых граждан, переживающих потерю близких. Заинтересованные коммерческие структуры или киберпреступные группы могут применять данные симуляторы для скрытой рекламной деятельности или манипулирования пользователями, убеждая их, что цифровой бот представляет собой настоящего умершего родственника.
Цифровые копии могут быть использованы для убеждения родственников в необходимости предоставления финансовой помощи, рекомендаций по приобретению определенных товаров или услуг, что создает новый вид психологического мошенничества.
Особую опасность представляет способность нейроботов, обученных на реальных данных человека, проходить биометрическую верификацию в различных системах. Такие цифровые копии могут подтверждать голосом или онлайн-присутствием согласие на получение микрозаймов и даже подписывать электронные документы от имени умершего лица.
Специалисты подчеркивают, что кибератаки с применением дипфейк-видео приобретают массовый характер. Уже второй год подряд в Российской Федерации регистрируются случаи мошенничества, в ходе которых злоумышленники с помощью нейросетей похищают денежные средства, представляясь покойными людьми.
Аккаунты умерших граждан в социальных сетях и мессенджерах также становятся инструментом для фишинговых рассылок. Сообщения от профиля с историей активности и переписок не вызывают подозрений у потенциальных жертв, что значительно повышает эффективность мошеннических схем.
Кроме того, создание ботнетов из цифровых копий покойных людей предоставляет злоумышленникам возможность проведения масштабных DDoS-атак или организации массового распространения нежелательного контента в сети.
Заместитель руководителя Центра цифровой экспертизы Роскачества Георгий Тарачев отметил критическое отличие данного вида мошенничества от традиционных схем с дипфейками.
«Когда мошенники используют дипфейк живого человека, у жертвы всегда есть возможность проверить подлинность сообщения, например, связавшись альтернативным способом. Однако с цифровой копией умершего такая проверка невозможна в принципе. Это создает идеальные условия для преступников, ведь цифровой образ можно бесконтрольно использовать в мошеннических схемах, играя на эмоциях и доверии людей», — заявил Тарачев.
Отсутствие возможности верификации подлинности взаимодействия с цифровой копией умершего человека делает данный вид мошенничества особенно опасным. Преступники эксплуатируют эмоциональную уязвимость людей, находящихся в состоянии горя, что усиливает эффективность манипуляций.
Эксперты Роскачества призывают граждан проявлять повышенную бдительность при получении любых сообщений, якобы исходящих от умерших родственников или знакомых. Рекомендуется относиться с критическим недоверием к подобным контактам, особенно если они содержат просьбы финансового характера или побуждают к каким-либо действиям.
Специалисты также подчеркивают необходимость информирования родственников и близких о существовании подобных мошеннических технологий, чтобы предотвратить их эмоциональную эксплуатацию в уязвимый период переживания утраты.
Появление данного вида киберугрозы демонстрирует растущую изощренность мошеннических схем и необходимость постоянного совершенствования методов защиты от злонамеренного использования передовых технологий искусственного интеллекта.
Источник: ТАСС
Компания «Роснефть» совместно с управлением Алтайского края по развитию туризма и курортной деятельности представили новый…
Более 4 миллионов экскурсантов и свыше 367 тысяч туристов посетили Севастополь за восемь месяцев 2025…
Туристический поток в Республику Крым с начала 2025 года превысил 6 миллионов человек. Об этом…
Глава американской технологической корпорации OpenAI Сэм Альтман предупредил о трех возможных сценариях, по которым искусственный…
Финско-шведский лесопромышленный концерн Stora Enso объявил о предстоящих переговорах по сокращению персонала на деревообрабатывающих производствах…
Среди крупных мировых экономик Россия заняла второе место по низкой стоимости домашнего интернета. К такому…