Социальная сеть «Одноклассники» начала временно ограничивать пользователей, оставляющих оскорбительные комментарии под постами, фотографиями и видео. Как сообщает пресс-служба компании, внедрение модели машинного обучения позволило сократить долю и количество негативных высказываний на платформе на 47%.
Новая ML-модель автоматически выявляет токсичные комментарии и ограничивает их авторов в написании новых на период от одного часа до 24 часов, в зависимости от частоты публикации недружелюбных или провоцирующих негативную дискуссию высказываний.
По данным исследования «Одноклассников», негативные посты вызывают злость у более чем 40% опрошенных пользователей. Для обучения модели было использовано 400 тысяч комментариев, которые можно охарактеризовать как токсичные и нежелательные с точки зрения аудитории соцсети.
Внедрение новой технологии позволило в три раза сократить время обработки жалоб на негативные публикации и быстрее помогать пользователям с решением их проблем. Как отметил директор по продукту «Одноклассников» Александр Москвичев, треть всех жалоб на платформе связаны с токсичными комментариями, а 80% обращений в службу поддержки по этому поводу нацелены против «токсичности».
«Мы обучали эту модель больше года и продолжим совершенствовать её в дальнейшем. Вместе с другими продуктовыми решениями, которые мы внедрили за последние два года, ограничение токсичных комментаторов позволит соцсети не только быстрее вернуть на платформу редко посещающих ОК пользователей, но и привлечь новых», – подчеркнул Москвичев.
Ранее в этом году «Одноклассники» начали автоматически обнаруживать и скрывать нецензурные слова, а также размывать изображения эротического характера. Соцсеть использует модерацию на базе машинного обучения для ограничения другого нежелательного контента, в том числе блокирует материалы категории 18+, размывает и удаляет фотографии со сценами насилия.
В прошлом году «Одноклассники» также запустили ML-модель, ограничивающую навязчивые знакомства и общение с нежелательными собеседниками на площадке.
Эксперты отмечают, что проблема токсичности в социальных сетях стоит достаточно остро. Негативные комментарии и дискуссии не только ухудшают пользовательский опыт, но и могут наносить психологический вред, особенно подросткам и эмоционально уязвимым людям.
Внедрение автоматизированных систем модерации на основе искусственного интеллекта позволяет социальным платформам более эффективно бороться с разного рода токсичным контентом. Однако эксперты подчеркивают, что такие системы должны быть максимально точными и не допускать ошибочных блокировок и ограничений.
Кроме того, специалисты указывают на важность комплексного подхода к проблеме, который включает не только технологические решения, но и просветительскую работу, направленную на формирование культуры уважительного общения в интернете.
Инициатива «Одноклассников» по ограничению токсичных комментариев является частью общего тренда на повышение безопасности и комфорта пользователей социальных сетей. Ожидается, что в будущем все больше платформ будут внедрять подобные системы на базе ИИ для борьбы с негативом и агрессией онлайн.
Специалист по кибербезопасности компании F6 Сергей Золотухин рассказал «Ленте.ру» о мошеннических схемах, которые активизируются в…
Компания Cloud.ru стала победителем престижной премии CX WORLD AWARDS в категории клиентского опыта. Награду принес…
Глава казахстанского МИД Ермек Кошербаев провел переговоры в расширенном составе с российским коллегой Сергеем Лавровым,…
Россия по итогам 2025 года заняла пятое место среди мировых экспортёров картофельных чипсов. Такие данные…
Фракция "Справедливая Россия" под руководством Сергея Миронова подготовила законопроект об уменьшении ставки налога на добавленную…
Жителей Санкт-Петербурга предупредили о новой мошеннической схеме: злоумышленники рассылают SMS с требованием оплатить штраф за…