Социальная сеть «Одноклассники» начала временно ограничивать пользователей, оставляющих оскорбительные комментарии под постами, фотографиями и видео. Как сообщает пресс-служба компании, внедрение модели машинного обучения позволило сократить долю и количество негативных высказываний на платформе на 47%.
Новая ML-модель автоматически выявляет токсичные комментарии и ограничивает их авторов в написании новых на период от одного часа до 24 часов, в зависимости от частоты публикации недружелюбных или провоцирующих негативную дискуссию высказываний.
По данным исследования «Одноклассников», негативные посты вызывают злость у более чем 40% опрошенных пользователей. Для обучения модели было использовано 400 тысяч комментариев, которые можно охарактеризовать как токсичные и нежелательные с точки зрения аудитории соцсети.
Внедрение новой технологии позволило в три раза сократить время обработки жалоб на негативные публикации и быстрее помогать пользователям с решением их проблем. Как отметил директор по продукту «Одноклассников» Александр Москвичев, треть всех жалоб на платформе связаны с токсичными комментариями, а 80% обращений в службу поддержки по этому поводу нацелены против «токсичности».
«Мы обучали эту модель больше года и продолжим совершенствовать её в дальнейшем. Вместе с другими продуктовыми решениями, которые мы внедрили за последние два года, ограничение токсичных комментаторов позволит соцсети не только быстрее вернуть на платформу редко посещающих ОК пользователей, но и привлечь новых», – подчеркнул Москвичев.
Ранее в этом году «Одноклассники» начали автоматически обнаруживать и скрывать нецензурные слова, а также размывать изображения эротического характера. Соцсеть использует модерацию на базе машинного обучения для ограничения другого нежелательного контента, в том числе блокирует материалы категории 18+, размывает и удаляет фотографии со сценами насилия.
В прошлом году «Одноклассники» также запустили ML-модель, ограничивающую навязчивые знакомства и общение с нежелательными собеседниками на площадке.
Эксперты отмечают, что проблема токсичности в социальных сетях стоит достаточно остро. Негативные комментарии и дискуссии не только ухудшают пользовательский опыт, но и могут наносить психологический вред, особенно подросткам и эмоционально уязвимым людям.
Внедрение автоматизированных систем модерации на основе искусственного интеллекта позволяет социальным платформам более эффективно бороться с разного рода токсичным контентом. Однако эксперты подчеркивают, что такие системы должны быть максимально точными и не допускать ошибочных блокировок и ограничений.
Кроме того, специалисты указывают на важность комплексного подхода к проблеме, который включает не только технологические решения, но и просветительскую работу, направленную на формирование культуры уважительного общения в интернете.
Инициатива «Одноклассников» по ограничению токсичных комментариев является частью общего тренда на повышение безопасности и комфорта пользователей социальных сетей. Ожидается, что в будущем все больше платформ будут внедрять подобные системы на базе ИИ для борьбы с негативом и агрессией онлайн.
Шведская компания IKEA может возобновить свою деятельность на российском рынке во втором квартале 2026 года…
Злоумышленники продолжают активно использовать электронную почту для распространения вредоносных программ и проведения фишинговых атак. О…
Компания "АвтоВАЗ" назвала стартовую цену на новую модель Lada Iskra, производство которой официально запущено на…
Финансовый сектор России столкнулся с беспрецедентным ростом числа кибератак в первом квартале 2025 года. Согласно…
Потенциальное возвращение на российский рынок крупных международных производителей электроники и бытовой техники, покинувших страну в…
Для российских семей с двумя и более детьми будет введена новая мера поддержки в виде…