
С помощью искусственного интеллекта соцсеть будет отслеживать конфликты и оскорбления в комментариях и сообщать о них владельцам сообществ. Чтобы снизить токсичность в обсуждениях, администраторы получат новые инструменты
FACEBOOK начнет тестировать новую систему для снижения токсичности в комментариях сообществ. Об этом сообщается в блоге социальной сети.
Система, которая называется «Оповещение о конфликтах», будет использовать искусственный интеллект для анализа комментариев, которые пользователи оставляют в сообществах Facebook.
В случае обнаружения споров или потенциально конфликтных ситуаций в комментариях система будет их маркировать и отправлять администратору сообщества уведомление. Кроме того, сообщения с нецензурной лексикой или неприемлемыми высказываниями будут помечаться плашкой moderation alert. Информация о таких комментариях также будет уходить модераторам группы.
TELEGRAM и Facebook оштрафовали на 10 млн и 17 млн руб. Технологии и медиа
Самим администраторам сообществ дадут новые инструменты, которые, по словам разработчиков, позволят снизить уровень токсичности или свести конфликт на нет. В частности, теперь можно будет ограничить частоту комментариев от конкретного пользователя, а также частоту комментирования определенных постов.