Социальная сеть Facebook запускает программу, которая с помощью искусственного интеллекта будет модерировать комментарии в сообществах. В частности, будут отслеживаться конфликты и оскорбления, а администраторы получат новые инструменты, чтобы снизить токсичность в обсуждениях.
Об этом говорится в сообщении в официальном блоге соцсети.
Сообщается, что система «Оповещение о конфликтах» будет использовать искусственный интеллект для анализа комментариев. При обнаружении споров и конфликтных ситуаций система их специально отметит и оправит уведомление администратору сообщества.
Также нецензурная лексика в комментариях будет отмечаться плашкой moderation alert, а информация — передаваться модераторам группы. Ожидается, что новые инструменты позволят избежать конфликтов, поскольку можно будет ограничить количество комментариев от конкретного пользователя или частоту комментирования конкретных постов.
В Facebook добавили, что предоставят администраторам инструменты по формированию и повышению культуры — будет доступна подробная статистика по участникам групп с отображением количества публикаций, комментариев и так далее.
- intense_featured_gallery:
- intense_featured_image_type:
- standard
- intense_image_shadow:
- null
- intense_hover_effect_type:
- null
- intense_hover_effect:
- 0
- intense_featured_audio_url:
- intense_featured_video_type:
- intense_featured_color:
- intense_post_subtitle:
- intense_post_single_template: