Исследователи создали алгоритм, позволяющий выявлять троллей на интернет-сайтах по первым пяти комментариям с вероятностью 79%. Чтобы понять их поведение, исследователи проанализировали 40 млн комментариев с трех различных ресурсов.
Исследователи из Стэнфордского университета и Корнелльского университета (оба находятся в США), воспользовавшись грантом Google, разработали алгоритм, позволяющий с 79-процентной точностью определять «троллей» на интернет-ресурсах по пяти первым сообщениям.
Тролль в интернете — человек, который ведет себя вызывающе, оскорбительно, провоцирует других участников на острую реакцию.
Работа ученых опубликована на сайте библиотеки Корнелльского университета. Авторы работы утверждают, что разработанный ими алгоритм может использоваться в качестве вспомогательного инструмента в работе модераторов.
Исследователи проанализировали 40 млн комментариев, оставленных 1,7 млн пользователями, а также 100 млн оценок этих комментариев другими участниками обсуждений на новостном сайте CNN.com, новостном ресурсе о политике Breitbart.com и игровом сайте IGN.com, использующими веб-сервис для обсуждений Disqus. На сбор данных ушло 18 месяцев.
Затем авторы работы сравнили поведение пользователей, которые впоследствии были забанены, с пользователями, которые не были забанены ни разу, и пришли к выводу, что поведение этих двух групп существенно отличается.
Во-первых, тролли предпочитают концентрироваться на беседах с конкретными участниками в групповом обсуждении. Во-вторых, они склонны оставлять неуместные комментарии. В-третьих, в их фразах чаще присутствует ненормативная лексика, чем во фразах представителей другой группы. В-четвертых, они чаще всего получают отклики от других участников беседы, таким образом расходуя их время на бесцельную болтовню.
Чтобы научиться находить троллей, исследователи проанализировали 40 млн комментариев
Исследователи также выяснили, что постепенно в беседах агрессия троллей возрастает и они вызывают все большее неприятие других участников. Если же другие участники отвечают троллю грубо, то беседа принимает еще более негативный характер. При этом, по словам исследователей, чем дольше тролль принимает участие в беседе, тем сложнее его определить. Скорее всего, это связно с изменением поведения других участников в беседе, предположили они.
Что касается вопроса, создают ли тролли обсуждения сами или присоединяются к уже существующим, однозначного ответа исследователи не дали. По их словам, это зависит от конкретного сайта. Например, на Breitbart.com и IGN.com тролли преимущественно начинали общение с ответов на комментарии других пользователей, тогда как на сайте CNN.com они преимущественно сами инициировали обсуждения.
Исследователи не говорят, когда разработанный ими алгоритм может появиться в Сети. Источник: cnews.ru.
Рейтинг публикации:
|
Статус: |
Группа: Посетители
публикаций 0
комментариев 777
Рейтинг поста:
Ну как только выведут программу определения выше 90% - смогут выпустить программный продукт для автобана троллей
Статус: |
Группа: Посетители
публикаций 0
комментариев 26
Рейтинг поста: