Ученые из Колорадского университета разработали алгоритм поиска и предсказания случаев кибермоббинга (намеренного оскорбления и запугивания пользователей) в социальной сети Instagram. При помощи машинного обучения и методов языкового анализа специалисты смогли добиться 77% точности при поиске атак троллей и 60% точности при их предсказании.
Авторы проанализировали 2218 постов в социальной сети, разбив их на группы по проявления киберагрессии (один агрессивный комментарий) или кибермоббинга (два или более негативных или оскорбительных комментария). В выборках при помощи стандартных методов лингвистического анализа изучалось содержание комментариев и их агрессивный окрас.
Оказалось, что в "агрессивных" комментариях чаще всего использовались слова, которые относились к таким темам, как "религия", "смерть", "наркотики", "сексуальность", "злость", "грусть" и тому подобное.
Одним из необычных результатов исследования стал тот факт, что комментарии с большим количеством нецензурной лексики, как правило, не были агрессивными, чаще всего они были связаны с политикой или спортом, а в некоторых случаях авторы квалифицировали их как "дружескую болтовню".
На основании этих данных ученые создали набор признаков, по которым обучали программу-классификатор. Точность определения программой возможных атак кибертроллей составила 77%. Далее ученые пытались предсказать то, вызовет ли фотография негативный отклик в комментариях. Для этого использовалось машинное обучение, а в качестве признаков – содержание фотографии и профиль пользователя. Точность предсказания составила 60%.
В дальнейшем ученые планируют повысить точность работы алгоритма.
Ранее сообщалось о том, что специалисты Google разработали алгоритм удаления лишних объектов с фотографий.