Ученые разработали алгоритм предсказания атак троллей в Instagram

Поделиться
Ученые разработали алгоритм предсказания атак троллей в Instagram Ученые разработали алгоритм предсказания атак троллей в Instagram
Программа показала 77% точность в поиске атак троллей и 60% точность при их предсказании.

Ученые из Колорадского университета разработали алгоритм поиска и предсказания случаев кибермоббинга (намеренного оскорбления и запугивания пользователей) в социальной сети Instagram. При помощи машинного обучения и методов языкового анализа специалисты смогли добиться 77% точности при поиске атак троллей и 60% точности при их предсказании.

Авторы проанализировали 2218 постов в социальной сети, разбив их на группы по проявления киберагрессии (один агрессивный комментарий) или кибермоббинга (два или более негативных или оскорбительных комментария). В выборках при помощи стандартных методов лингвистического анализа изучалось содержание комментариев и их агрессивный окрас.

Оказалось, что в "агрессивных" комментариях чаще всего использовались слова, которые относились к таким темам, как "религия", "смерть", "наркотики", "сексуальность", "злость", "грусть" и тому подобное.

Читайте также: В России "тролли" запугивают активистов, иностранных дипломатов и журналистов – The Guardian

Одним из необычных результатов исследования стал тот факт, что комментарии с большим количеством нецензурной лексики, как правило, не были агрессивными, чаще всего они были связаны с политикой или спортом, а в некоторых случаях авторы квалифицировали их как "дружескую болтовню".

На основании этих данных ученые создали набор признаков, по которым обучали программу-классификатор. Точность определения программой возможных атак кибертроллей составила 77%. Далее ученые пытались предсказать то, вызовет ли фотография негативный отклик в комментариях. Для этого использовалось машинное обучение, а в качестве признаков – содержание фотографии и профиль пользователя. Точность предсказания составила 60%.

В дальнейшем ученые планируют повысить точность работы алгоритма.

Ранее сообщалось о том, что специалисты Google разработали алгоритм удаления лишних объектов с фотографий.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме