Вчені з Колорадського університету розробили алгоритм пошуку і передбачення випадків кібермоббінгу (навмисної образи і залякування користувачів) в соціальній мережі Instagram. За допомогою машинного навчання та методів мовного аналізу фахівці змогли домогтися 77% точності при пошуку атак тролів і 60% точності при їх передбаченні.
Автори проаналізували 2218 постів у соціальній мережі, розбивши їх на групи за проявами кіберагресії (один агресивний коментар) або кібермоббінгу (два або більше негативних або образливих коментаря). У вибірках за допомогою стандартних методів лінгвістичного аналізу вивчалася зміст коментарів та їх агресивне забарвлення.
Виявилося, що в "агресивних" коментарях найчастіше використовувалися слова, які відносилися до таких тем, як "релігія", "смерть", "наркотики", "сексуальність", "злість", "смуток" і тому подібне.
Одним з незвичайних результатів дослідження став той факт, що коментарі з великою кількістю нецензурної лексики, як правило, не були агресивними, найчастіше вони були пов'язані з політикою або спортом, а в деяких випадках автори кваліфікували їх як "дружню балаканину".
На підставі цих даних учені створили набір ознак, за якими навчали програму-класифікатор. Точність визначення програмою можливих атак кібертролів склала 77%. Далі вчені намагалися передбачити те, чи викличе фотографія негативний відгук у коментарях. Для цього використовувалося машинне навчання, а в якості ознак – зміст фотографії та профіль користувача. Точність прогнозу склала 60%.
Надалі вчені планують підвищити точність роботи алгоритму.
Раніше повідомлялося про те, що фахівці Google розробили алгоритм видалення зайвих об'єктів з фотографій.