FOLLOW US ON SOCIAL

Posted On

27
Липень
2021

YouTube вважає за краще рекомендувати неприйнятні відео замість корисних, з’ясували дослідники

Часом YouTube здатний відправити користувача в багатогодинну подорож від одного рекомендованого ролика до іншого. Дослідження Mozilla Foundation показує, що алгоритми рекомендацій відеосервісу частіше радять до перегляду «вірусний» і дезинформаційний контент, ніж цікаві конкретному користувачеві матеріали.

У дослідженні взяли участь 37 000 добровольців. Mozilla з’ясувала, що 71% рекомендованих YouTube відео були відзначені респондентами як «небажані». Учасники використовувала спеціальне розширення для браузерів, здійснювати контроль за використанням YouTube більше 10 місяців, і коли вони помечали відео як «небажане», розширення реєструвало – знайшли його користувачі самостійно або перейшли з розділу рекомендацій.

У дослідженні подібні матеріали отримали назву YouTube Regrets (YouTube з жалем), що символізує негативний досвід. Зокрема, мова йде про відео, котрі намагаються відстояти псевдонаукові концепції, теорії змови, відео жорстокого поводження з тваринами і ролики, пов’язані з іншими темами. Батьки десятирічної дівчинки повідомили, що ланцюжок посилань привів її до матеріалів про «екстремальні» дієти в той час, як вона шукала відео про танці. В результаті це призвело до негативної зміни харчових звичок дитини.

Виявилося (раптово), що в рекомендації потрапляють відео, здатні стати вірусними. Якщо потенційно шкідливий контент здатний зібрати тисячі або мільйони переглядів, дуже висока ймовірність того, що його будуть рекомендувати користувачеві замість того, що йому дійсно цікаво.

Відомо, що YouTube видалила 200 відео, зазначених в ході дослідження як неприйнятні, а представник сервісу повідомив, що «компанія знизила в рекомендаціях долю контенту, який вважається шкідливим до одного і менше відсотків». Крім того, за останній рік сервіс вніс близько 30 змін в алгоритми, щоб впоратися зі згаданою проблемою. Автоматизована система виявляє і видаляє 94% відео, що порушують політику YouTube ще до того, як ролики наберуть 10 переглядів.

Хоча компанії відносно легко фільтрують контент, пов’язаний з насильством і расизмом та інші неприйнятні ролики визначити набагато складніше – автори посилаються на свободу слова або те, що розміщують контент виключно в розважальних цілях.

Крім того, YouTube цілком очікуємо відмовляється розкрити інформацію про те, як саме працює алгоритм відбору рекомендованих відео. Через це користувачам практично неможливо реально оцінити, чи робить сервіс все можливе для боротьби з неприйнятним контентом.