Сьогодні контент, що порушує правила соцмережі зазвичай позначають самі користувачі або алгоритми машинного навчання. З найбільш очевидними випадками система справляється автоматично, наприклад, видаляючи публікації, що порушують правила або блокуючи акаунт користувача, який опублікував цей контент. Решта випадків потрапляють на розгляд модераторів, пише The Verge.
Цікаво В Instagram та месенджері Facebook з'явилися самознищувальні повідомлення
Що відомо
У Facebook працюють близько 15 тисяч модераторів в різник куточках світу. Соцмережу неодноразово критикували за те, що адміністрація недостатньо їх підтримує і не наймає більшу кількість персоналу. На цю тему навіть знімали документальні фільми, в яких розкривали питання психологічного здоров'я працівників, які кожного дня стикаються з насиллям різноманітного характеру, жорстокими чи непристойними фото. Завдання модераторів полягає в сортуванні постів зі скаргами, а також прийнятті рішення про те, порушують вони правила соцмережі чи ні.
Раніше модератори розглядали пости в міру публікації. Facebook вирішив змінити підхід для того, щоб в першу чергу розглядати публікації, які набирають більше охоплення і, відповідно, здатні завдати більше шкоди.
Нова модель використовуватиме три критерії для відбору найбільш шкідливих публікацій:
- вірусність,
- сюжет публікації,
- ймовірність того, що вона порушує правила.
Після цього ШІ буде позначати такі публікації, щоб вони піднімалися вище в черзі на розгляд модераторами.
Весь контент, що порушує правила соцмережі, буде, як і раніше, розглядатися людьми, проте використання нової системи дозволить більш ефективно розставляти пріоритети в цьому процесі,
— прокоментували в Facebook.
На думку соцмережі, новий підхід допоможе швидше реагувати і розбиратися з порушеннями правил, що мають широке охоплення.