Про це повідомляє AIN.UA.

Цей сервіс працює на основі машинного навчання, він призначений для аналізу тексту коментарів: чи містяться в них образи, тролінг тощо.

Сервіс вже тестувала адміністрація Wikipedia, редакції Guardian, The Economist і The New York Times. На Wikipedia його використовують досі, щоб знаходити редакторів-волонтерів, які погано поводяться.

Демо-версію сервісу може випробувати в онлайні будь-який користувач. Достатньо просто ввести в поле текст коментаря – кілька слів або речення, і Perspective заміряє рівень його токсичності.

Якщо цей рівень становитиме 80% і більше, є немаленький шанс, що ваш коментар, з'явившись в онлайні, образить інших користувачів.

Читайте також: Топ-5 сервісів від Google, про які ви не знали

Сервіс досі перебуває в розробці, тому не здатний дуже точно знаходити тролів. Тож адміністрація просить користувачів залишати свої відгуки, щоб сервіс міг вчитися на своїх помилках.