Об этом сообщает AIN.UA.

Этот сервис работает на основе машинного обучения, он предназначен для анализа текста комментариев: содержатся ли в них оскорбления, троллинг и тому подобное.

Сервис уже тестировала администрация Wikipedia, редакции Guardian, The Economist и The New York Times. На Wikipedia его используют до сих пор, чтобы находить редакторов-волонтеров, которые плохо себя ведут.

Демо-версию сервиса может испытать в онлайне любой пользователь. Достаточно просто ввести в поле текст комментария – несколько слов или предложение, и Perspective замеряет уровень его токсичности.

Если этот уровень составит 80% и более, есть немаленький шанс, что ваш комментарий появившись в онлайне, оскорбит других пользователей.

Читайте также: Топ-5 сервисов от Google, о которых вы не знали

Сервис до сих пор находится в разработке, поэтому не способен очень точно находить троллей. Поэтому администрация просит пользователей оставлять свои отзывы, чтобы сервис мог учиться на своих ошибках.