МИР · 14 июня 2017, 15:25 · Отдел информации dev.by
Кто не прав в интернете: машинное обучение помогает New York Times в борьбе с «троллями»

The New York Times начала использовать алгоритмы машинного обучения для обнаружения и удаления агрессивных и грубых комментариев к статьям, сообщает Poynter.

Как работает автоматический определитель «токсичности» комментариев. Иллюстрация: Poynter

Издание использует инструмент Perspective, созданный в технологическом инкубаторе Jigsaw, принадлежащем Alphabet. Алгоритмы изучают многочисленные комментарии к статьям на сайте NYT и скрывают те из них, которые посчитают особо грубыми или оскорбительными.

Сейчас около 10 процентов статей открыты для комментариев. С инструментом Perspective в издании надеются увеличить количество «открытых» публикаций до 25 процентов за счёт освобождения времени редакторов, ответственных за обратную связь пользователей. Согласно плану, в итоге комментарии должны появиться в 80 процентах статей.

Если раньше процесс модерации предполагал прочтение каждого комментария человеком, то теперь «токсичность» пользовательских сообщений будет определять Perspective, а модераторы будут принимать решения на основе оценки программы.

«Мощь машинного обучения даёт нам возможность вернуть обсуждения в интернете в нормальное русло, «развернув» тренд на закрытие комментирования», — отмечает CEO Jigsaw Джаред Коэн.

В планах создателей технологии — расширить доступ к продукту, открыв доступ к API уже в ближайшие месяцы.

Источник: dev.by


Авторизуйтесь, чтобы оставлять комментарии

Использование материалов, размещенных на сайте, разрешается при условии прямой гиперссылки на dev.by. Ссылка должна быть размещена в подзаголовке или в первом абзаце публикации.
datahata — хостинг в Беларуси