Об этом сообщает Engadget.

Модераторы сайта объяснили, как определяются материалы с элементами сексуального насилия над детьми (CSAM). Pornhub обнаруживает CSAM с помощью отчетов Национального центра пропавших и эксплуатируемых детей. В прошлом году центр подал более 13 000 потенциальных CSAM, 4171 из которых опубликовали впервые отчеты, а другие подавались ранее.

Напомним, что в колонке Times, написанной лауреатом Пулитцеровской премии Николасом Кристофом, были описаны записи на веб-сайте Pornhub нападений на женщин и девочек, потерявших сознание, в том числе видео обнаженной 14-летней девочки. Он написал, что PornHub не блокирует и не фильтрует контент, изображающий насилие, и ни у самого сайта, ни у кого-либо другого “нет четкого представления” о количестве опубликованного на ресурсе нелегального контента.

После этого Pornhub заявил, что меняет правила публикации контента, чтобы к ним не попали несогласованные ролики, в которых могут снимать несовершеннолетних.