Pornhub przedstawia swój pierwszy raport przejrzystości
4 lata ago
W grudniu 2020 roku The New York Times ujawnił, że Pornhub dopuścił się zaniedbań w egzekwowaniu swojej polityki dotyczącej nielegalnych treści, która zezwalała na rozpowszechnianie treści przedstawiających wykorzystywanie seksualne dzieci (CSAM) na swojej platformie. Jest article du NYT spowodowało zawieszenie płatności bezpośrednich na Pornhub przez Mastercard i Visa.
Niedawno Pornhub wydał ich pierwszy raport przejrzystości o tym, jak radziła sobie z nielegalnymi treściami w okresie od stycznia do grudnia 2020 r. i wydaje się, że strona pornograficzna usunęła 653 465 elementów, które naruszały jej zasady.
Treść
653,465 filmów usuniętych na Pornhub
W rzeczywistości te nielegalne treści obejmowały filmy, które zawierały nieletnich oraz filmy, które nie wyglądały na dobrowolne, takie jak zemsta pornograficzna i próba doxxingu. Były też filmy pokazujące krzywdę zwierząt, przemoc i zabronione płyny ustrojowe.
Najwyraźniej Pornhub identyfikuje treści CSAM na podstawie raportów przesłanych przez National Center for Missing & Exploited Children. W sumie centrum przebadało ponad 13 000 potencjalnych CSAM w 2020 r., Z których 4171 stanowiły unikalne raporty, a pozostałe były duplikatami.
Ponadto Pornhub powiedział, że wykorzystuje różne technologie wykrywania, takie jak oprogramowanie CSAI Match YouTube i oprogramowanie PhotoDNA firmy Microsoft, które identyfikują obrazy wykorzystywania seksualnego dzieci. Witryna korzystałaby również z interfejsu Google do zabezpieczania treści, oprogramowania MediaWise do cyfrowych odcisków palców oraz własnej technologii rozpoznawania obrazów Safeguard w celu rozwiązania problemów z filmami przedstawiającymi seksualne wykorzystywanie dzieci, a także z materiałami wideo objętymi przymusem.
Powiązane posty