Pornhub: 違法コンテンツとの闘いを説明する初の透明性レポート

テクノロジー大手は今日、あるいはほぼほぼ、自社の内部手法について透明性を持たなければなりません。今日、有名な Pornhub プラットフォームがこれに当てはまります。

ポルノハブ昨年12月、ニューヨーク・タイムズ紙が同社の緩い方針でレイプや児童搾取の動画の収益化が認められたと報じた後、同社は膨大な量のコンテンツを削除し、多くの重要な変更を加えた。今日、このサイトはそのすべてを公開しています最初の透明性レポート、2020 年 1 月から 12 月までに実施されたモデレーションの実践と受け取ったレポートを確認する機会です。

Porhub が初の透明性レポートを公開

どうやら、Pornhubはガイドラインに違反した653,465個のコンテンツを削除したようだ。これには、リベンジ ポルノやその他の暴露など、未成年者や同意のない行為を描いた動画が含まれます。個人データ。同プラットフォームは動物の暴力を含む動画も削除した。

サイトも説明します児童性的虐待 (CSAM) のあるコンテンツをどのように管理するか。 Pornhub は、集中的なモデレーションの取り組みと、行方不明児童および搾取児童のための国立センター。同センターは昨年、4,171の固有コンテンツを含む13,000以上の潜在的なCSAMを提出し、残りは重複したものであった。

違法コンテンツと戦う方法について詳しく学ぶ機会

公開前に行われるコンテンツのモデレーションについて、Pornhub はいくつかの検出技術を使用していると説明しています。 2020 年に、プラットフォームはサーバー上に存在するすべての動画を CSAI Match ツールに渡しました。YouTubeは、児童の性的虐待の画像を識別するためのマウンテンビュー会社の独自技術です。このプラットフォームは、それらを PhotoDNA ツールにも送信しました。マイクロソフト、同じ目的で設計されています。 Pornhub は今後も両方のテクノロジーを使用して、サーバーに到着するすべてのビデオをスキャンします。さらに、このサイトでは、Google の Content Safety API、MediaWise デジタル フィンガープリンティング ソフトウェア (以前に攻撃的であると特定されたコンテンツに対して新しいユーザー コンテンツをスキャンする)、および CSAM やその他の非同意行為の検出を目的とした独自の画像認識技術 Safeguard を使用しています。

同社は昨年2月、コンテンツ制作者の身元確認に第三者企業を利用していることも発表した。同プラットフォームは、ニューヨーク・タイムズの記事を受けて、未検証のコンテンツをすべて削除し、ダウンロードを禁止する決定を下し、その直後にマスターカードとビザがPornhubへの支払いをブロックした。 Visaは、クリスマス前後にプロが制作した動画を提供する特定のMindGeekサイト(Pornhubの親会社)に対して再びそれらの受け入れを開始したが、Pornhubは依然として禁止されている。