Apple に対する法的異議申し立てにより、CSAM 被害者の保護とオンラインの安全性について疑問が生じています。
先生
放棄された検出システム
2021年には、りんご国立行方不明児童搾取センター (NCMEC) やその他の組織からのデジタル署名を使用して、iCloud 写真内の児童性的虐待画像 (CSAM) を検出するシステムを実装する計画を誇らしげに発表しました。この技術は、に保存されている写真を分析するものでした。iCloud児童性的虐待の既知の画像を特定し、当局に報告する。しかし、ユーザーのセキュリティとプライバシー、特に政府による監視のリスクに対する懸念から、Apple はこのプロジェクトを断念し、激しい批判を引き起こしました。
被害者の苦しみを浮き彫りにした告訴状
告訴状を提出したのは27歳の女性で、身元を守るために偽名を使用している。彼女は赤ん坊の頃に性的虐待を受けており、虐待の画像はオンラインで共有された。現在でも、彼女はこれらの画像の悪用に関する警察からの通知を受け取っています。この女性は、Apple が効果的な検出技術を導入しないことで、被害者にトラウマを常に追体験させていると考えています。彼女は、これらの画像に関連する法的措置の定期的な通知に対処しなければならないため、発表されたシステムを導入しないという Apple の決定は彼女の人生に劇的な影響を与えると述べた。
他の被害者への影響と集団訴訟の可能性
原告の弁護士ジェームズ・マーシュは、多数の被害者がこの訴訟によって影響を受ける可能性があると考えている。同氏は集団訴訟の可能性を提起し、告訴が認められれば約2,680人の被害者が補償を受ける資格がある可能性があると述べた。この状況は、CSAM との戦いをめぐる法的問題だけでなく、子どもの保護と iCloud などのプラットフォームでのユーザーのプライバシー保護の間のバランスの問題も浮き彫りにしています。
Apple はこの苦情に対し、ユーザーのセキュリティとプライバシーを損なうことなく不正行為と闘うために積極的な革新を続けていることを明らかにしました。カリフォルニアの同社は、オンライン性的虐待の被害者を保護する取り組みは継続しているが、当初発表したものとは異なる形だったと説明した。この対応は、オンラインの違法コンテンツとの戦いとユーザーの個人データの保護との間の複雑な緊張を浮き彫りにしており、このジレンマは依然としてデジタルセキュリティと個人の権利をめぐる議論の中心となっている。