Appleは、iCloudの写真を児童性的虐待物(CSAM)としてスキャンするシステムを導入しないという決定をめぐって訴訟を起こされている。
訴訟では、この資料の拡散を防ぐためにこれ以上の措置を講じないことで、被害者にトラウマの追体験を強いることになると主張している。 ニューヨークタイムズ紙によると。訴状では、アップルが「子供を保護することを目的とした改良されたデザイン」を広く宣伝したにもかかわらず、「それらのデザインを実装するか、この素材を検出して制限するための何らかの措置を講じる」ことを怠ったと述べている。
Appleは2021年にこのシステムを初めて発表し、国立行方不明児童搾取センターやその他の団体からのデジタル署名を使用して、ユーザーのiCloudライブラリ内の既知のCSAMコンテンツを検出すると説明した。しかし、セキュリティとプライバシーの擁護者らが政府監視のためのバックドアを作成できると示唆したため、それらの計画は放棄されたようだ。
この訴訟は27歳の女性が偽名でAppleを訴えていると伝えられている。彼女は、幼い頃に親戚から性的虐待を受け、その画像をオンラインで共有し、今でもその画像を所持した疑いで誰かが起訴されたという法執行機関からの通知をほぼ毎日受け取っていると語った。
この訴訟に関与しているジェームズ・マーシュ弁護士は、この訴訟で補償を受ける権利がある潜在的な被害者グループは2,680人に上る可能性があると述べた。
TechCrunchはAppleにコメントを求めた。同社の広報担当者はタイムズに対し、同社は「すべてのユーザーのセキュリティとプライバシーを損なうことなく、これらの犯罪と戦うために緊急かつ積極的に革新を進めている」と語った。
8月には、 9歳の少女と保護者がAppleを告訴と同社がiCloud上のCSAMへの対応を怠ったと非難した。