Apple、iCloudでCSAMを検出するツールの実装を怠ったとして訴訟を起こす

Appleは、iCloudをスキャンして児童性的虐待資料(CSAM)を探す計画を実行しなかったとして、児童性的虐待の被害者らから訴訟を起こされている。 ニューヨーク・タイムズ 報告します。 2021年、Appleは、そのような虐待を示す画像にフラグを立てて国立行方不明児童搾取センターに通知するCSAMを検出するツールの開発に取り組んでいることを発表した。しかし同社は、この技術によるプライバシーへの影響を巡って即座に反発に見舞われ、最終的に計画を断念した。

土曜日に北カリフォルニアで起こされたこの訴訟は、2,680人の潜在的な被害者グループに対して12億ドルを超える損害賠償を求めていると報じた。 。 Appleが計画されている子供用安全ツールを披露した後、同社は自社のデバイスにCSAMを「それらの設計を実装することも、検出して制限するための措置を講じることもできなかった」ため、画像が出回り続けて被害者に損害を与えたと主張している。

Engadgetと共有した声明の中で、Appleの広報担当フレッド・サインツ氏は「児童への性的虐待の内容は忌まわしいものであり、私たちは捕食者が子どもたちを危険にさらす方法と戦うことに全力で取り組んでいる」と述べた。私たちは、すべてのユーザーのセキュリティとプライバシーを損なうことなく、これらの犯罪と戦うための革新を緊急かつ積極的に行っています。たとえば、コミュニケーションの安全性などの機能は、児童の性的虐待につながる強制の連鎖を断ち切るために、ヌードを含むコンテンツを受信したり送信しようとしたりしたときに子供に警告します。私たちは、CSAM の蔓延を事前に防止する保護の構築に引き続き注力しています。」

この訴訟は、アップルが英国の全米児童虐待防止協会(NSPCC)からCSAMを過少報告したとして告発されてからわずか数カ月後に起きた。

更新、2024 年 12 月 8 日午後 6 時 55 分 (東部標準時): この記事は、Engadget に対する Apple の声明を含めて更新されました。

出典