Apple、放棄されたCSAM検出システムを巡り12億ドルの訴訟に見舞われる

Appleは、児童性的虐待の素材(CSAM)としてiCloudの写真をスキャンする計画を放棄した決定をめぐって、12億ドルの損害賠償を求める訴訟に直面しているとの報道によると、 ニューヨーク・タイムズ

土曜日に北カリフォルニアで起こされたこの訴訟は、2,680人の潜在的な被害者グループを代表しており、Appleが以前に発表した児童安全ツールの導入を怠ったことで有害なコンテンツが流通し続け、被害者に被害が継続していると主張している。

2021 年に、Apple は他の子供の安全機能と並行して、iCloud 写真に CSAM 検出を実装する計画を発表しました。しかし、同社は、この技術が政府監視のための潜在的なバックドアを作成する可能性があると主張するプライバシー擁護派、セキュリティ研究者、政策団体からの大きな反発に直面した。 Appleはその後この取り組みを延期し、その後断念した。

Apple は当時の決定の説明で、ユーザーのプライベート iCloud ストレージのユニバーサル スキャンを実装すると、重大なセキュリティ上の脆弱性が生じ、悪意のある攻撃者が悪用する可能性があると述べました。 Appleはまた、このようなシステムが問題のある前例を確立する可能性があると懸念を表明した。コンテンツスキャンインフラストラクチャが1つの目的のために存在すると、暗号化を使用するものを含む、さまざまなタイプのコンテンツやメッセージングプラットフォームにわたるより広範な監視アプリケーションに拡張する圧力に直面する可能性があるという点である。

この訴訟の主任原告は、仮名で提出しており、幼児の頃の虐待画像を所持した疑いで告訴されている人物に関する法執行機関からの通知を今も受け取り続けていると述べた。訴訟では、発表した安全対策を続行しないというアップルの決定により、被害者はトラウマを繰り返し追体験することになったと主張している。

この訴訟に応じて、Appleの広報担当フレッド・サインツ氏は、児童搾取と闘う同社の取り組みを強調し、Appleは「すべてのユーザーのセキュリティとプライバシーを損なうことなく、これらの犯罪と闘うための革新を緊急かつ積極的に行っている」と述べた。 Appleは、継続的な児童保護の取り組みの例として、不適切な可能性のあるコンテンツについて子供に警告するコミュニケーションセーフティなどの既存の機能を挙げた。

注: このトピックに関する議論の政治的または社会的性質により、ディスカッション スレッドは 政治ニュース フォーラム。すべてのフォーラム メンバーとサイト訪問者はスレッドを読んでフォローすることができますが、投稿できるのは少なくとも 100 件の投稿があるフォーラム メンバーに限られています。

出典