CSAM被害者、計画されていたスキャンツールの廃止でAppleを提訴

CSAM被害者、計画されていたスキャンツールの廃止でAppleを提訴
CSAM被害者、計画されていたスキャンツールの廃止でAppleを提訴
CSAM被害者、スキャンツール計画中止でAppleを12億ドルで提訴 | 写真にはテーブルの上に置かれた眼鏡と写真が写っている

何千人ものCSAM被害者が、児童性的虐待コンテンツの有無をデバイスでスキャンする計画を中止したとしてAppleを訴えている。

同社は、12億ドル以上の罰金に直面するだけでなく、抑圧的な政権による悪用リスクを多くの人が指摘したことを受けて中止したプランを復活させざるを得なくなる可能性がある…

これまでの話

ほとんどのクラウド コンピューティング サービスでは、デジタル フィンガープリント方式を使用して、ユーザー アカウントを定期的にスキャンし、児童性的虐待資料 (CSAM) を探します。

これらのフィンガープリントは、既知のCSAM画像を誰にも見られずに照合する方法であり、トリミングなどの編集が行われた画像でも照合できるよう十分に曖昧に設計されており、誤検出は極めて少ないです。一致が見つかった場合、写真は人間によって手作業で確認されます。その結果、写真がCSAMであることが確認された場合、報告書が提出され、法執行機関に渡されます。

iCloud は、このスキャンを行わない数少ないクラウド サービスの 1 つであり、Apple はその理由としてプライバシーを挙げています。

Appleは、プライバシーを尊重しながらCSAMスキャンを導入する試みとして、iCloud写真をスキャンするよりも侵入性が低いという理由で、デバイス上でフィンガープリンティングツールを実行することを提案しました。複数の一致が見つかった場合にのみ、人間による写真の確認が行われ、誤検知のリスクをさらに低減します。

私たちの多くが指摘したように、問題は抑圧的な政府による濫​​用の可能性があることでした。

デジタル指紋は CSAMだけでなく、あらゆる 種類の資料に対して作成できます。権威主義的な政府が政治キャンペーンのポスターなどの画像をデータベースに追加することを阻止することはできません。

重犯罪者を標的に設計されたツールは、政府やその政策に反対する者を容易に検知するために転用できる可能性がある。政府から指紋データベースを受け取ることになるAppleは、知らず知らずのうちに政治活動家への弾圧、あるいはそれ以上の悪質な行為を助長することになるだろう。

Appleは当初、これに同意しないと言っていましたが、私たちの多くが再び、Appleには他に選択肢がないと指摘しました。法律を遵守するために何か怪しいことをしなければならないたびに、同社は「Appleは事業を展開する各国の法律を遵守しています」とよく言っています。

iPhoneメーカーは当初この主張を否定しましたが、最終的にはCSAMスキャン計画を断念し、ようやく問題の現実を認めました。その後、Appleはまさにこの主張を根拠に法案に反対しました。

CSAM被害者が訴訟を起こす

Arstechnica は、CSAM の被害者がスキャンを実施しなかったとして Apple を訴えていると報じている。

何千人もの被害者が、児童性的虐待資料(CSAM)とも呼ばれる違法児童ポルノの検出と報告を怠ったとしてAppleを訴えている[…]

児童性的虐待の被害者たちは、Appleがサイバーセキュリティの抗弁を利用して、このテクノロジー大手の義務的なCSAM報告義務を無視していると訴えている。陪審員に勝訴した場合、Appleは12億ドル以上の罰金を科される可能性がある。そしておそらくプライバシー擁護者にとって最も注目すべき点は、Appleが「iCloud上のCSAMを特定、削除、報告し、AppleのデバイスやサービスにおけるCSAMの継続的な拡散や児童性的人身売買を防ぐためのポリシー、慣行、および手順を実施する」ことを強制される可能性があることだ。これは、物議を醸しているツールの導入、あるいはCSAMの大量検出に関する業界標準を満たす代替手段の導入を裁判所が命じることを意味するかもしれない。

アップルは、その方針を利用して利益を得ようとしたとして非難されている。

サバイバーたちの見解では、AppleはiCloudでCSAMを許可することで利益を得ている。児童虐待者はApple製品を、他の大手IT企業が大量に報告するCSAMを保存する安全な場所と見なしているからだ。訴状によると、Appleが2023年に報告したCSAMの既知の事例はわずか267件だったのに対し、他の「大手IT企業4社は3200万件以上の報告を提出した」という。そして、AppleのCSAMに対する緩いアプローチが今後も抑制されないまま続けば、AIによって報告されないCSAMの量が飛躍的に増加する可能性があるとサバイバーたちは懸念している。

同社はこれに対し、問題に対処するために積極的な措置を講じていると述べた。

児童性的虐待コンテンツは忌まわしいものであり、私たちは加害者が子供たちを危険にさらす行為と闘うことに尽力しています。私たちは、すべてのユーザーのセキュリティとプライバシーを損なうことなく、こうした犯罪と闘うため、緊急かつ積極的に革新に取り組んでいます。例えば、コミュニケーションセーフティなどの機能は、ヌードを含むコンテンツを受信または送信しようとした際に子供たちに警告を表示し、児童性的虐待につながる強制の連鎖を断ち切るのに役立ちます。私たちは、CSAMの蔓延を未然に防ぐための保護策の構築に引き続き注力していきます。

9to5Macの見解

この問題は関係者全員にとって勝ち目のない状況です。真に忌まわしい犯罪の摘発と、抑圧的な政府がそれを利用するリスクとの間には、避けられない矛盾が存在します。

もしAppleが最初からiCloudの写真をスキャンするという標準的な方法を採用していたら、これが物議を醸すような問題に発展することはなかっただろう。皮肉なことに、同社が同じ目的をよりプライバシーに配慮した方法で達成しようとしたことが、今回の論争を招いたのだ。

現時点では、裁判所がこの点について判決を下すことは、Apple自身の利益にもなるだろう。仮にAppleがスキャンの導入を余儀なくれ、将来政府がそれを悪用したとしても、Appleは少なくとも他に選択肢がなかったことを主張できるだろう。逆に、Appleが勝訴すれば、継続的な圧力を解消する法的先例となる可能性もある。

写真: Dan Gold/Unsplash

havebin.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。