

Apple は、iCloud メールの CSAM スキャンをすでに実施しており、2019 年から実施していることを私に確認しました。ただし、iCloud 写真や iCloud バックアップはスキャンされていません。
この説明は、Appleの不正対策責任者が「児童ポルノを流通させる最大のプラットフォーム」と述べた、かなり奇妙な発言に私が疑問を呈した後に出されたものだ。するとすぐに疑問が湧いてきた。もしAppleがiCloudの写真をスキャンしていなかったら、どうしてそんなことが分かるのだろうか?
Appleが何らかのCSAMスキャンを行っていたことを示唆する手がかりは他にもいくつかあります。Appleの子ども向け安全情報のアーカイブ版には、次のように記されています(強調は筆者によるものです)。
Appleは、製品が使用されるあらゆるエコシステムにおいて、子どもたちの保護に尽力しており、この分野におけるイノベーションを継続的に支援しています。ソフトウェアプラットフォームのあらゆるレベルとサプライチェーン全体にわたって、堅牢な保護対策を開発してきました。この取り組みの一環として、Appleは画像マッチング技術を用いて児童搾取の発見と報告を支援しています。メールのスパムフィルターと同様に、Appleのシステムは電子署名を用いて児童搾取の疑いのあるコンテンツを検出します。私たちは個々のレビューを通じて、それぞれの一致を検証しています。児童搾取コンテンツを含むアカウントはAppleの利用規約に違反しており、そのようなコンテンツを含むアカウントは無効化されます。
さらに、同社の最高プライバシー責任者は2020年1月に同じことを述べている。
アップルの最高プライバシー責任者であるジェーン・ホルバート氏は、技術カンファレンスで、同社は違法画像を探すためにスクリーニング技術を使用していると述べた。同社は、児童搾取コンテンツの証拠を発見した場合、アカウントを無効化するとしているが、その発見方法については明らかにしていない。
Appleはフリードマン氏の発言についてはコメントしなかったが、同社がiCloud写真をスキャンしたことはないと伝えた。
AppleがiCloudメールをスキャン
しかし、Apple は、2019 年から iCloud の送受信メールをスキャンして CSAM 添付ファイルを探していたことを私に確認しました。電子メールは暗号化されていないため、メールが Apple サーバーを通過するときに添付ファイルをスキャンするのは簡単な作業でしょう。
Appleは、他のデータについても限定的なスキャンを行っていると示唆しましたが、その内容については明らかにせず、規模は小さいと示唆するにとどめました。ただし、「他のデータ」にはiCloudのバックアップは含まれないと説明されました。
フリードマン氏の声明は、確かなデータに基づいているかのように断定的に聞こえるものの、実際にはそうではなかった可能性が高まっています。AppleがCSAMに毎年提出する報告の総数は数百件に上ると私たちの理解では考えられます。つまり、メールスキャンではAppleのサーバーに大規模な問題が発生したという証拠は得られないということです。
おそらく、他のクラウドサービスではCSAMのスキャンが行われているのに対し、Appleはそうしていなかったという事実が説明の根拠となるでしょう。もし他のサービスがCSAMのアップロードを理由にアカウントを無効化しているのに、iCloudフォトではそうしていなかった(Appleはそこでスキャンを行っていなかったため)としたら、論理的にAppleのプラットフォームには他のどのプラットフォームよりも多くのCSAMが存在するという推論が成り立ちます。フリードマン氏はおそらく、その結論に至ったに過ぎないでしょう。
Apple の CSAM 計画をめぐる論争は続いており、プリンストン大学の 2 人の学者は、Apple とまったく同じアプローチに基づくスキャン システムのプロトタイプを作成したが、政府による悪用リスクがあるためにその作業を断念したと述べています。
Appleに連絡するきっかけとなった電子メールでの議論について、Jesse Hollingtonに感謝します。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。
