アップルの不正対策責任者、同社が「児童ポルノを配布している」と発言c

アップルの不正対策責任者、同社が「児童ポルノを配布している」と発言c
アップルの不正対策責任者、同社が「児童ポルノを配布している」と発言c
アップルの児童ポルノ詐欺対策責任者の声明

更新: このコメントに対するもっともらしい説明が明らかになりました。

iPhone の CSAM スキャンを開始するという Apple の物議を醸した決定についての説明が、Apple の不正対策責任者による 2020 年の声明で見つかりました。

エリック・フリードマン氏は、「私たちは児童ポルノを配布する最大のプラットフォームだ」と明言しました。しかし、この暴露は疑問を投げかけます。もしAppleがiCloudアカウントをスキャンしていなかったら、どうしてこれを知ることができたのでしょうか?

iMessage のスレッドは、Epic Games の訴訟の証拠開示手続きの一環として Apple から引き渡された社内メール、メッセージ、その他の資料をVergeが調査している際に発見された。

皮肉なことに、フリードマン氏は実際、Facebook のほうが Apple よりも検出能力に優れていると示唆している。

Facebookなどでは、信頼と安全性(偽アカウントなど)ばかりが注目されています。プライバシーに関しては、彼らは最悪です。

私たちの優先順位は正反対です。だからこそ、私たちは児童ポルノなどを配信する最大のプラットフォームとなっているのです。

同僚の幹部がこれに疑問を抱き、本当にそうなのかどうか尋ねました。

本当ですか?私たちのエコシステムには、こういうのがたくさんあるんですか?他のファイル共有システムでは、もっと多くの悪意ある攻撃者が侵入する機会があると思っていたのですが。

フリードマンは一言「はい」と答えた。

当然のことながら、この文書には「極秘 - 弁護士のみ閲覧可能」というラベルが貼られています。

この驚くべき事実は、たとえ同社が標準で提供しているわずか5GBとはいえ、iCloudの写真ストレージがデフォルトでオンになっているという事実によって説明できるかもしれない。つまり、ユーザーがオプトインする必要がある競合サービスとは対照的に、iCloudは写真用クラウドサービスとして最も利用されている可能性があるということだ。

AppleはCSAM問題に長らく注目しており、プライバシーを保護しながら検出する方法を模索してきたと述べています。この具体的な議論が、同社がこれらの取り組みを優先するきっかけとなったのかもしれません。

こうした背景は、Appleが顧客の写真をデバイス上でスキャンするという決定をめぐる論争に大きな影響を与える可能性は低いだろう。しかし、少なくとも、多くの人が同社のプライバシーに関する強いメッセージと矛盾していると考えている点について、ある程度の文脈を提供していると言えるだろう。もし私がティム・クックCEOの立場にいて、この問題に気づいたなら、間違いなく行動を起こしただろう。

しかし、同時に疑問も生じます。フリードマン氏はどのようにしてこの事実を知ったのでしょうか?iMessageはエンドツーエンドで暗号化されており、AppleはiCloudでCSAMをスキャンするつもりはなかったと述べています。もしAppleがCSAMスキャンを行っていなかったとしたら、自社のエコシステムにおける問題の深刻さをどのようにして把握できたのでしょうか?

進行中のCSAMをめぐる騒動は、最近、慌ただしい展開を見せています。政府や人権団体は、Appleに対し、計画されていたCSAMの導入を中止するよう求めています。ある開発者はAppleが使用しているコアアルゴリズムをリバースエンジニアリングし、別の開発者はそれを欺くことに成功しました。しかし、Appleが採用している安全対策により、現時点でわかっている限りでは、誤検知のリスクは現実世界では非常に低いと考えられます。

この暴露は、AppleのCSAMスキャン計画に対するあなたの見方を変えましたか?ぜひアンケートにご参加いただき、コメント欄でご意見を共有してください。

havebin.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。