Appleのプライバシー担当幹部が新たなインタビューでCSAM検出システムの詳細を語るc

Appleのプライバシー担当幹部が新たなインタビューでCSAM検出システムの詳細を語るc
Appleのプライバシー担当幹部が新たなインタビューでCSAM検出システムの詳細を語るc

先週、Appleは自社デバイスにおける子供の安全を目的とした3つの新機能を発表しました。その意図は良いものですが、これらの新機能は厳しい批判にさらされており、一部の組織や大手IT企業のCEOはAppleの発表に反対しています。

同社は、これらの新機能とその仕組みに関するFAQを公開しました。そして今、さらなる論争を避けるため、Appleのプライバシー責任者であるエリック・ノイエンシュワンダー氏は、TechCrunchとのインタビューで、CSAMを検出する新しいシステムに関する懸念について言及しました。

お子様を保護するためのこれらの機能は、iCloudフォトのCSAM検出、メッセージのコミュニケーションセーフティ、Siriと検索の介入を利用しています。これらの対策は同時に発表され、相互に関連していますが、実際にはそれぞれ異なる目的で使用されています。例えば、

  • iCloud フォトでの CSAM 検出: NeuralHash と呼ばれる検出システムが、国立行方不明・被搾取児童センターの ID を識別して比較し、iCloud フォト ライブラリ内の既知の CSAM コンテンツを検出します。
  • メッセージにおけるコミュニケーションの安全性:保護者は 13 歳未満のお子様のデバイスでこの機能をオンにすることができ、お子様が表示しようとしている画像が不適切な内容であると検出された場合に警告が表示されます。
  • Siri と検索への介入:ユーザーが Siri と検索を通じて CSAM 関連の用語を検索しようとすると、ユーザーに介入が通知され、リソースが提供されます。

これらすべての詳細については、こちらをご覧ください。

TechCrunchはノイエンシュワンダー氏へのインタビューで、ユーザーの懸念事項のいくつかに触れています。例えば、ノイエンシュワンダー氏は、AppleがiCloudフォトのCSAM検出機能と同時にメッセージアプリのコミュニケーションセーフティ機能を発表した理由を次のように説明しています。

AppleのiCloudフォトサービスに保存されている既知のCSAMのコレクションを特定することは重要ですが、すでに深刻な状況の根底にある原因究明に取り組むことも重要です。(…) 人々がこうした問題のある有害な領域に足を踏み入れ始めたとき、あるいは虐待者が既に子供をグルーミングしたり、虐待が起こり得る状況に引き込もうとしているときに、早期に介入することも重要です。メッセージにおけるコミュニケーションの安全性、そしてSiriや検索への介入は、まさにこうしたプロセスのまさにその部分を狙っています。つまり、私たちはCSAMにつながる悪循環を断ち切り、最終的にシステムによって検出される可能性を排除しようとしているのです。

サイトのデフォルトロゴ画像

もう一つの懸念は、政府や政府機関がこの措置で裏口を見つけようとするのではないかということだが、ノイエンシュヴァンダー氏は、Appleは「違法行為に従事していないすべての人のプライバシーを侵害しない」つもりだと説明している。

政府がこの新しいシステムに侵入しようとした場合、Apple を信頼すべきかどうか尋ねられると、Apple のプライバシー責任者は次のように答えた。

まず、これは米国の iCloud アカウントのみを対象に開始されており、そのように述べる場合、仮説では一般的な国や米国以外の国が取り上げられるようです。そのため、米国の法律では政府にこうした機能を提供していないことに人々は同意しているようです。

しかし、システム変更の試みについて話している場合でも、システムには多くの保護機能が組み込まれているため、特に問題となる画像を保有している個人を特定するのにはあまり役に立ちません。ハッシュリストはオペレーティングシステムに組み込まれており、私たちは単一のグローバルオペレーティングシステムを使用しており、個々のユーザーに合わせて更新を行うことができません。そのため、システムが有効になると、ハッシュリストはすべてのユーザーで共有されることになります。

Neuenschwander 氏はまた、iCloud フォトが無効になっていると NeuralHash は実行されず、バウチャーも生成されないことを強調しています。

ユーザーがiCloudフォトを使用していない場合、NeuralHashは実行されず、バウチャーも生成されません。CSAM検出は、ニューラルハッシュをオペレーティングシステムイメージに含まれる既知のCSAMハッシュのデータベースと比較するものです。iCloudフォトを使用していない場合、この部分だけでなく、安全性バウチャーの作成やiCloudフォトへのバウチャーのアップロードなどの追加部分も機能しません。

続きを読む

  • 米国におけるCSAMスキャンの悪用は憲法修正第4条によって阻止されているとCorelliumは主張している
  • Facebookの元セキュリティ責任者がAppleの児童保護論争にコメント
  • AppleはCSAM検出が写真にのみ適用されることを確認し、他のソリューションに対して自社の方法を擁護している

havebin.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。