

Appleは先週発表したCSAM(児童性的虐待素材)検出機能について、引き続き明確な説明を行っています。本日公開された詳細なFAQに加え、AppleはCSAM検出はiCloudフォトに保存されている写真のみに適用され、動画には適用されないことも発表しました。
同社はまた、CSAM 検出の実装が他社よりもプライバシーに配慮し、プライバシーを保護するものであると主張し続けている。
Appleは本日、サービス開始時点ではCSAM検出はiCloudフォトに保存されている写真のみに適用され、動画は対象外となることを確認しました。しかしながら、CSAMコンテンツにおける動画の急増を踏まえ、同社は将来的にさらなる対策が可能であり、計画を段階的に拡大・進化させていく可能性があると認めています。
AppleのCSAM検出スキャンの仕組みを少し振り返ってみると、この考えは理にかなっています。すべての照合はデバイス上で行われ、Appleは全米行方不明・被搾取児童センターの写真データベースを「ユーザーのデバイスに安全に保存される、判読不能なハッシュ値」に変換します。デバイス上のデータベースと写真が照合され、デバイス上で一致が確認できれば、デバイスは一致結果を暗号化した安全バウチャーを作成します。
Appleはまた、ユーザーがiCloudフォトを利用していない場合、CSAM検出プロセスは実行されないことを強調しています。つまり、ユーザーがCSAM検出プロセスをオプトアウトしたい場合は、iCloudフォトを無効にすることができます。
最後に、Appleは、自社のデバイス上でのCSAM検出の実装が、他社が採用しているサーバー側の実装よりもはるかに優れていると確信している理由を改めて強調しています。Appleの説明によると、他社の実装では、ユーザーがサーバーに保存したすべての写真をスキャンする必要があり、そのほとんどはCSAMではありません。
AppleのCSAM検出の実装では、Appleサーバーがすべての写真のスキャンを行う必要はありません。デバイス上で処理を移行することで、Appleの方法はより安全になり、サーバー側ですべての画像をスキャンするのではなく、画像のハッシュを既知のCSAM画像のNCMECデータベースと照合するだけになるように設計されています。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。
