
Apple は、写真スキャン機能の発表に関する誤解や懸念に応えて、機能に関するよくある質問に回答する CSAM FAQ を公開しました。
児童安全団体は、児童性的虐待素材(CSAM)の所持を検出し、子供たちを捕食者から守るためのAppleの計画を歓迎したが、知識に基づく批判と無知に基づく批判が入り混じっている…
背景
Apple が 3 つの別々の措置を同時に発表したため、主流メディアで混乱が生じ、技術者以外の多くの人が最初の 2 つを混同しました。
- iCloudファミリーグループ内の子供に対するiMessageの不適切な写真に関する警告
- デジタル指紋をスキャンして既知のCSAM写真を検出する
- SiriやCSAM資料の検索リクエストに警告とヘルプへのリンクを表示して応答する
Appleが採用している手法についても、十分な理解が得られていない。iMessageの場合、デバイスに搭載されたAIを用いてヌードと思われる画像を検出している。CSAMの場合、デジタル指紋とユーザーが保存した写真から生成された指紋を比較している。
いずれの場合も、複数の CSAM 写真を持っているとフラグが立てられた人を除いて、Apple の誰も写真を見ることはできません。その場合、法執行機関に報告する前に、Apple の誰かが低解像度のコピーを手作業でチェックし、完全に一致していることを確認します。
また、現状の機能によるプライバシーと悪用リスク(ゼロか極めて低い)と、将来的に独裁政権による悪用の可能性との間で混同が生じている。サイバーセキュリティの専門家は、前者ではなく後者について警告を発している。
Appleは既に、抑圧的な政府による懸念に対処するため、現時点では米国のみでの提供とし、各国の法制度を考慮しながら、各国ごとに展開していくと表明しています。今回のFAQでは、この問題をはじめとする様々な問題への対応を試みています。
Appleは、提起された懸念の一部に対処するため、6ページにわたるFAQを公開しました。FAQはまず、さまざまな反応があったことを認めています。
私たちは、コミュニケーションツールを利用して子どもたちを勧誘し搾取しようとする捕食者から子どもたちを守り、児童性的虐待コンテンツ(CSAM)の拡散を抑制したいと考えています。これらの機能を発表して以来、プライバシー保護団体や児童安全団体を含む多くの関係者から、この新しいソリューションへの支持が表明され、中には質問も寄せられています。本文書は、これらの疑問に答え、プロセスの明確さと透明性を高めることを目的としています。
同社は、最初の 2 つの機能は完全に別個のものであることを強調しています。
メッセージの通信の安全性と iCloud フォトの CSAM 検出の違いは何ですか?
これら 2 つの機能は同じではなく、同じテクノロジを使用していません。
メッセージアプリのコミュニケーションの安全性は、メッセージアプリで性的に露骨な画像を送受信するのを防ぐための追加ツールを保護者とお子様に提供するように設計されています。これは、ファミリー共有で設定されたお子様のアカウントのメッセージアプリで送受信された画像にのみ適用されます。画像はデバイス上で分析されるため、メッセージのプライバシー保護は変更されません。お子様のアカウントが性的に露骨な画像を送受信すると、写真がぼかされ、お子様に警告が表示され、役立つリソースが提示されます。また、写真の閲覧や送信を希望しなくても大丈夫であることが伝えられます。さらに、小さなお子様には、安全確保のため、万が一写真を閲覧した場合は保護者にメッセージが届くことを伝えることができます。
2つ目の機能であるiCloud写真におけるCSAM検出は、既知のCSAM画像と一致する写真以外の写真に関する情報をAppleに提供することなく、iCloud写真からCSAMを排除するように設計されています。CSAM画像は、米国を含むほとんどの国で所持が違法です。この機能は、写真の保存にiCloud写真を使用しているユーザーにのみ影響します。iCloud写真を使用していないユーザーには影響しません。デバイス上のその他のデータには影響しません。この機能はメッセージには適用されません。
FAQ で強調されているその他の点は次のとおりです。
- 子どもとのiMessageは法執行機関と共有されることはありません
- iMessageはエンドツーエンドで暗号化されたまま
- 虐待的な親を持つ子供は、テキストのみを使用する場合、iMessageを介して安全に助けを求めることができます
- 12歳以下の子供が警告にもかかわらず先へ進んだ場合にのみ、保護者に通知されます。
- CSAM指紋の一致は、法執行機関に通知される前に手動で確認されます。
最も難しい問題は
EFFなどが提起した最大の懸念は依然として残っている。現在のシステムはCSAM画像のみをフラグ付けしているが、抑圧的な政府がAppleにデータベースを提供し、例えば中国で検閲されている天安門広場の有名な戦車男の写真など、他の素材も含まれる可能性がある。
これに対し、Apple はこれを許可しないと回答しました。
政府は Apple に非 CSAM 画像をハッシュ リストに追加するよう強制できるでしょうか?
Appleはそのような要求を一切拒否します。AppleのCSAM検出機能は、iCloudフォトに保存され、NCMECやその他の児童安全団体の専門家によって特定された既知のCSAM画像を検出することのみを目的として構築されています。私たちはこれまで、ユーザーのプライバシーを低下させる政府義務の変更の構築と展開の要求に直面し、断固として拒否してきました。今後も引き続きこれらの要求を拒否します。この技術はiCloudに保存されているCSAMの検出に限定されており、政府からの拡張要求には応じないことを明確にしておきます。さらに、AppleはNCMECへの報告前に人間によるレビューを実施しています。システムが既知のCSAM画像と一致しない写真にフラグを付けた場合、アカウントは無効化されず、NCMECへの報告も行われません。
しかし、この声明はAppleが法的に拒否する自由を持っていることを前提としています。例えば中国では、AppleはVPN、ニュース、その他のアプリを削除し、中国国民のiCloudデータを政府系企業が所有するサーバーに保存することを法的に義務付けられています。
政府が提供する「CSAM画像」データベース(批評家や抗議者が使用した資料と一致するものも含む)の処理に関する将来の要件にAppleが従わないと約束することは現実的に不可能である。同社は中国などの国での行動を弁明する際にしばしば述べているように、Appleは事業を展開する各国の法律を遵守している。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。
