報道:Apple、ユーザーの写真ライブラリ内の児童虐待画像を検出するクライアント側の写真ハッシュシステムを発表へc

報道:Apple、ユーザーの写真ライブラリ内の児童虐待画像を検出するクライアント側の写真ハッシュシステムを発表へc
報道:Apple、ユーザーの写真ライブラリ内の児童虐待画像を検出するクライアント側の写真ハッシュシステムを発表へc
iPhoneアプリのプライバシー

更新:公式発表されました。主要なソーシャルネットワークやウェブサービスのポリシーに従い、お使いのスマートフォンはiCloudにアップロードされた写真のみをスキャンするようになります。(参考までに、原文を以下に引用します。)

Appleは、ハッシュアルゴリズムを使用して、ユーザーの写真ライブラリ内の写真の内容を児童ポルノなどの既知の児童虐待資料と照合する新しい写真識別機能を発表する予定であると報じられている。

Appleのシステムはプライバシー保護のため、クライアント、つまりユーザーのデバイス上で実行されるため、iPhoneは違法コンテンツを示すフィンガープリントのセットをダウンロードし、ユーザーのカメラロールにある各写真をそのリストと照合する。おそらく、一致した写真があれば報告され、人間による確認が行われるだろう。

Appleは以前、写真をiCloudにアップロードする際にハッシュ化技術を採用していると発表していました。この新しいシステムは、ユーザーのデバイス上のクライアント側で実行されます。Appleはこの新しい取り組みをまだ正式に発表しておらず、詳細が重要になります。

大まかに言えば、この種のシステムは、Appleのフォトアプリに既に搭載されている物体やシーンを識別する機械学習機能に似ています。分析はデバイス上で行われ、ユーザーはより優れた検索機能を利用できます。

しかし、暗号学とセキュリティの専門家であるマシュー・グリーン氏は、このような導入の影響は複雑だと指摘しています。ハッシュアルゴリズムは完璧ではなく、誤検知を引き起こす可能性があります。Appleが政府に指紋コンテンツデータベースの管理を許可した場合、政府はこのシステムを利用して、明らかに違法な児童向けコンテンツ以外の画像を検出し、例えば政治活動を抑制するといったことに利用できるようになるかもしれません。

ただし、バックアップと同期のためにiCloudフォトにアップロードされた写真は、エンドツーエンドで暗号化された状態で保存されるわけではないことに注意してください。写真はAppleのサーバーファームに暗号化された状態で保存されますが、復号化するための鍵もAppleが所有しています。つまり、法執行機関はAppleに召喚状を発行し、ユーザーがアップロードしたすべての写真を閲覧できるということです。(これは珍しいことではなく、すべてのサードパーティ製写真サービスはこのように機能しています。)

将来、Appleが同様のシステムを導入し、クライアント側でコンテンツをスキャンし、エンドツーエンドで暗号化された状態でサーバーに保存する可能性もあります。多くの政府は、暗号化通信への移行が進むことで、法執行機関による児童虐待事件の発見と訴追が困難になることを懸念し、iMessageやWhatsAppなどのエンドツーエンドのプライベートメッセージングアプリにこのようなシステムを導入するよう求めています。

グリーン氏は、エンドツーエンドで暗号化されたコンテンツにこのシステムを適用することが長期的な目標でなかったら、Apple はこのシステムの開発に投資しなかっただろうと推測している。

havebin.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。