Apple、CSAM検出システムと子ども向け安全機能の導入を延期c

Apple、CSAM検出システムと子ども向け安全機能の導入を延期c
Apple、CSAM検出システムと子ども向け安全機能の導入を延期c
AppleはCSAM論争にどう対応するのか

先月、AppleはiCloudフォトのCSAM検出機能など、物議を醸したいくつかの新しい子ども向け安全機能を発表しました。Appleは現在、これらの機能を一般公開する前に「さらに時間をかけて」改良すると発表しました。

Appleは9to5Macへの声明で次のように述べた。

先月、コミュニケーションツールを利用して子どもたちを勧誘し搾取しようとする犯罪者から子どもたちを守り、児童性的虐待コンテンツの拡散を抑制するための機能計画を発表しました。お客様、支援団体、研究者などからのフィードバックに基づき、今後数ヶ月かけてさらに時間をかけて意見を集め、改善を行った上で、これらの極めて重要な子どもの安全に関する機能をリリースすることを決定しました。

Appleの新しいチャイルドセーフティ機能は、今年後半にiOS 15、iPadOS 15、macOS Montereyのアップデートの一部としてリリースされる予定でした。現時点では、これらの機能の展開時期については何も発表されていません。Appleの本日の声明では、システムを改善するためにどのような変更を加える可能性があるのか​​、詳細は明らかにされていません。

念のため、現在設計されている CSAM 検出システムの動作の基本を以下に示します。

Appleの既知のCSAM検出方法は、ユーザーのプライバシーを考慮して設計されています。クラウドで画像をスキャンする代わりに、システムはNCMECやその他の児童安全機関が提供する既知のCSAM画像ハッシュのデータベースを用いて、デバイス上で照合を行います。Appleはさらに、このデータベースを読み取り不可能なハッシュセットに変換し、ユーザーのデバイスに安全に保存します。

画像がiCloudフォトに保存される前に、デバイス上で既知のCSAMハッシュと照合するマッチング処理が実行されます。このマッチング処理は、秘密集合交差と呼ばれる暗号化技術を利用しており、結果を公開することなく一致の有無を判断します。デバイスは、マッチング結果と画像に関する追加の暗号化データをエンコードした暗号化安全バウチャーを作成します。このバウチャーは、画像と共にiCloudフォトにアップロードされます。

新しいCSAM検出技術は発表当初、プライバシー保護団体からかなりの反発と批判を受けました。しかし、Appleはこの機能について何度も強調し、その実装はGoogleやFacebookなどの他社が使用している技術よりもプライバシー保護に優れていると述べました。

このプロセスを通じて、Apple がすでに iCloud メールを CSAM スキャンしており、その拡張が iCloud 写真にも適用されていることも明らかになりました。

先月 Apple が発表し、現在延期されているその他の子供の安全機能には、メッセージの通信安全機能や、Siri と検索に関する知識情報の更新などがある。

Appleが新しいチャイルドセーフティ機能の導入を延期するという決定について、どう思いますか?これは正しい決定だったのでしょうか?それとも、当初の計画を堅持すべきだったのでしょうか?

havebin.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。