

9to5Macが昨日報じたように、AppleのiCloud写真における児童性的虐待コンテンツ(CSAM)検出機能は、まず米国で導入される。ただし、Appleは本日、米国以外への展開は、各国の法律や規制に応じて各国ごとに行われると発表しました。
9to5Macが昨日報じたように、この新機能により、AppleはiCloudフォトに保存されている既知のCSAM画像を検出できるようになります。この機能は一部から強い反発を受けていますが、Appleは子供の安全を守るために必要であり、プライバシーに配慮して開発を進めていると約束しています。
最もよく聞かれる懸念の一つは、他国の政府がこのシステムを他の目的で利用しようとした場合に何が起こるかということですが、この機能はリリース当初は米国でのみ利用可能です。エドワード・スノーデン氏や電子フロンティア財団など、様々な著名な関係者から懸念の声が上がっています。
EFFは次のように書いている。
Appleが構築している狭いバックドアを広げるには、機械学習のパラメータを拡張して他の種類のコンテンツを探すか、設定フラグを微調整して子供のアカウントだけでなく誰のアカウントもスキャンできるようにするだけで十分だ。これは危険な道ではなく、外部からの圧力によってわずかな変更が加えられるのを待つだけの、既に構築済みのシステムなのだ。
Appleは本日、 9to5Macに対し、CSAM検出機能の米国以外への展開は、各国の法規制に基づき、各国ごとに実施されることを確認しました。ただし、CSAM検出機能を他の国に展開するかどうか、あるいはいつ展開するかについては、具体的なスケジュールは明らかにしていません。
Appleは伝統的に、米国で最初に機能をリリースしています。これは、米国が同社にとって最大の市場であり、現地の法律や規制に最も精通している市場だからです。新しいCSAM検出システムも、まさにその例です。
Apple によるこの CSAM 検出機能の実装は高度な技術を要するため、詳細については以下のリンクを参照してください。
- CSAM検出の詳細な技術概要
- ベニー・ピンカス教授によるCSAM検出の技術的評価
- Apple.com の新しい子どもの安全に関するランディングページ
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。
