
世界中の90以上の公民権団体が、いわゆるiPhoneの監視機能に反対し、Apple社にCSAMスキャンの計画を断念するよう求める公開書簡に署名した。
さらに、彼らは、若いゲイの人々を危険にさらす可能性があるため、iPhoneメーカーにiMessageのヌード検出計画を中止するよう求めている。
この書簡に署名した団体には、アメリカ自由人権協会(ACLU)、カナダ自由人権協会、オーストラリアのデジタル・ライツ・ウォッチ、英国のリバティ、そして国際的なプライバシー・インターナショナルなどが含まれている。
この書簡は、多くの人が指摘してきた、抑圧的な政府による悪用という主なリスクを強調している。
この機能が Apple 製品に組み込まれると、同社とその競合他社は、CSAM だけでなく政府が不適切と考えるその他の画像についても写真をスキャンするよう、世界各国政府から多大な圧力 (場合によっては法的要件) に直面することになるだろう。
こうした画像には、人権侵害や政治的抗議活動、企業が「テロリスト」や暴力的過激主義コンテンツとしてタグ付けした画像、さらには企業にスキャンを強制する政治家自身の好ましくない画像などが含まれる。
そして、その圧力はiCloudにアップロードされた画像だけでなく、デバイスに保存されているすべての画像に及ぶ可能性があります。こうしてAppleは、世界規模での検閲、監視、そして迫害の基盤を築いたことになります。
しかし、子供のiMessageアカウントを個別にスキャンしてヌード画像を探すという、iPhone監視の別の形も、子供を危険にさらす可能性があると述べている。
Appleが開発したシステムは、対象となる「親」アカウントと「子」アカウントが、実際には子供の親である成人のものであり、両者が健全な関係にあることを前提としています。しかし、必ずしもそうとは限りません。虐待的な成人がアカウントの管理者である場合もあり、保護者への通知によって子供の安全と幸福が脅かされる可能性があります。特に、思いやりのない親を持つファミリーアカウントを利用しているLGBTQ+の若者は、危険にさらされています。
同社は、組織はアップルの意図を尊重するが、同社はプライバシーの価値を堅持すべきだと述べている。
私たちは、子どもを守るための取り組みを支持し、CSAMの蔓延に断固として反対します。しかし、Appleが発表した変更は、現在そして将来において、子どもをはじめとするユーザーを危険にさらすものです。Appleに対し、これらの変更を撤回し、エンドツーエンドの暗号化によってユーザーを保護するという同社のコミットメントを再確認するよう強く求めます。また、Appleに対し、市民社会団体や、製品・サービスの変更によって不均衡な影響を受ける可能性のある脆弱なコミュニティと、より定期的に協議を行うことを強く求めます。
これは、ドイツ議会が数日前にアップルに同様の書簡を送ったことを受けたものだ。
ロイター経由
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。
