Apple、児童の安全を守るよう新たな圧力に直面:「児童性的虐待はiCloudに保存されている。Appleはそれを容認している」c

Apple、児童の安全を守るよう新たな圧力に直面:「児童性的虐待はiCloudに保存されている。Appleはそれを容認している」c
Apple、児童の安全を守るよう新たな圧力に直面:「児童性的虐待はiCloudに保存されている。Appleはそれを容認している」c

2年前、Appleはデバイス上で処理を行い、児童性的虐待コンテンツを検出するシステムを含む、いくつかの新しい子ども向け安全機能を発表しました。プライバシーを重視した実装にもかかわらず、この機能に対する強い反発を受け、Appleは最終的に計画を断念しました。

現在、Apple は CSAM に対してよりよい措置を取るよう、擁護団体や物言う投資家からの新たな圧力に直面している。

Wiredが最初に報じたように、児童安全 擁護団体Heat Initiativeは、この問題についてAppleに圧力をかけるため、数百万ドル規模のキャンペーンを開始した。今朝、AppleはHeat Initiativeのキャンペーンに対する反応を報じ、CSAM検出機能の実装が前例となる可能性があることを認めた。

「例えば、ある種類のコンテンツをスキャンすると、大量監視の扉が開かれ、他の暗号化メッセージングシステムをコンテンツの種類を超えて検索したいという欲求が生まれる可能性がある」と、アップルのユーザープライバシーおよび子供の安全担当ディレクター、エリック・ノイエンシュワンダー氏はWiredとのインタビューで語った。

Heat Initiativeによる本格的なキャンペーンが正式に開始されました。キャンペーンのウェブサイトでは、Heat InitiativeはAppleに対して強硬な姿勢を示しています。キャンペーンには、「児童性的虐待コンテンツがiCloudに保存されている。Appleはそれを容認している」といった言葉も含まれています。

キャンペーンでは次のように説明している。

2021年にAppleが児童性的虐待画像・動画の検出を発表した画期的な出来事は、ひそかに撤回され、世界中の子どもたちの生活に影響を与えました。日を追うごとに、この不作為によって苦しむ子どもたちが生まれています。だからこそ、私たちはAppleに対し、その約束を果たすよう求めます。

この擁護団体は、Appleに対し「iCloudから児童性的虐待の画像や動画を検出、報告、削除」するよう求めている。また、Appleに対し「ユーザーが児童性的虐待の画像や動画をAppleに報告できる強力な報告メカニズムを構築する」ことも求めている。

キャンペーンのウェブサイトには、iCloudが性的虐待の写真や動画の保存に使用された事例を詳細に説明した「ケーススタディ」が複数掲載されています。また、「Appleの経営陣に直接メールを送信」というボタンも設置されており、このボタンをクリックすると、Appleの経営陣全員に一斉メールを送信するためのメールフォームが開きます。

Heat Initiativeはティム・クック氏に宛てた書簡も送り、その中で同団体はAppleの不作為が「子供たちを危険にさらしている」と主張している。

私たちの最近の調査では、Appleデバイス上で記録・拡散され、iCloudに保存されていた児童性的虐待の事例が数百件見つかりました。もしAppleがこれらの画像や動画を検出していれば、多くの子どもたちはもっと早く虐待から救われていたでしょう。

だからこそ、あなたがそのような有害コンテンツを検出し始める決断をしたその日、子どもたちは特定され、性的虐待に耐える必要がなくなるのです。待つことは、子どもたちを危険にさらし続け、被害者や経験者の癒しを妨げます。

しかし、Heat Initiativeの迫り来る広告からの圧力に加え、Appleはこの件に関して投資家からの圧力にもすぐに直面することになるだろう。9to5Mac、Christian Brothers Investment Servicesが、CSAM検出の改善に向けた措置をAppleに求める株主決議書を提出する予定であることをつかんだ。

クリスチャン・ブラザーズ・インベストメント・サービスは、「カトリックの社会的責任を重視する投資運用会社」を自称しています。この提案は、ヒート・イニシアティブの広告キャンペーンにも影響を与えていると考えられています。また、ニューヨーク・タイムズ紙は、ベルギーの投資会社デグルーフ・ペーターカムもこの決議を支持すると報じています。

以前も説明したように、これはAppleを窮地に追い込むものです。プライバシー擁護派は、同社によるCSAM検出機能の初期導入を危険な前例と見なしています。一方、児童安全擁護派は、Appleの対策が不十分だと主張しています。

Apple は、既知の CSAM 画像を iCloud に保存する際に検出する計画を断念しましたが、他の多くの子供の安全機能を実装しています。

Chanceをフォロー:Threads、Twitter、Instagram、Mastodon。セント・ジュード小児研究病院へのご寄付もお待ちしております。

havebin.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。