

2014年に起きたセレブのヌード「ハッキング」事件は、プライベートな写真をスマートフォン、特にiCloudのようなクラウドサーバーに保存することのリスクに注目を集めました。これはハッキングではないという私たちの疑念は正しかったものの、セキュリティの不備が写真を危険にさらす可能性があることを改めて浮き彫りにしました。
新しいアプリは、iPhone 内のヌード写真を自動的にスキャンし、アプリ内の保護された保管庫に移動して、カメラロールと iCloud の両方から削除することを目指しています…
The Verge は、2 人の開発者が最初にアプリを発表したとき、ほとんどの人から同じような反応があったと皮肉を込めて指摘しています。
少人数のチームでこのアプリを開発したジェシカ・チウ氏とYCチェン氏は、先日開催されたTechCrunch Disruptカンファレンスでアプリのプロモーションを行った際、問い合わせが絶えなかったと語った。「皆、『ヌード写真は撮っていないんだけど、もっと詳しく教えてもらえる?』と言っていました」
この開発のきっかけは、映画プロジェクトの一環としてチウ氏がハリウッド女優と話したことから生まれた。
彼女によると、皆が携帯電話やノートパソコンに機密性の高い画像を保存しており、それらを安全に保管する方法に疑問を抱いていたという。チウさんはバークレーに戻ると、友人たちが最近撮った写真を見せるために携帯電話を彼女に渡すのだが、彼女はついついスワイプしすぎてヌード写真を見てしまうのだ。
もちろん、ヌード写真を検出するためにオンライン サーバーを使用する必要がある場合、ヌード写真をクラウドから排除するアプリを開発してもあまり意味がありません。そのため、Apple の CoreML フレームワークが鍵となりました。
重要なのは、デバイス上の画像がNude本体に送信されることはないということです。これは、AppleがiOS 11で導入した機械学習フレームワーク「CoreML」のおかげで実現しています。これらのライブラリにより、開発者は画像をサーバーに送信することなく、デバイス上で画像認識などの機械学習を多用するタスクを実行できます。
チームが直面した課題の 1 つは、CoreML が分析するために大量のヌード写真の例を必要とすることであり、これはポルノサイトからスクレイピングして提供されました。
チウ氏とチェン氏は、既存のオープンソースデータセットを用いてヌード画像を検出しようと試みました。しかし、特に有色人種の場合、結果が不正確であることが多いことが分かりました。そこで彼らは、PornHubなどのサイトから代表的な画像をスクレイピングするソフトウェアを開発し、最終的に3000万枚の画像コレクションを構築しました。
Nude は App Store から無料でダウンロードできますが、月額 0.99 ドルのアプリ内購入が必要です。
Apple のニュースをもっと知りたい場合は、YouTube の 9to5Mac をご覧ください。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。