DM内のヌード写真はInstagramユーザーによって自動的にブロックされる可能性がある

DM内のヌード写真はInstagramユーザーによって自動的にブロックされる可能性がある
DM内のヌード写真はInstagramユーザーによって自動的にブロックされる可能性がある

Metaは、InstagramのDMでヌード写真を自動的にブロックできる機能を開発中であることを確認しました。検出対象となる画像の性質は明らかにされていませんが、多くの女性が晒されている、一方的なヌード写真のブロックにつながることを期待しています。

開発者兼リバースエンジニアのAlessandro Pulazzi氏が、この機能の証拠を発見しました。

Instagram はチャットでのヌード保護に取り組んでいます 👀

お使いのデバイスの技術により、チャット内のヌードを含む可能性のある写真はブロックされます。Instagram は写真にアクセスできません。

彼は、この機能を有効にするようユーザーに促されたときに表示される画面のスクリーンショットを投稿した。

  • ヌードを安全に検出し、隠します。デバイスの技術により、チャット内のヌードを含む可能性のある写真が隠されます。Instagramは写真にアクセスできません。
  • 写真を表示するかどうかを選択します。表示を選択しない限り、写真は覆われたままになります。
  • 安全に関するヒントをご覧ください。デリケートな写真を扱う際に安全を確保する方法を学びましょう。
  • 設定でいつでも更新をオンまたはオフにできます。

Instagramの所有者MetaはThe Vergeに対し、この機能が開発中であることを確認した。

Meta 社によると、まだ開発の初期段階にあるオプションのユーザー コントロールは、ヌード写真やその他の迷惑メッセージからユーザーを守るのに役立つとのことです。

このテクノロジー大手は、これらの制御を、ユーザーが不快なコンテンツを含むダイレクトメッセージのリクエストを自動的にフィルタリングできる「隠し単語」機能に例えました。

同社はユーザーのプライバシーは保護されていると強調し、今後数週間以内に詳細を発表することを約束した。

Metaによると、この技術によってMetaが実際のメッセージを閲覧したり、第三者と共有したりすることはないという。「これらの新機能がユーザーのプライバシーを保護しつつ、受信するメッセージをユーザーがコントロールできるよう、専門家と緊密に連携しています」とMetaの広報担当者リズ・フェルナンデス氏は述べた。

DMで送られてくる一方的なヌード写真を含む、虐待的なメッセージは、特に女性にとって深刻な問題となっています。昨年の調査によると、アメリカ人女性の43%がオンラインでの虐待を経験しており、そのうち3分の1がセクハラ被害を報告しています。

若い女性は特にオンライン上でセクハラ被害に遭う可能性が高く、35歳未満の女性の33%がオンライン上でセクハラ被害を受けたと回答しています。一方、35歳未満の男性では11%が同様の回答をしています。

デジタルヘイト対策センターの別の報告書によると、著名女性が受け取ったインスタグラムのダイレクトメッセージのうち約6%が虐待的な内容で、ソーシャルメディアプラットフォームは報告の90%に対応していなかったことが判明した。

背景画像: Ray Mallick/Unsplash

havebin.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。