

X と Meta の両社によるコンテンツ モデレーションの重大な失敗は、来年の大統領選挙に影響を及ぼす意図的な偽情報と不注意による誤情報の両方のリスクを浮き彫りにしています…
Xによる重大なモデレーションの失敗
Wired は、イスラエルでの恐ろしいテロ攻撃を受けて X に偽の投稿があったと報じている。
Xユーザーには、検証・事実確認された情報ではなく、ハマスの攻撃映像と偽ったビデオゲームの映像や、アルジェリアの花火大会の映像をイスラエルによるハマス攻撃の映像として提示された。サッカー界のスーパースター、ロナウドがパレスチナ国旗を掲げている偽の画像や、シリア内戦の3年前の映像をまるで今週末に撮影されたかのように見せかけたものもあった。
Xのオーナーであるマスク氏は、ホワイトハウス近くの爆発に関する偽情報の投稿を以前行っていた2つの「ニュース」ソースにユーザーを誘導したが、これは役に立たなかった。
さらに、Xのポリシーに最近変更が加えられたことで、デマの摘発が難しくなる可能性があります。The Vergeによると、認証済みアカウント(つまり、有料サブスクリプションを選択したアカウント)は、通常のXユーザーからの返信をブロックできるようになりました。これにより、反論されることなく偽情報を投稿することがはるかに容易になります。
Facebookもあまり良くない
Facebookも、それほど状況は良くないようだ。Engadgetは、Facebookが不可解にもオンラインに残したままにしたバイデン大統領の編集済み動画について報じている。
昨年秋に撮影された、バイデン氏が初めて直接投票に行った孫娘に同行した際の動画。投票後、バイデン氏は孫娘のシャツに「投票しました」と書かれたステッカーを貼った。その後、あるFacebookユーザーが編集版をシェアし、バイデン氏が孫娘の胸を何度も触っているように見せかけている。動画のキャプションには、バイデン氏を「病的な小児性愛者」と呼び、彼に投票した人々は「精神的に不安定」だと記されていた。[…]
監視委員会によると、Facebookユーザーがこの動画を報告したが、Metaは最終的にルール違反ではないとして動画をそのまま残した。監視委員会が指摘するように、Metaによるメディア操作は ポリシー 誤解を招く動画を禁止 作成者 人工知能による不正な編集には適用されますが、従来の技術による不正な編集には適用されません。
選挙の公正性に対するリスクを浮き彫りにする
ソーシャルメディアプラットフォーム上で偽の投稿が容易に拡散するということは、来年の大統領選挙がボットファームを運営する個人と国家の両方によって影響を受けるという非常に重大なリスクを浮き彫りにしている。
CIA、FBI、NSAはいずれも、ロシアが2016年の大統領選挙に干渉し、来年もほぼ確実に干渉するだろうという点で一致している。対抗措置は進展しているものの、当時のTwitterが導入した対策のほとんどは、マスク氏の買収後に撤回された。
写真: Dole777/Unsplash
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。