TikTokのアルゴリズムが個人の選択に道を開き、ウサギの穴問題に取り組む

TikTokのアルゴリズムが個人の選択に道を開き、ウサギの穴問題に取り組む
TikTokのアルゴリズムが個人の選択に道を開き、ウサギの穴問題に取り組む
TikTokアルゴリズム | アプリのコンテンツに圧倒されている人物を示唆する、純粋に装飾的な画像

TikTokのアルゴリズムは、かつてこの動画ストリーミングアプリの成功の鍵であり、同時に最大の批判の対象でもありました。しかし今、TikTokはユーザーが見たくないトピックをフィルタリングできる機能を提供しています。

同社はまた、(ついに!)子供に適さない動画に年齢制限をかけるツールや、ユーザーが次々と憂鬱な動画や潜在的に有害な動画を見せられる「ラビットホール」問題に対処することを目的としたツールなど、新しい自動モデレーションツールも導入している。

TikTokは、YouTubeなどの従来の動画ストリーミングアプリとは異なり、アルゴリズムによってユーザーの視聴内容がはるかに厳密に制御されています。ユーザーが見たい動画を選ぶのではなく、最初に興味のあるものをいくつか選択するだけで、あとはアルゴリズムが主導権を握ります。

TikTok は、あなたが最後まで視聴した動画や、あなたが「いいね!」、共有、フォローした動画など、さまざまな信号を使用してあなたの好みを判断します。

このアプローチは、アプリのダウンロード数と利用率の両方から見て、同社にとって非常に成功したと証明されましたが、同時に厳しい批判も受けています。主な批判の一つは、ユーザーをすぐに「サイロ化」させてしまい、コンテンツのごく一部しか見ることができなくなってしまうという点です。

昨年実施された調査では、これが実際に危険である可能性があることが示されました。

あるボットは、悲しみと憂鬱を「興味」としてプログラムされていました。TikTokを使い始めて3分も経たないうちに、15本目の動画で[ボット] kentucky_96がこの[人生で大切な人を失った悲しい動画]に反応し、一時停止しました。Kentucky_96はこの35秒の動画を2回視聴しました。ここでTikTokは、この新規ユーザーが最近落ち込んでいるのではないかと初めて察知しました[…]

ユーザーはメンタルヘルスに関する動画で一時停止し、その後、元恋人を恋しく思うこと、前に進むためのアドバイス、恋人の関心を維持する方法などに関する動画を素早くスワイプして流します。しかし、kentucky_96さんは「#depression」というハッシュタグが付いたこの動画と、不安障害に関する動画をじっくりと見ています。

ボットの全体的な旅路全体で224本の動画、つまり総視聴時間約36分を経て、TikTokはkentucky_96に対する理解を固め始めた。うつ病やメンタルヘルスの苦悩に関する動画は、恋愛や別れに関する動画よりも多く見られる。ここから、kentucky_96のフィードは鬱に関するコンテンツの洪水となる。アカウントに表示される動画の93%は、悲しみや鬱に関するものだ。

また、TikTokは、7人の子供の死の原因になったと言われている「ブラックアウトチャレンジ」のような、特に危険なコンテンツをフィルタリングするのが非常に下手なようだ。

キーワードフィルター

TikTokは初めて、特定の単語やハッシュタグをブラックリストに登録することで、特定の種類のコンテンツをフィルタリングする機会をユーザーに提供します。

視聴者は既に「興味なし」機能を使って、同じクリエイターの動画や同じ音声を使用している動画を自動的にスキップできます。視聴者が視聴体験をさらにカスタマイズできるよう、「おすすめ」フィードや「フォロー中」フィードから、表示したくない単語やハッシュタグを含む動画を自動的にフィルタリングできるツールを導入します。例えば、家のリフォームが終わったばかりでDIYチュ​​ートリアルを見たくない場合や、植物性食品中心の食事に移行しているため乳製品や肉のレシピを減らしたい場合など、様々な用途でご利用いただけます。この機能は今後数週間以内にすべてのユーザーにご利用いただけるようになります。

年齢制限のある動画

TikTokはついに、子どもにふさわしくない動画に年齢制限を導入しました。以前は、子どものユーザーに動画が不適切な可能性があると警告しながらも視聴を許可していました。しかし、今回ついに、子どもがそのような動画を視聴できないようにする措置が取られました。

今後数週間以内に、13歳から17歳の視聴者に過度に成人向けのテーマを含むコンテンツが表示されないよう、早期版の導入を開始します。動画に成人向けまたは複雑なテーマ(例えば、若い視聴者には怖すぎる、または過激すぎる可能性のある架空のシーンなど)が含まれていると検出された場合、その動画に成熟度スコアが割り当てられ、18歳未満のユーザーがTikTok全体でその動画を視聴できないようにします。

TikTokのアルゴリズムは潜在的に有害なコンテンツを削減する

TikTok のアルゴリズムは、潜在的に有害なコンテンツのストリームによる「ラビットホール問題」に対処するようにも訓練されている。

昨年、ダイエット、エクストリームフィットネス、悲しみ、その他の健康に関するトピックなど、単一の動画であれば問題ないかもしれないが、繰り返し視聴すると問題が発生する可能性のあるトピックについて、類似したコンテンツをシリーズで推奨しないようにする方法のテストを開始しました。また、システムが意図せず視聴者に狭い範囲のコンテンツを推奨している可能性を認識する方法もテストしています。

米国でのテストと反復の結果、視聴者が一度に見るこれらのトピックに関する動画の数が少なくなり、視聴エクスペリエンスが向上しました。

写真: Florian Schmetz/Unsplash

havebin.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。