YouTubeに欠かせない「おすすめ動画」アルゴリズム、人体に影響を及ぼすおそれはあるのか?

近年、YouTubeの人気が高まっていることは読者の方々もご存じのことだろう。「YouTuber」という新たなポジションを生み出し、若者を中心に多くの人が日々視聴している。そんなYouTubeの便利機能のひとつにある「おすすめ動画」機能も、YouTubeを視聴しやすくしているポイントのひとつだろう。しかしそんなおすすめ動画にも、とある危険性がある可能性が浮上してきたのだ。

「YouTubeで思想は偏るのか」検証結果が発表される

(Image:A9 STUDIO / Shutterstock.com)

YouTube独自のアルゴリズムで表示される動画を見続けると、思想は偏ってしまうのか?

 YouTubeといえば、いまや若年層にはテレビに代わる存在として愛用されるメディアだ。アメリカのDomoによれば、「1分間で500時間分の動画がアップロードされている」といい、日本のSheepDogが2021年5月に発表した調査結果によれば20代のおよそ20%が「1日3時間以上YouTubeを視聴している」ようだ。

 そしてYouTubeをスムーズに視聴するにあたって欠かせない機能が「おすすめ動画」の機能だ。ユーザーの視聴履歴などを基に、独自のアルゴリズムで割り出された動画が表示されるのだが、その動画を見続けることで「思想が偏る」という懸念がこれまでも存在していたことを知っている方もいるかもしれない。

 この懸念が事実か否かを調査すべく、アメリカの大学の研究チームが動画やYouTubeチャンネルを「中道」「右・左派」「極右・左」など6つのラベルに分けて、ユーザー(匿名化されたデータ)がどのような動画を視聴しているかをチェック。その結果、YouTubeのアルゴリズムが調査機関を経るにつれて動画・チャンネルの視聴者数の増減を観察し、“そうした傾向”が見られなかったことから「YouTubeの利用が人々を極端な思想に導くような傾向はないという可能性が示された」とまとめたのだった。

YouTubeに欠かせない「おすすめ動画」アルゴリズム、人体に影響を及ぼすおそれはあるのか?のページです。オトナライフは、【動画・音楽YouTubeアルゴリズムおすすめ動画】の最新ニュースをいち早くお届けします。