ソーシャルメディア:つながりと危険CEFR B2
2025年11月10日
原文: Safa, Global Voices • CC BY 3.0
写真: Mariia Shalabaieva, Unsplash
ソーシャルメディアは、情報を見つけ、コミュニティを作る重要な場になっていますが、同時にヘイトスピーチや虚偽情報の拡散にも寄与しています。研究や流出資料は、バイラリティや推薦、エンゲージメント最適化といった製品機能が有害コンテンツの繁茂を助けると指摘します。ある研究では、最も常習的な15%のFacebook利用者が調査で共有された虚偽見出しの37%を占めたと報告されました。
2025年1月、Mark ZuckerbergはMetaが第三者のファクトチェック・プログラムを終了し、Xで使われる「community notes」方式を採用すると発表しました。International Fact-Checking Networkはこの終了を「後退の一歩」と呼び、国連人権高等弁務官のVolker Türkは「ヘイトスピーチや有害なコンテンツをオンライン上で放置することは現実世界に影響を与える」と警告しました。
アルゴリズムは利用者に何を見せるか決めますが、誤情報を訂正しても訂正が同じ注目を得ることはほとんどなく、First Draft Newsは「(誤情報を)脳から取り除くのは非常に、非常に難しい」と指摘しています。推薦システムは過激化とも結びつき、2021年の研究はTikTokのアルゴリズムが視聴者を過激な内容へ導き得ると示しました。YouTubeはしばしば「過激化のエンジン」と呼ばれ、YouTube Kidsに関する懸念も報告されています。2025年のドイツ選挙前には特にTikTokで右寄りに偏る傾向が観察されました。
- 誤情報の拡散
- 過激化への誘導
- 検閲と精密な監視
- 報道への信頼の低下
生成系AIや自動化は新たなリスクを加えます。インドネシアの2024年選挙ではAI生成のデジタルアバターが注目され、Prabowo Subiantoが広く使いました。Freedom Houseの2023年報告は、自動化がより精密な検閲を可能にし、誤情報の流布者がAI生成の画像・音声・文章を使って真実を歪めやすくしていると警告しました。ベネズエラではAI生成の親政府メッセージが記者への脅迫と共存し、記者が身元を守るためにデジタルアバターを使う場合もあります。総じて、技術が人々を力づけ、保護する可能性がある一方で、害を与えるためにも使われ得ます。どちらが強く出るかは設計の選択、権力構造、ツールを誰が制御するかにかかっています。
難しい単語
- 虚偽情報 — 事実ではない 情報 や 誤った 内容
- 推薦システム — 利用者に 内容を 提案する コンピュータの仕組み
- バイラリティ — 短時間で 広く 拡がる 性質
- ファクトチェック — 情報が 正しいかを 調べる 作業
- 過激化 — 考えや 行動が より 極端に なること
- 拡散 — 情報や 物が 広く 広がる こと
- 生成系AI — 文章や 画像を 自動で 作る 技術
- 検閲 — 政府や 機関が 内容を 管理する こと
ヒント:記事中の強調表示された単語にマウスオーバー/フォーカス/タップすると、その場で簡単な意味が表示されます。
ディスカッション用の質問
- 推薦システムが政治的な意見や情報の受け取り方にどのように影響するか、本文の例を使って説明してください。
- プラットフォームが誤情報の拡散を減らすためにできる対策にはどんなものがありますか。利点と問題点を挙げてください。
- 生成系AIやデジタルアバターは記者や市民にとってどのような利点と危険を同時に持ちますか。具体例を使って議論してください。