LingVo.club
等级
社交媒体如何影响信息与信任 — 等级 B2 — a group of different social media logos

社交媒体如何影响信息与信任CEFR B2

2025年11月10日

等级 B2 – 中高级
6 分钟
308

社交媒体一方面为边缘群体提供重要的支持和联系,另一方面又在信息传播和社群形成上带来明显风险。技术设计、推荐系统和以参与为导向的产品机制,往往放大极端内容和虚假信息,导致现实世界的伤害。

在 January 2025,Mark Zuckerberg 宣布 Meta 结束为期九年的第三方事实核查计划,改用 X 的社区注释模式,并终止部分保护 LGBTQ+ 用户的政策。International Fact-Checking Network 将此称为“a step backward”,联合国人权事务高级专员 Volker Türk 也警告说允许网上仇恨言论会产生现实后果。

多项研究和泄露报告显示问题的成因:一项研究发现“15% 最常用 Facebook 用户负责 37% 的虚假头条分享”,而 2019 年的泄露报告指出,传播性与推荐机制助长虚假信息和仇恨言论。更正信息很难获得与最初谣言相同的注意力,First Draft News 指出错误信息很难从人们脑中清除。

生成式人工智能和自动化也带来新风险。2024 年印尼选举中出现了 AI 生成的数字头像,Prabowo Subianto 等人在社交媒体上广泛使用此类头像。包括 ChatGPT 在内的生成工具能制作逼真的文本和图像,Freedom House 警告这些技术让事实更容易被扭曲,并使审查和操控更精确。在委内瑞拉,亲政府的 AI 信息与对记者的威胁并存,记者有时使用数字头像保护身份。整体来看,技术既能赋权也能被滥用,一切取决于设计选择、权力结构以及谁掌控这些工具。

  • 主要风险:仇恨言论与虚假信息放大。
  • 关键因素:算法、推荐与产品设计。
  • 新挑战:生成式人工智能和自动化。

难词

  • 边缘群体社会中受排斥或处于弱势的人群
  • 推荐系统根据用户行为推荐内容的程序
  • 虚假信息不真实或具有误导性的新闻或内容
  • 事实核查核实新闻或声明真实性的过程
  • 仇恨言论针对特定群体的敌意或偏见言语
  • 生成式人工智能自动生成文本和图像的技术
  • 泄露报告公开或揭露内部信息的书面报告
  • 赋权使个人或群体更有能力或权利

提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。

讨论问题

  • 社交媒体公司的算法和产品设计应该如何改变,以减少虚假信息和仇恨言论?请提出两点并说明理由。
  • 生成式人工智能在选举和记者安全中的使用带来哪些利弊?请结合文中印尼和委内瑞拉的例子说明。

相关文章