LingVo.club
等级
人工智能对 LGBTQ+ 社区的风险与关注 — 等级 B2 — a computer chip with the letter a on top of it

人工智能对 LGBTQ+ 社区的风险与关注CEFR B2

2025年11月18日

改编自 Aaron Spitler, Global Voices CC BY 3.0

照片: Igor Omilaev, Unsplash

等级 B2 – 中高级
6 分钟
332

人工智能正越来越多地进入日常生活。Ipsos 的全球调查显示 55 percent 的受访者认为由人工智能驱动的解决方案利大于弊;与此同时,私人在过去十年对人工智能的投入显著增加,许多公司以提高效率和易用性为目标推广这些工具。然而,公众对潜在风险仍然高度关注,尤其是对 LGBTQ+ 群体的影响。

担忧主要来自训练数据和系统设计。Wired 报道指出,Midjourney 等图像生成工具在描绘 LGBTQ+ 人群时可能产生简化或有害的图像,因为网络数据中包含刻板印象,而以此训练的模型往往会再现偏见。UNESCO 的审查发现,像 Meta 的 Llama 2 和 OpenAI 的 GPT-2 这样的模型更常受异性恋规范影响,并在超过一半的情况下生成针对同性恋者的负面内容,说明训练数据和设计选择会导致重复性的伤害。

风险还包括现实世界的监控。Forbidden Colours 描述的自动性别识别(automatic gender recognition,AGR)通过面部特征或声音模式来推断性别,而无法反映个人的性别身份,因此可能既错误又危险。Politico Europe 报道称,匈牙利总理 Viktor OrbE1n 批准在当地骄傲活动使用带人工智能的生物识别监控,官方称此举为保护儿童,但实际上该措施允许对艺术家、活动家和普通公民进行监视,欧盟机构正在审查这一政策。

为减少伤害,倡导者提出多项要求:与 LGBTQ+ 利益相关者建立合作关系、在开发各阶段征求意见、加强防止监控滥用的保障,并禁止用于检测或分类性别的系统。这些步骤旨在让人工智能对更多人既有用又更公平。

  • 与 LGBTQ+ 群体合作。
  • 在开发各阶段征求意见。
  • 加强防止监控滥用的保障。
  • 禁止检测或分类性别的系统。

难词

  • 训练数据用来教机器的文本、图片和信息集合
  • 刻板印象对某类人简单且固定的负面看法
  • 偏见基于成见导致不公平的判断或态度
  • 生物识别通过身体特征确认个人身份的技术
  • 性别身份个人对自己是男性、女性或其他的认同
  • 监控滥用不当使用跟踪或观察技术造成伤害
  • 征求意见在决策或开发时听取他人看法或建议
  • 利益相关者在某事中有利益或受影响的人或组织

提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。

讨论问题

  • 文章提到需要与 LGBTQ+ 利益相关者合作。你认为在开发人工智能时怎样的合作方式更有效?请说明理由。
  • 如果一个国家使用带人工智能的生物识别监控来“保护儿童”,你认为有哪些潜在风险?请举例说明。
  • 文中建议禁止用于检测或分类性别的系统。你认为这样的禁止会带来哪些好处和挑战?

相关文章