人工智能对 LGBTQ+ 社区的风险与关注CEFR B2
2025年11月18日
改编自 Aaron Spitler, Global Voices • CC BY 3.0
照片: Igor Omilaev, Unsplash
人工智能正越来越多地进入日常生活。Ipsos 的全球调查显示 55 percent 的受访者认为由人工智能驱动的解决方案利大于弊;与此同时,私人在过去十年对人工智能的投入显著增加,许多公司以提高效率和易用性为目标推广这些工具。然而,公众对潜在风险仍然高度关注,尤其是对 LGBTQ+ 群体的影响。
担忧主要来自训练数据和系统设计。Wired 报道指出,Midjourney 等图像生成工具在描绘 LGBTQ+ 人群时可能产生简化或有害的图像,因为网络数据中包含刻板印象,而以此训练的模型往往会再现偏见。UNESCO 的审查发现,像 Meta 的 Llama 2 和 OpenAI 的 GPT-2 这样的模型更常受异性恋规范影响,并在超过一半的情况下生成针对同性恋者的负面内容,说明训练数据和设计选择会导致重复性的伤害。
风险还包括现实世界的监控。Forbidden Colours 描述的自动性别识别(automatic gender recognition,AGR)通过面部特征或声音模式来推断性别,而无法反映个人的性别身份,因此可能既错误又危险。Politico Europe 报道称,匈牙利总理 Viktor OrbE1n 批准在当地骄傲活动使用带人工智能的生物识别监控,官方称此举为保护儿童,但实际上该措施允许对艺术家、活动家和普通公民进行监视,欧盟机构正在审查这一政策。
为减少伤害,倡导者提出多项要求:与 LGBTQ+ 利益相关者建立合作关系、在开发各阶段征求意见、加强防止监控滥用的保障,并禁止用于检测或分类性别的系统。这些步骤旨在让人工智能对更多人既有用又更公平。
- 与 LGBTQ+ 群体合作。
- 在开发各阶段征求意见。
- 加强防止监控滥用的保障。
- 禁止检测或分类性别的系统。
难词
- 训练数据 — 用来教机器的文本、图片和信息集合
- 刻板印象 — 对某类人简单且固定的负面看法
- 偏见 — 基于成见导致不公平的判断或态度
- 生物识别 — 通过身体特征确认个人身份的技术
- 性别身份 — 个人对自己是男性、女性或其他的认同
- 监控滥用 — 不当使用跟踪或观察技术造成伤害
- 征求意见 — 在决策或开发时听取他人看法或建议
- 利益相关者 — 在某事中有利益或受影响的人或组织
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 文章提到需要与 LGBTQ+ 利益相关者合作。你认为在开发人工智能时怎样的合作方式更有效?请说明理由。
- 如果一个国家使用带人工智能的生物识别监控来“保护儿童”,你认为有哪些潜在风险?请举例说明。
- 文中建议禁止用于检测或分类性别的系统。你认为这样的禁止会带来哪些好处和挑战?