📖+40 XP
🎧+25 XP
✅+45 XP
等级 B2 – 中高级CEFR B2
6 分钟
332 字
今年4月,一篇来自维吉尼亚理工学院的研究在美国计算机协会(ACM)的CHI大会上展示。论文由助理教授Eugenia Rho的实验室领导,博士生Caleb Wohn对外界介绍了研究方法和发现。研究者识别出12种记录充分的刻板印象,并为这些刻板印象设计了数百个决策场景,以测试模型在现实社交选择问题中的响应差异。
研究在六个主要的大型语言模型上运行样本测试(示例包括GPT-4、Claude、Llama、Gemini和DeepSeek),针对数千条“我应该做A还是做B?”的社交提示,总共生成了345,000条回答。分析显示,披露自闭症会显著改变模型建议:例如,一个模型在披露自闭症后建议拒绝社交邀请的比例接近75%,而未提及时约为15%;在约会场景中,另一个模型披露后近70%建议避免恋爱或保持单身,而未披露时约为50%。此外,在被测试的六个系统中,11项刻板印象提示至少在四个系统上显著改变了模型决策。
研究团队还向11位有自闭症的用户展示了有无披露情况下的模型回答示例。部分参与者对回答感到震惊,称回答限制性或带有居高临下的语气,有人反问“我们这是在为斯波克写咨询专栏吗?”,另一些人则觉得谨慎的建议带来确认感。研究将这类现象称为“安全-机会悖论”——一个用户的偏见可能就是另一个用户的个性化。
研究作者指出,尽管AI看起来可靠,但它可能掩盖系统性偏见。团队希望这些发现促使开发者构建更透明的系统,并允许用户控制个人身份信息如何影响AI的回答。
- 12种刻板印象
- 数百个决策场景
- 345,000条模型回答
难词
- 刻板印象 — 对某类人的固定看法12种刻板印象
- 披露 — 公开或告知个人信息披露自闭症, 披露自闭症后
- 决策场景 — 需要在情境中做出选择的情况数百个决策场景
- 系统性偏见 — 系统中普遍存在的不公平看法
- 安全-机会悖论 — 为安全而限制机会的矛盾情况
- 透明 — 使系统运作清晰、可理解更透明的系统
- 个性化 — 根据个人特点调整或推荐
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 让用户能够控制个人身份信息如何影响AI回答,可能带来哪些好处和风险?请给出理由。
- 如果发现模型对披露自闭症的用户给出限制性建议,作为产品设计者你会采取哪些改进措施?请举两项具体做法。
- 研究显示不同模型对披露有不同反应,你认为这种差异会如何影响有自闭症用户对AI的信任与使用?说明理由。