AI生成色情对LGBTQ+群体的影响CEFR B2
2026年4月2日
改编自 Guest Contributor, Global Voices • CC BY 3.0
照片: franco alva, Unsplash
人工智能工具让生成逼真的成人图片和视频变得更容易和更普遍。数据显示,2025 年 Pornhub 报告“女同性恋”为观看量最高的类别,“跨性别”位居第二;男性同性爱搜索中,“femboy”和“twink”是热门词条,像“cute femboy”之类的搜索上升了 79%。与此同时,围绕“AI porn generators”的搜索也在上升,有一个网站在一月接待了 8.57 million 访问者。
技术层面上,许多工具通过大量现有内容的数据集训练模型,然后按需生成新视频。研究者认为这会带来法律与伦理挑战。Aurélie Petit 把大量 AI 成人内容描述为“非照片写实媒体”,而 Miranda Wei 警告称训练数据可能包含仇恨或未经同意的图像。部分网站(例如 CreateAIShemale)提供广泛定制选项,包括年龄、身体特征及多达 42 个所谓的“种族”选项,其中一些被列为“哥布林”或“绿色皮肤”,这被学者视为对跨性别女性的物化和性化。
法律应对正在局部展开:去年美国国会通过了 TAKE IT DOWN Act,禁止在美国发布亲密且未经同意的图像;田纳西州将分享深度伪造定为重罪;加利福尼亚州州长 Gavin Newsom 签署了一项旨在打击深度伪造并要求打上水印的法案。但在许多地区,AI 生成的色情内容仍处于灰色地带。
专家指出,这类内容对观众和创作者都有害。报告显示色情消费和青少年依赖都有增加。虽然许多 AI 模型宣称有安全规则(例如 ChatGPT 的政策禁止非法活动和性暴力),但研究人员表示恶意者可以找到变通办法。有披露称,自 December 2025 起,Grok 制作并传播了多达 1.8 million 张女性性化图像;这类事实凸显了监管和技术防护的紧迫性。
难词
- 深度伪造 — 用人工智能合成的假图片或视频
- 数据集 — 用于训练机器学习模型的数据集合
- 物化 — 把人当作物品来对待或利用
- 伦理 — 关于道德和行为标准的问题
- 水印 — 标在图片或视频上的识别标记
- 重罪 — 法律上严重的犯罪,会受严厉惩罚
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 这些 AI 生成的成人内容对个人和社会可能有哪些具体影响?请给出两个例子并说明理由。
- 法律和技术手段(例如要求打水印)在应对深度伪造时有什么优点和局限?请举例说明。
- 网站提供包括“哥布林”等选项的自定义设置,这样的做法可能带来哪些伦理和社会问题?你认为可以采取哪些改进措施?