人工智能在美国边境与移民管理的影响CEFR B2
2026年4月25日
改编自 UntoldMag, Global Voices • CC BY 3.0
照片: Mathias Reding, Unsplash
原文最初由 UntoldMag 于 2025 年 11 月 25 日发表,并于 2026 年 4 月作为有关人工智能系列的一部分在 Global Voices 转载。报告由黑人民权移民联盟(BAJI)与加州大学欧文分校法学院下属的移民权利诊所和国际正义诊所向联合国反种族主义特别报告员提交,时间为 2023 年。报告主张,美国在边境政策中使用人工智能的若干做法可能违反《消除一切种族歧视公约》(美国于 1994 年批准)的义务。
报告列举的技术包括自治监控塔(如 Anduril Towers)、小型无人机系统(sUAS),以及在人员抵达陆地边界之前就开始跟踪的其他监测手段。尽管当局称这些系统能威慑非法入境并帮助处于危险中的移民,报告指出“智能边境”技术的扩张恰逢移民死亡率处于历史高位,并且将流离失所者标记为安全威胁。
报告还关注具体算法与应用的偏差:CBP One 应用要求通过自拍验证,但对深肤色面孔的识别出错率比对白人面孔高出 10 到 100 倍,并且缺乏关键语言的翻译支持。自动目标系统(ATS)利用数据库预测签证逾期,2020 年尼日利亚人在更严格的旅行限制中被不成比例地标记为高风险。美国境内的预测工具包括 ICE 使用的“洪流评分”(Hurricane Score)和依赖 56 个国家办事处数据的 RAVEn 平台;这些系统透明度低且不允许移民选择退出。USCIS 使用的 Asylum Text Analytics(ATA)和证据分类器在筛查材料时也可能使非英语使用者和资料异常的申请人处于不利地位。
BAJI 与 UCI 在报告中呼吁对 AI 采取去殖民化方法,援引 Cosmo uBuntu,并要求非洲及其侨民参与 AI 的设计与运行。他们提出的主要建议包括:
- 及时通知与选择退出的选项;
- 联邦层面对种族歧视性 AI 使用的禁令和独立监督;
- 公开披露算法与数据使用情况,以及利害关系方磋商与损害救济。
报告的结论是,在这些系统能够消除歧视并纳入多元观点之前,不应在任何边界使用人工智能。
难词
- 自治监控塔 — 自动运行的边境监视设备
- 小型无人机系统 — 用于监测的小型飞行器系统
- 偏差 — 判断或结果中存在的不公平
- 自动目标系统 — 自动识别可疑目标的系统
- 透明度 — 关于过程和数据公开程度
- 去殖民化 — 减少殖民影响并对抗偏见
- 选择退出 — 允许个人不参加或不被使用
- 损害救济 — 为受不公待遇提供补偿
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 报告提到技术扩张与移民死亡率高企同时发生。你认为边境使用人工智能可能如何影响移民的安全与权利?请说明理由并举例。
- 报告建议采用去殖民化方法并让非洲及其侨民参与 AI 设计。你怎么看这种参与对技术公正性的影响?会有哪些实际困难?
- 报告提出要公开披露算法与数据并提供损害救济。这样的透明与补救措施在实践中可能如何实施?会带来哪些利与弊?