米国の国境で増えるAIと人種差別の懸念CEFR B2
2026年4月25日
原文: UntoldMag, Global Voices • CC BY 3.0
写真: Mathias Reding, Unsplash
人工知能(AI)は米国の国境管理と移民統制でますます多用されています。情報は最初にUntoldMagで2025年11月25日に掲載され、2026年4月にGlobal VoicesのAIに関するシリーズの一環として転載されました。人権団体は、こうしたツールが移民手続きの多くの段階で人種差別を再生産し、深化させるおそれがあると指摘しています。
2023年、Black Alliance for Just Immigration(BAJI)とUCIロースクールのクリニックは国連の人種差別に関する特別報告者に報告書を提出しました。報告書は、AIを用いた国境政策が、1994年に米国が批准した「あらゆる形態の人種差別の撤廃に関する国際条約」(ICERD)に基づく義務に違反する可能性があると主張しています。
監視面では自律型タワーやAndurilのタワー、Small Unmanned Aircraft Systems(sUAS)などが陸上国境に到達する前から人々を追跡します。CBP Oneアプリのセルフィー認証は濃い肌色の顔を白人より10〜100倍の頻度で誤認識し、重要な言語の翻訳が欠けることも指摘されました。ATSはデータベースで不法滞在のリスクを予測し、2020年の渡航制限強化の際にナイジェリア人が不釣り合いに高リスクとしてフラグ付けされた例があります。
国内ではICEがHurricane ScoreやRAVEnプラットフォーム(56か国の庁舎からのデータを使用)といった予測ツールを用い、USCISはAsylum Text Analytics(ATA)やEvidence Classifierで申請書をスクリーニングします。これらのシステムは透明性に欠け、利用の拒否が認められていない点が問題視されています。
提言では脱植民地主義的なアプローチやCosmo uBuntuの参照を求め、アフリカとディアスポラの参加をAIの設計と運用に含めるよう要求しています。迅速な通知とオプトアウトの選択肢、国家レベルでの人種差別的なAI利用の禁止、独立監督、公開情報の開示、利害関係者の協議、被害への救済、市がDHSにデータを提供しない誓約などが挙げられています。こうしたシステムが差別から自由で多様な視点を含むまで、いかなる国境でもAIの使用を控えるべきだと主張しています。
難しい単語
- 人工知能 — 人の知能を模倣するコンピュータ技術人工知能(AI)
- 批准する — 条約を正式に承認すること批准した
- 監視 — 行動や場所を見て記録すること監視面では
- 誤認識する — 正しくないと判断してしまうこと誤認識し
- 透明性 — 仕組みや情報が明らかであること透明性に欠け
- 予測ツール — 未来のリスクや行動を推定するシステム
ヒント:記事中の強調表示された単語にマウスオーバー/フォーカス/タップすると、その場で簡単な意味が表示されます。
ディスカッション用の質問
- AIが国境管理や移民手続きに使われることの利点と危険を、本文の例を挙げて説明してください。
- CBP Oneのセルフィー認証やATSの予測が誤作動した場合、どのような具体的影響が考えられますか。あなたの意見を述べてください。
- 本文の提言(独立監督、公開情報の開示、被害への救済など)で、特に重要だと思うものは何ですか。なぜそう思うか理由を述べてください。