AIとLGBTQ+:偏りと監視の問題CEFR B2
2025年11月18日
原文: Aaron Spitler, Global Voices • CC BY 3.0
写真: Igor Omilaev, Unsplash
人工知能(AI)は日常生活とビジネスの両方で広がり、過去10年で民間の投資も急増しました。Ipsosの世界調査では回答者の55%がAIの利点が欠点より多いと感じると報告される一方で、技術のリスクを懸念する人々は依然として多く残っています。
データと設計に由来する偏りがLGBTQ+コミュニティに対する具体的な害を生んでいます。WiredはMidjourneyなどの画像生成ツールがLGBTQ+の人々を単純化して有害な描写を生んだと報じ、UNESCOはMetaのLlama 2やOpenAIのGPT-2が異性愛規範的な前提に基づき、ゲイの人々について半分以上の確率で否定的な内容を生成したと指摘しました。データのラベリング改善は役立つ場合がありますが、オンライン上の侮蔑的な内容を完全に除去するのは難しいとされています。
リスクは出力だけにとどまりません。Forbidden Coloursは自動性別認識(AGR)が顔や声の特徴から性別を推定するが、本人の性自認を知ることはできないと説明し、こうした仕組みが誤った方向で危険になり得ると警告しています。Politico EuropeはViktor OrbE1nが地域のプライドイベントでAI対応の生体監視を許可し、EUの機関がその方針を検討していると報じました。
擁護者たちは、開発者とLGBTQ+当事者の協力、監視の悪用に対するより強い安全策、性別を検出・分類するシステムの禁止を求めています。こうした対策は被害を減らし、より多くの人にとってAIが有用で公平になる可能性を高めることを目指しています。
難しい単語
- 偏り — データや設計で生じる不公平な傾向
- 由来する — 何かが原因や出所から始まることを示す
- 画像生成ツール — 人工的に絵や写真を作るソフト
- ラベリング — データに説明やタグを付ける作業
- 自動性別認識 — 顔や声の特徴で性別を推定する技術自動性別認識(AGR)
- 生体監視 — 人の身体的情報を機器で監視すること
ヒント:記事中の強調表示された単語にマウスオーバー/フォーカス/タップすると、その場で簡単な意味が表示されます。
ディスカッション用の質問
- AIの偏りがLGBTQ+コミュニティに与える影響について、記事の情報を使って説明してください。どのような被害が起こり得ますか?
- 自動性別認識や生体監視を公共イベントで使用する場合、どんなリスクがありますか。記事にある対策を参考にして答えてください。
- データのラベリング改善は偏りを減らす助けになるが、侮蔑的な内容を完全に除去するのは難しいと書かれています。なぜ完全に除去するのは困難だと思いますか。具体例を挙げて説明してください。