ラテンアメリカの市民団体や研究者は、ジェンダーの不平等や暴力を可視化し減らすために、地域に根ざしたAIシステムを設計しています。多くの既存アルゴリズムは遠隔で作られ、現地のジェンダーや民族、年齢、能力に関する要請と合わない世界観やバイアスを反映していると懸念されています。これを避けるため、設計段階からプライバシー、公正性、平等を組み込むことが重要だとされています。
アルゼンチンのDataGéneroはAymurAIを開発し、裁判記録をローカルサーバー上でそのまま収集してデータベースに送る仕組みを採用しました。AymurAIはChatGPTの登場前に作られ、2021年以降アルゼンチン、チリ、コスタリカの法廷で運用され、10,000件以上の裁判判決を含むデータを蓄積しています。資金はInternational Development Research Centre(IDRC)とPatrick McGovern Foundationから提供されました。音声を文字に変換する機能を追加する計画があり、検証されれば被害者が繰り返し体験を語らずに証言を残せる可能性があります。
他の取り組みでは、チリのDerechos Digitalesが技術政策にフェミニストの視点を入れる分析を行い、メキシコのPIT Policy Labは学校の中退予測で4,000人が誤認識された問題を受けて、オープンソースのバイアス検出ツール導入や担当者への人権・ジェンダー研修を実施しました。NPO Fundarのダニエル・ヤンケレビッチは、行動は文化によって異なるため予測システムは地域のデータで学習させる必要があると強調します。
現在の共通の次のステップは次の通りです。
- 地域に根ざしたモデルとデータの整備
- トレーニングデータと技術機能の改善
- データ保護と公的規制の強化
- 公私連携による制度設計と研修の推進
難しい単語
- 可視化 — 見えにくい問題を見えるようにすること
- バイアス — 特定の集団に不公平な傾向や偏り
- プライバシー — 個人の私的な情報や生活の保護
- 公正性 — すべての人を公平に扱う性質
- 根ざす — ある場所や文化に基づいていること地域に根ざした
- 裁判記録 — 裁判での出来事を書き留めた公式記録
- 誤認識する — 事実を誤って判断すること誤認識された
- 整備 — 制度や設備を整えて準備すること
ヒント:記事中の強調表示された単語にマウスオーバー/フォーカス/タップすると、その場で簡単な意味が表示されます。
ディスカッション用の質問
- 地域のデータを使うことで予測システムはどのように改善されると思いますか。理由を述べてください。
- AymurAIに音声の文字化機能を追加する利点と懸念は何ですか。具体例を挙げて説明してください。
- 公私連携による制度設計や研修は現地でどのように役立つと思いますか。実行上の課題も考えてください。