人が医療の診断名をAIに告げると、その情報が助言に影響するかどうかは重要な問題です。Virginia Techの研究チームはこの点を調べ、4月にACMのCHI会議で結果を発表しました。研究は博士課程の学生Caleb Wohnが中心となり、助教Eugenia Rhoの研究室で進められました。
研究者は12のよく知られた固定観念を特定し、イベントや対立、恋愛などの日常的な意思決定についての数千件のプロンプトを用意しました。GPT-4、Claude、Llama、Gemini、DeepSeekなどを含む6つの主要な大規模言語モデルをテストし、合計345,000件の応答を生成しました。結果として、自閉症の開示はしばしば「内向的」「こだわりが強い」「社交に不器用」「恋愛に興味がない」といった仮定に基づく助言を誘発しました。例えば、あるモデルは開示後に社交の誘いを断ることを約75%の確率で勧めたのに対し、開示がない場合は約15%でした。別のモデルは開示後に恋愛を避けるか独身でいることを約70%の確率で勧め、開示がない場合は約50%でした。
研究チームは自閉症のAIユーザー11人にインタビューし、実際の応答例を見せました。参加者の反応は分かれ、衝撃を受けたり、応答を恩着せがましいと感じたりした人もいました。Rhoはこの緊張を「あるユーザーにとっての偏見が、別のユーザーにとっての個別化になりうる」と要約し、研究者はこれを「安全性と機会の逆説」と呼びました。Wohnは、AIが信頼できそうに見えても体系的なバイアスを覆い隠す可能性があると警告しています。研究チームは、個人のアイデンティティ情報が応答にどう影響するかをユーザーが制御できる、より透明なシステムの構築を開発者に期待しています。
- 12の固定観念のうち11が複数のシステムで判断を変化させた。
- テストは6つの主要モデルで行われた。
- 合計345,000件の応答が生成された。
難しい単語
- 診断名 — 病気や状態を示す名前
- 固定観念 — ある対象についての固定した考え
- 開示 — 個人情報や状態を他者に伝えること開示後
- 偏見 — 事実に基づかない悪い先入観や判断
- 個別化 — 個人の違いに合わせること
- 体系的なバイアス — 組織やシステム全体にある偏り
- 生成する — 文章やデータを作り出す行為生成しました, 生成された
ヒント:記事中の強調表示された単語にマウスオーバー/フォーカス/タップすると、その場で簡単な意味が表示されます。
ディスカッション用の質問
- AIに診断名などの個人情報を伝える利点とリスクは何だと思いますか。具体的に説明してください。
- 研究で示されたAIの偏見が日常生活や仕事にどのような影響を与えるか、具体例を挙げて説明してください。
- あなたがAIの設定で「自分の情報をどこまで開示するか」を選べるとしたら、どのように設定しますか。理由も述べてください。