LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
자폐를 밝히면 AI 조언이 바뀐다 — 레벨 B2 — text

자폐를 밝히면 AI 조언이 바뀐다CEFR B2

2026년 4월 20일

원문 출처: Tonia Moxley - Virginia Tech, Futurity CC BY 4.0

사진 출처: Annie Spratt, Unsplash

레벨 B2 – 중고급
4
239 단어

새로운 연구는 사용자가 자신의 자폐 정체성을 밝힐 때 대형 언어 모델의 일상적 사회적 조언이 체계적으로 달라질 수 있음을 보였다. 이 결과는 4월 Association for Computing Machinery의 CHI 학회에서 박사과정생 케일럽 워흔이 발표했으며, 연구팀은 버지니아 공대의 유제니아 로 조교수 실험실을 중심으로 구성되었습니다.

연구진은 문헌에서 확인한 12가지 고정관념 단서를 이용해 수백 개의 의사결정 시나리오를 만들고, GPT-4·Claude·Llama·Gemini·DeepSeek 등을 포함한 6개 주요 모델로 수천 건의 "A를 할까 B를 할까?" 형 질문에 대해 총 345,000개의 응답을 생성했습니다. 자폐를 밝히면 모델들은 내향적이고 집착적이며 사회적으로 어색하거나 연애에 관심이 없다는 가정에 따라 권고를 바꾸는 경향을 보였습니다.

  • 한 모델은 자폐를 밝힌 뒤 사회적 초대를 거절하라고 권하는 비율이 거의 75%였고, 자폐를 언급하지 않았을 때는 약 15%였습니다.
  • 연애 시나리오에서는 또 다른 모델이 자폐를 밝힌 뒤 연애를 피하거나 독신을 권장한 비율이 거의 70%였고, 자폐를 언급하지 않았을 때는 대략 50%였습니다.
  • 12가지 고정관념 단서 중 11개는 최소 4개 시스템에서 모델 결정을 유의미하게 이동시켰습니다.

연구진은 자폐 이용자 11명과 인터뷰를 진행해 공개 전후의 모델 응답을 보여주었고, 일부 참가자는 충격을 받거나 응답을 제약적·잘난 체한다고 묘사했습니다. 한 참가자는 "스팍에게 조언 칼럼을 쓰고 있는 건가요?"라고 말했습니다. 로 교수는 "한 사용자의 편향이 다른 사용자에게는 개인화로 보일 수 있다"고 요약하며, 연구진은 이를 "안전-기회 역설"이라고 불렀습니다. 워흔은 AI가 체계적 편향을 숨긴 채 신뢰할 만해 보일 수 있다고 경고했고, 팀은 개인 정체성 정보의 영향에 대해 사용자가 통제할 수 있는 보다 투명한 시스템을 개발할 것을 개발자들에게 촉구했습니다. 출처: Virginia Tech.

어려운 단어·표현

  • 정체성자신의 개인적 사회적 신분이나 소속
    정체성을
  • 고정관념어떤 집단에 대해 단정적으로 믿는 생각
  • 단서사건이나 판단에 도움이 되는 정보
  • 체계적일관되고 조직적으로 이루어지는 성질
    체계적으로
  • 편향공정하지 않고 치우친 판단이나 성향
    편향을, 편향이
  • 개인화개인별 특성에 맞춰 조정하는 과정
    개인화로
  • 안전-기회 역설안전성과 기회가 서로 엇갈리는 상황

팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.

토론 질문

  • AI가 사용자의 개인 정체성을 알 때 조언이 달라지는 것의 장단점을 본인의 경험이나 상상으로 설명해 보세요.
  • 연구진이 말한 '안전-기회 역설'이 실제 사용자에게 어떤 문제를 일으킬 수 있을지 예를 들어 논의해 보세요.
  • 개발자들이 개인 정체성 정보의 영향을 사용자에게 더 잘 통제하게 하려면 어떤 기능이나 정책이 필요하다고 생각하나요?

관련 기사