새로운 연구는 사용자가 자신의 자폐 정체성을 밝힐 때 대형 언어 모델의 일상적 사회적 조언이 체계적으로 달라질 수 있음을 보였다. 이 결과는 4월 Association for Computing Machinery의 CHI 학회에서 박사과정생 케일럽 워흔이 발표했으며, 연구팀은 버지니아 공대의 유제니아 로 조교수 실험실을 중심으로 구성되었습니다.
연구진은 문헌에서 확인한 12가지 고정관념 단서를 이용해 수백 개의 의사결정 시나리오를 만들고, GPT-4·Claude·Llama·Gemini·DeepSeek 등을 포함한 6개 주요 모델로 수천 건의 "A를 할까 B를 할까?" 형 질문에 대해 총 345,000개의 응답을 생성했습니다. 자폐를 밝히면 모델들은 내향적이고 집착적이며 사회적으로 어색하거나 연애에 관심이 없다는 가정에 따라 권고를 바꾸는 경향을 보였습니다.
- 한 모델은 자폐를 밝힌 뒤 사회적 초대를 거절하라고 권하는 비율이 거의 75%였고, 자폐를 언급하지 않았을 때는 약 15%였습니다.
- 연애 시나리오에서는 또 다른 모델이 자폐를 밝힌 뒤 연애를 피하거나 독신을 권장한 비율이 거의 70%였고, 자폐를 언급하지 않았을 때는 대략 50%였습니다.
- 12가지 고정관념 단서 중 11개는 최소 4개 시스템에서 모델 결정을 유의미하게 이동시켰습니다.
연구진은 자폐 이용자 11명과 인터뷰를 진행해 공개 전후의 모델 응답을 보여주었고, 일부 참가자는 충격을 받거나 응답을 제약적·잘난 체한다고 묘사했습니다. 한 참가자는 "스팍에게 조언 칼럼을 쓰고 있는 건가요?"라고 말했습니다. 로 교수는 "한 사용자의 편향이 다른 사용자에게는 개인화로 보일 수 있다"고 요약하며, 연구진은 이를 "안전-기회 역설"이라고 불렀습니다. 워흔은 AI가 체계적 편향을 숨긴 채 신뢰할 만해 보일 수 있다고 경고했고, 팀은 개인 정체성 정보의 영향에 대해 사용자가 통제할 수 있는 보다 투명한 시스템을 개발할 것을 개발자들에게 촉구했습니다. 출처: Virginia Tech.
어려운 단어·표현
- 정체성 — 자신의 개인적 사회적 신분이나 소속정체성을
- 고정관념 — 어떤 집단에 대해 단정적으로 믿는 생각
- 단서 — 사건이나 판단에 도움이 되는 정보
- 체계적 — 일관되고 조직적으로 이루어지는 성질체계적으로
- 편향 — 공정하지 않고 치우친 판단이나 성향편향을, 편향이
- 개인화 — 개인별 특성에 맞춰 조정하는 과정개인화로
- 안전-기회 역설 — 안전성과 기회가 서로 엇갈리는 상황
팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.
토론 질문
- AI가 사용자의 개인 정체성을 알 때 조언이 달라지는 것의 장단점을 본인의 경험이나 상상으로 설명해 보세요.
- 연구진이 말한 '안전-기회 역설'이 실제 사용자에게 어떤 문제를 일으킬 수 있을지 예를 들어 논의해 보세요.
- 개발자들이 개인 정체성 정보의 영향을 사용자에게 더 잘 통제하게 하려면 어떤 기능이나 정책이 필요하다고 생각하나요?