새로운 연구는 ChatGPT, Claude, LLaMa 등 널리 사용되는 생성형 AI가 사람들이 일상적으로 생성하는 언어를 기반으로 성격과 일상적 감정, 스트레스, 사회적 행동, 심리적 진단·치료 이력 등을 예측할 수 있음을 보여준다. 연구진은 일일 비디오 일기와 머릿속 생각을 길게 녹음한 자료를 AI에 제공했고, 자료는 실험실과 실제 생활에서 수집된 160명이 넘는 사람에게서 나왔다.
AI는 각 개인이 응답했을 법한 방식으로 성격 설문에 답했고, 그 점수는 자기평가와 밀접하게 일치했다. 흥미롭게도 AI의 평가는 종종 친구나 가족의 평가보다 자기평가를 더 잘 맞추었다. 이전의 텍스트 분석 방법들은 이러한 최신 AI 시스템만큼의 성과를 내지 못했다.
학계에서도 다양한 반응이 나왔다. 미시간대의 에이단 라이트 교수는 서로 다른 두 데이터 출처 간 연관성이 강한 점에 놀랐다고 밝혔다. 다른 연구자들은 언어가 심리적 특성에 깊은 단서를 담고 있음을 지적했다. 다만 연구진은 중요한 한계들을 인정했다. 이 연구는 자기보고에 의존했고, 연령·성별·인종에 따른 차이, AI와 인간이 동일한 신호를 쓰는지, 또는 AI가 장래의 관계·교육·건강·경력 성공 같은 주요 삶의 결과를 자기보고보다 더 잘 예측할 수 있는지는 아직 검증되지 않았다.
이 연구 결과는 학술지 Nature Human Behavior에 실렸고 연구 출처는 University of Michigan이다.
어려운 단어·표현
- 생성형 — 새로운 문장이나 정보를 만들어 내는 유형
- 일상적 감정 — 사람이 일상에서 자주 느끼는 감정
- 자기평가 — 스스로 자신의 특성을 평가하는 것
- 자기보고 — 연구 참여자가 스스로 답하거나 보고함
- 연관성 — 두 가지 이상 요소 사이의 관련 정도
- 한계 — 연구나 방법에서 제한되는 점이나 문제한계들을
- 검증되다 — 주장의 정확성과 신빙성을 확인받다검증되지 않았다
팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.
토론 질문
- 이 연구 결과가 개인 정보와 프라이버시에 어떤 영향을 줄 수 있다고 생각하나요? 이유를 말해 보세요.
- 연구에서 자기보고에 의존한 점이 결과 해석에 어떤 한계를 줄 수 있나요?
- AI가 친구나 가족보다 자기평가를 더 잘 맞춘다는 사실이 현실에서 어떤 의미를 가질까요?