LingVo.club
📖+30 XP
🎧+20 XP
+35 XP
뇌는 다음 단어보다 문법 단위를 예측합니다 — 레벨 B1 — a close up of a piece of luggage with text on it

뇌는 다음 단어보다 문법 단위를 예측합니다CEFR B1

2026년 4월 21일

원문 출처: James Devitt-NYU, Futurity CC BY 4.0

사진 출처: Google DeepMind, Unsplash

레벨 B1 – 중급
2
116 단어

네이처 신경과학에 실린 연구는 인간의 언어 예측이 대형 언어 모델(LLM)이 하는 것과 달리 문법적 단위, 즉 구(constituent)에 민감하다고 보고했습니다. 공동저자 데이비드 포펠은 LLM이 다음 단어를 예측하도록 훈련되지만 인간의 뇌는 문법적으로 단어를 묶어 예측한다고 설명했습니다.

연구는 만다린어 화자를 대상으로 한 여러 실험을 포함했습니다. 연구팀은 자기뇌자도(MEG)로 뇌 활동을 기록했고, 참가자들에게 본문 단어를 지워 빈칸을 채우는 Cloze 검사를 병행했습니다. 추가로 영어에 노출된 환자들의 뇌 데이터도 분석해 결과의 일반성을 확인했습니다.

연구진은 예측 가능성을 엔트로피와 서프라이절로 수치화했습니다. 엔트로피는 맥락이 여러 가능한 다음 단어를 허용함을 뜻하고, 서프라이절은 특정 단어가 그 맥락에서 얼마나 예상 밖인지를 나타냅니다. 분석 결과 뇌 반응은 단어가 문법 구조에서 차지하는 위치에 따라 달라졌고, 인간의 예측은 단순한 다음 단어 확률만으로 설명되지 않는다고 결론지었습니다.

어려운 단어·표현

  • 대형 언어 모델많은 텍스트로 학습한 컴퓨터 언어 프로그램
    대형 언어 모델(LLM)
  • 문장에서 하나로 묶이는 말의 단위
    구(constituent)
  • 자기뇌자도뇌 활동을 측정하는 비침습적 장치
    자기뇌자도(MEG)
  • 엔트로피맥락에서 다음 단어 불확실성 정도
  • 서프라이절특정 단어가 얼마나 예상 밖인지 수치
  • 예측 가능성어떤 일이 일어날지 미리 알 수 있는 정도
    예측 가능성을

팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.

토론 질문

  • LLM은 다음 단어를 예측하도록 훈련되고 인간은 문법적 단위로 예측한다고 합니다. 당신은 어떤 예측 방식이 더 자연스럽다고 생각합니까? 이유를 두세 문장으로 쓰세요.
  • 연구는 만다린어 화자와 영어 노출 환자 데이터를 사용했습니다. 다른 언어에서도 같은 결과가 나올 것 같습니까? 간단히 이유를 쓰세요.
  • 뇌가 문법적 단위를 사용해 예측한다는 사실이 실제 생활의 언어 교육이나 번역 기술에 어떤 영향을 줄 수 있을지 한 가지 예를 들어 설명하세요.

관련 기사