📖+30 XP
🎧+20 XP
✅+35 XP
레벨 B1 – 중급CEFR B1
3 분
127 단어
뉴욕대학교의 아나세 바리(Anasse Bari) 연구진과 공저자 빈슈 황(Binxu Huang)은 조류의 떼 움직임에서 영감을 받아 LLM 앞에 적용하는 전처리 틀을 발표했습니다. 방법의 목적은 LLM이 최종 요약을 만들기 전에 입력을 더 간결하고 다양하며 원문을 잘 대표하도록 만드는 것입니다.
첫 단계에서는 문장을 정리해 명사·동사·형용사만 남기고, 다단어 용어를 합쳐 개념을 하나의 단위로 유지합니다. 각 문장은 어휘적·의미적·주제적 특징을 합친 수치 벡터로 변환되고, 중심성·섹션 중요성·초록과의 정렬성 등으로 점수를 받습니다. 도입부와 결론 같은 핵심 섹션에는 추가 가중치가 부여됩니다.
두 번째 단계에서는 응집성·정렬성·분리성 같은 떼 움직임 원리를 써서 문장들을 군집화합니다. 각 군집에서 리더가 생기고 팔로워들이 모입니다. 최종 무리에서 점수가 높은 문장들을 골라 재정렬한 뒤 LLM에 전달해 원문에 근거한 요약을 만듭니다. 연구진은 이 방법을 9,000개가 넘는 문서에 적용해 사실적 정확성이 높아졌다고 보고했습니다.
어려운 단어·표현
- 전처리 — 모델에 넣기 전에 자료를 준비하는 작업
- 중심성 — 집단 안에서 중요한 위치나 정도
- 정렬성 — 문장이나 요약과 내용이 맞는 정도
- 응집성 — 군집 안 문장들이 잘 모여 있는 성질
- 분리성 — 서로 다른 군집으로 나뉘는 성향
- 군집화하다 — 여러 요소를 그룹으로 묶는 행동군집화합니다
팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.
토론 질문
- 이 방법이 당신이 요약할 때 도움이 될 것 같나요? 이유를 말해보세요.
- 본문의 '리더'와 '팔로워' 개념을 당신의 읽기나 글쓰기 경험과 연결해 설명해 보세요.
- 도입부와 결론에 추가 가중치를 주는 것에 대해 어떻게 생각하나요? 장점과 단점을 간단히 말해보세요.