연구진은 학술지 Frontiers in Artificial Intelligence에 조류 떼의 집단 행동 원리를 응용한 전처리 틀을 발표했습니다. 뉴욕대학교의 아나세 바리(Anasse Bari)와 공저자 빈슈 황(Binxu Huang)이 제안한 이 틀은 대형 언어 모델(LLM)에 입력을 주기 전에 문서를 구조적으로 정리해 LLM이 더 사실에 충실한 요약을 만들게 돕는 것을 목표로 합니다.
방법은 두 단계로 나뉩니다. 첫 단계에서는 문장에서 명사·동사·형용사만 남기고 다단어 용어를 합쳐 하나의 개념 단위로 유지합니다. 각 문장은 어휘적, 의미적, 주제적 특징을 결합한 수치 벡터로 변환되고 문서 전체의 중심성, 섹션 수준 중요성, 초록과의 정렬성 같은 기준으로 점수를 받습니다. 도입부·결과·결론 같은 핵심 섹션에는 추가 가중치가 주어집니다.
두 번째 단계에서는 응집성, 정렬성, 분리성 같은 떼 행동 원리를 적용해 의미가 유사한 문장들을 군집화합니다. 각 군집에서 리더와 팔로워 구조가 형성되고, 최종 군집에서 점수가 높은 문장들만 선택해 중복을 줄이며 배경·방법·결과·결론을 고루 포함하도록 합니다. 선택 문장들은 재정렬된 뒤 LLM에 전달되어 원문 근거의 유창한 요약으로 통합됩니다.
연구진은 이 틀을 9,000개가 넘는 문서에 시험했고, 전처리 틀과 LLM 결합이 전처리 없이 작동하는 LLM보다 사실적 정확성이 더 높은 요약을 생성한다고 보고했습니다. 바리는 이 틀을 LLM의 경쟁자가 아니라 전처리 단계로 설계했다고 말하며 "목표는 AI가 원문에 더 충실한 요약을 만들도록 돕는 것"이라고 밝혔습니다. 저자들은 이 방법이 환각 위험을 줄일 수는 있지만 완전히 없애지는 못한다고 지적했습니다.
어려운 단어·표현
- 전처리 틀 — 입력 자료를 미리 정리하는 구조
- 수치 벡터 — 단어 의미를 숫자로 나타낸 목록
- 군집화 — 비슷한 문장들을 그룹으로 묶는 과정
- 중심성 — 문서 안에서 중요도나 영향력 정도
- 정렬성 — 다른 텍스트와 의미가 맞는 정도
- 응집성 — 문장들 사이에 내용 연결이 강한 정도
- 환각 — 사실과 다르게 정보가 만들어지는 현상
팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.
토론 질문
- 이 전처리 틀이 LLM의 환각 위험을 줄일 수 있지만 완전히 없애지 못한다고 했습니다. 그 이유와 한계를 어떻게 생각합니까?
- 문장을 백그라운드·방법·결과·결론으로 고루 포함하도록 선택하는 방식이 요약의 신뢰성에 어떤 장단점을 줄까요?
- 실무에서 이 전처리 틀을 도입한다면 어떤 종류의 문서나 작업에서 특히 도움이 될 것 같습니까? 구체적인 예를 들어 설명해 보세요.