LingVo.club
레벨
X 피드에서 적대감 줄이는 도구 개발 — 레벨 B2 — Street sign for democracy burning at night

X 피드에서 적대감 줄이는 도구 개발CEFR B2

2025년 12월 8일

원문 출처: U. Washington, Futurity CC BY 4.0

사진 출처: Steve Johnson, Unsplash

레벨 B2 – 중고급
4
185 단어

연구진은 플랫폼의 직접 협력 없이도 X 피드의 알고리즘적 영향력을 줄일 수 있는 도구를 개발했다. 이 도구는 웹 확장 프로그램과 대형 언어 모델을 결합해 게시물에서 당파적 적대감이나 반민주적 태도를 탐지한다. 예컨대 폭력 선동이나 상대를 투옥하자고 주장하는 내용, 또는 민주주의 원칙을 포기하려는 태도 같은 항목을 찾아 해당 게시물의 순위를 낮추거나 높여 피드를 재정렬한다. 게시물은 삭제되지 않고 단지 위치만 변경된다.

실험에서는 약 1,200명의 자원봉사자가 2024년 대선 기간 동안 10일간 도구를 사용했다. 별도의 seven-day 시험에서는 일부 참가자가 하향 조정된 피드나 상향 조정된 피드를 보았고, 대조군은 순서 변경을 보지 않았다. 하향 조정을 본 참가자들의 태도는 실험 전후 1~100 척도에서 평균 두 점 개선되었고, 진보와 보수 양쪽에서 유사한 효과가 나타났다. 연구진은 이 변화가 미국 인구의 태도가 약 3년 동안 변한 규모와 비슷하다고 지적했다.

공동 책임 저자 Martin Saveski(University of Washington Information School)와 Tiziano Piccardi(Johns Hopkins University)는 참가자들이 특정 콘텐츠를 덜 접할 때 더 따뜻함을 느꼈다고 전했다. 이 프로젝트는 정보과학, 컴퓨터과학, 심리학, 커뮤니케이션을 결합했고, 연구진은 해로운 콘텐츠 범주로 초당적 협력 거부, 상대당에 유리한 사실에 대한 회의, 민주주의 원칙 포기 의사 등을 정의했다. 연구팀은 코드를 공개했으며 연구는 여러 학술 기관과 기금의 지원을 받았다.

어려운 단어·표현

  • 알고리즘적컴퓨터 규칙에 따라 결과를 만드는 방식
  • 웹 확장 프로그램브라우저에 설치해 기능을 더하는 소프트웨어
  • 대형 언어 모델많은 텍스트로 학습된 언어 인공지능
  • 당파적 적대감정치적 다른 편에 대한 강한 부정적 감정
  • 반민주적민주주의 원칙에 반하는 태도나 생각
  • 폭력 선동다른 사람에게 폭력을 하도록 부추기는 말이나 행동
  • 하향 조정어떤 항목의 순서나 수준을 낮추는 조치
    하향 조정된, 하향 조정을
  • 대조군실험에서 기준으로 비교하는 참가자 집단

팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.

토론 질문

  • 피드에서 해로운 게시물의 순서만 바꾸는 방법의 장단점은 무엇이라고 생각합니까? 이유를 말해 보세요.
  • 이 도구가 진보와 보수 양쪽에서 비슷한 효과를 보인 이유를 어떻게 설명할 수 있습니까?
  • 연구팀이 코드를 공개한 것이 추가 연구나 정책에 어떤 영향을 줄 수 있을까요? 예를 들어 설명해 보세요.

관련 기사