LingVo.club
레벨
소셜 미디어의 도움과 위험 — 레벨 B2 — a group of different social media logos

소셜 미디어의 도움과 위험CEFR B2

2025년 11월 10일

레벨 B2 – 중고급
5
259 단어

소셜 미디어는 정보를 찾고 공동체를 형성하는 방식에서 점점 큰 역할을 한다. 많은 소외된 집단에게 플랫폼은 지지와 연결을 제공하지만, 동시에 혐오 표현과 허위정보를 확산시켜 현실 세계의 피해를 초래할 수 있다. 2025년 1월 마크 저커버그는 메타가 제3자 사실확인 프로그램을 종료하고 X에서 쓰이는 "커뮤니티 노트" 모델을 도입하겠다고 발표했다. 회사는 또한 일부 LGBTQ+ 이용자를 보호하던 정책을 중단하겠다고 밝혔고, 국제 팩트체크 네트워크는 이를 "한 걸음 후퇴"라고 비판했다. 유엔 인권최고대표 볼커 튀르크는 온라인 혐오를 허용하면 현실적 결과가 생긴다고 경고했다.

연구자들은 플랫폼의 제품 메커니즘을 문제로 본다. 유출된 2019년 페이스북 보고서는 확산성, 추천 알고리즘, 참여 최적화가 혐오 표현과 허위정보가 번성하도록 돕는다고 적었다. 한 연구는 가장 습관적으로 페이스북을 쓰는 상위 15% 사용자가 연구에서 공유된 거짓 헤드라인의 37%를 차지한다고 밝혔다. First Draft News는 거짓 정보를 뇌에서 떼어내기는 매우, 매우 어렵다고 썼다.

추천 시스템은 급진화와도 연결되었다. 2021년 연구는 틱톡 알고리즘이 트랜스포비아 동영상에서 폭력적 극우 콘텐츠로 시청자를 이끌 수 있다고 했다. 유튜브는 때때로 '급진화 엔진'으로 불리며, 유튜브 키즈가 식이장애 관련 콘텐츠로 어린 시청자를 유도한 사례도 보고되었다. 2025년 독일 선거를 앞두고 연구자들은 틱톡 피드가 우향 편향을 보였다고 관찰했다.

생성형 AI는 새로운 차원의 위험을 더한다. 2024년 인도네시아 선거에서는 AI로 만든 디지털 아바타가 주목을 받았고, 전 후보 프라보워 수비안토는 이를 소셜 미디어에서 널리 사용했다. 2023년 Freedom House 보고서는 자동화 시스템이 더 정교한 검열을 가능하게 하고, AI 생성 이미지·음성·텍스트로 진실이 왜곡되기 쉽고 분별하기 어렵다고 경고했다. 베네수엘라에서는 친정부 AI 메시지와 기자에 대한 위협이 공존해 일부 기자는 디지털 아바타로 신원을 보호한다.

다양한 플랫폼과 도구가 권한 부여와 피해를 동시에 일으킨다. 결과는 설계 선택과 권력 구조, 도구를 누가 통제하는지에 달려 있다.

어려운 단어·표현

  • 혐오 표현특정 집단을 공격하거나 비하하는 표현
  • 허위정보사실이 아니거나 잘못된 내용의 정보
  • 추천 알고리즘사용자에게 콘텐츠를 제안하는 컴퓨터 규칙
  • 참여 최적화사용자의 반응과 이용 시간을 늘리는 설계
  • 급진화정치적이나 사회적 태도가 극단화되는 과정
  • 생성형 AI새로운 이미지·음성·텍스트를 자동 생성하는 인공지능
  • 디지털 아바타온라인에서 개인을 대신하는 가상 인물
  • 확산성어떤 것이 빠르게 널리 퍼지는 성질
  • 권한 부여사람이나 집단에 힘과 영향력을 주는 과정

팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.

토론 질문

  • 소셜 미디어가 소외된 집단에 주는 긍정적 영향과 부정적 영향을 어떻게 균형 있게 관리할 수 있을까? 본문 내용을 바탕으로 의견을 말해 보세요.
  • 생성형 AI와 디지털 아바타 사용이 기자의 안전과 언론 신뢰에 어떤 영향을 줄 수 있을까? 본문 예시를 들어 설명해 보세요.
  • 추천 알고리즘과 참여 최적화가 공공 담론의 위험을 키운다면, 누가 어떤 결정을 내려야 그 위험을 줄일 수 있을까요? 이유를 제시하세요.

관련 기사