나이지리아: AI와 온라인 여성 대상 폭력CEFR B2
2026년 4월 10일
원문 출처: Guest Contributor, Global Voices • CC BY 3.0
사진 출처: Ahmed Nasiru, Unsplash
나이지리아에서는 생성형 AI의 확산이 소셜미디어상의 성차별적 폭력을 산업화하는 양상을 보이고 있습니다. Gatefield는 2026년 보고서에서 2030년까지 연간 7천만 명의 나이지리아 여성과 소녀가 AI로 촉진된 온라인 학대에 노출될 수 있고, 그중 3천만 명은 직접 표적이 될 것으로 추정했습니다. 기존 조사들도 온라인 학대에서 여성이 과도하게 표적이 된다고 밝혔습니다. 유엔은 관련법을 갖춘 국가가 전체의 약 40%에 불과하다고 지적했고, 한 조사에서는 X와 Facebook이 학대가 자주 발생하는 주요 플랫폼으로 확인됐습니다.
문제의 핵심은 AI가 학대 자료를 더 쉽고 빠르게, 대량으로 만들어내는 능력입니다. xAI의 AI 비서 Grok처럼 텍스트와 이미지를 생성·편집하는 도구는 동의 없는 성적 이미지 생성에 악용됐습니다. 플랫폼의 약한 집행, 참여를 장려하는 수익화 구조, 불명확한 규제가 결합하면 AI는 중립적 도구가 아니라 성별 기반 해악을 가속하는 요소가 됩니다. 알고리즘은 노출 범위를 결정하고 착취적 콘텐츠가 도달과 수익을 얻을 수 있습니다.
디자인과 정책 분야의 단체들은 구체적 조치를 권고합니다. Superbloom과 Tech Policy Design Lab은 TechSocietal의 Tope Ogundipe와 함께 성별 프라이버시 평가 프레임워크(Gendered Privacy Evaluation Framework)를 제안하며 다음과 같은 조치를 권합니다.
- 거버넌스 약속과 직원 교육 강화
- 접근 가능한 불만 제기 절차와 실질적 동의 확보
- 데이터 최소화, 암호화, 여성권리 단체와의 협력
AI 배치 전후에 성별 관점의 프라이버시 검토를 적용하면 피해를 줄이는 것이 목표입니다. 그러나 플랫폼들이 이러한 관행을 실제로 채택하고 집행할지는 여전히 불확실합니다.
어려운 단어·표현
- 생성형 AI — 새로운 텍스트와 이미지를 자동으로 만드는 인공지능
- 온라인 학대 — 인터넷에서 사람을 괴롭히는 말이나 행동
- 표적 — 누군가가 공격이나 피해의 대상이 되는 상태표적이
- 집행 — 정책이나 규칙을 실제로 시행하는 일
- 수익화 구조 — 서비스로부터 수입을 만드는 방식과 체계
- 데이터 최소화 — 필요한 정보만 적게 모으는 개인정보 원칙
팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.
토론 질문
- AI가 학대 자료를 빠르게 대량 생산할 수 있다는 점을 고려할 때, 플랫폼과 규제기관은 어떤 우선순위를 정해야 할까? 이유를 말해 보세요.
- 성별 프라이버시 평가(framework)를 플랫폼에 적용하면 어떤 긍정적 효과와 한계가 있을지 각각 설명해 보세요.
- 기사에 나온 권고 조치들(거버넌스 강화, 불만 절차, 데이터 최소화 등) 중 하나를 선택하여, 실제로 시행할 때 예상되는 어려움과 해결 방안을 제안해 보세요.