AI와 책임: 히자 카므란의 경고CEFR B2
2026년 4월 21일
원문 출처: Guest Contributor, Global Voices • CC BY 3.0
사진 출처: Marija Zaric, Unsplash
이 글은 Global Voices, Association for Progressive Communication(APC), GenderIT의 공동 기획 시리즈 "Don’t ask AI, ask a peer"에 대한 기고를 바탕으로 하며, Global Voices의 2026년 4월 스포트라이트 시리즈 "Human perspectives on AI"의 일부입니다. 저자 히자 카므란은 신기술에 대해 신중한 태도를 취해 왔고, 기술 기업들이 사업 모델에 더 충성하는 경향을 비판합니다. 글에는 해로운 콘텐츠와 광고 문제에 대해 기업 책임자가 이용 약관을 읽으라고 권장한 사례가 소개되어 있습니다.
카므란은 기술이 중립적이지 않다고 말합니다. 시스템은 특정 관점을 가진 주체가 설계하므로 누가, 어디서 만드는지가 중요합니다. 학습 자료는 인터넷과 공적 기록에서 오며, 그 안에는 배제·인종차별·성차별·경제적 불평등의 역사가 담겨 있습니다. AI가 이런 데이터를 학습하면 기존의 해악을 암호화하고 증폭할 수 있으며, 결과물을 중립적으로 제시하는 방식이 큰 문제라고 지적합니다.
글은 기업의 인센티브가 시스템 개발과 배치 방식에 영향을 준다고 설명합니다. 이윤 동기·주주·성장 목표는 어떤 문제를 우선시할지, 제품 출시 속도, 그리고 누구의 땅과 지식·삶이 영향을 받는지를 좌우합니다. 경쟁 속에서 사람들을 '부수적 피해'로 설명하는 경향도 문제로 지적됩니다.
- 누가 이 시스템을 만들었는가?
- 시스템은 어떻게 작동하는가?
- 누가 이익을 얻는가?
카므란은 탈인간화의 위험을 특히 강조합니다. 군사화된 맥락에서는 사람이 데이터 포인트로 축소되어 표적이 될 수 있습니다. AI는 맥락이나 역사, 책임을 이해하지 못하고 확률에 근거해 출력을 생성합니다. 인간의 패턴을 모방할 수는 있어도 사람이 되거나 돌봄을 느끼거나 관계를 맺을 수는 없습니다. 따라서 기술의 개발과 상업화 초기 단계에서 회의적 태도를 취하고 권력자에게 책임을 묻는 인권적 접근을 유지해야 한다고 주장합니다. 히자 카므란은 GenderIT.org의 수석 편집자이며 APC의 여성권리 프로그램에서 옹호 전략가로 활동합니다.
어려운 단어·표현
- 중립적 — 특정 편이나 관점을 가지지 않는 상태중립적이지
- 배제 — 어떤 사람이나 집단을 제외하거나 밀어내는 것
- 증폭하다 — 원래 있던 영향이나 효과를 더 크게 만들다증폭할
- 인센티브 — 사람이나 기업의 행동을 유도하는 보상
- 이윤 — 사업에서 얻는 금전적 이익이나 이득
- 주주 — 회사의 주식을 가진 사람이나 단체
- 탈인간화 — 사람을 물건처럼 취급해 인간성 제거탈인간화의
- 회의적 — 어떤 주장이나 변화에 대해 의심하는 태도
팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.
토론 질문
- 기업의 이윤 동기와 주주 압력이 AI 개발에 미치는 영향에 대해 어떻게 생각하는가? 실제 사례나 이유를 들어 설명하라.
- 인권적 접근을 유지하기 위해 기술 개발 초기 단계에서 어떤 조치가 필요하다고 보나? 구체적 방안을 하나 이상 제안하라.
- AI가 사람을 '데이터 포인트'로 취급할 때 발생할 수 있는 실제 피해를 한 가지 예로 설명하고, 이를 줄이려면 무엇이 필요할지 논하라.