AI와 책임: 히자 카므란의 경고CEFR B1
2026년 4월 21일
원문 출처: Guest Contributor, Global Voices • CC BY 3.0
사진 출처: Marija Zaric, Unsplash
이 글은 Global Voices, APC, GenderIT의 공동 기획 시리즈에 대한 기고를 바탕으로 하며 Global Voices의 2026년 4월 스포트라이트 시리즈에도 포함됩니다. 저자 히자 카므란은 기술에 대해 신중한 태도를 유지해 왔고 기업들이 사람보다 사업 모델에 충성한다고 주장합니다. 한 기업 책임자가 해로운 콘텐츠와 광고에 관한 질문에 대해 "사람들에게 이용 약관을 읽어 보라고 권장합니다"라고 답한 사례를 소개합니다.
카므란은 AI가 인터넷과 공적 기록에서 학습한 데이터를 사용한다고 지적합니다. 그 데이터는 배제, 인종차별, 성차별, 경제적 불평등의 역사를 반영합니다. AI가 이런 데이터를 학습하면 기존의 해악을 암호화하고 증폭할 수 있으며, 결과를 중립적으로 제시하는 것이 문제라고 합니다. 또한 기업의 이윤 동기와 주주, 성장 목표가 어떤 문제를 우선할지 결정한다고 지적합니다.
저자는 탈(脫)인간화의 위험을 강조하고, 특히 군사적 맥락에서 사람이 데이터 포인트로 축소되어 표적이 될 수 있다고 경고합니다. 그녀는 권력자에게 책임을 묻는 인간권 접근을 촉구하며 누가 만들었는지, 어떻게 작동하는지, 누가 이익을 얻는지를 계속 물어야 한다고 권합니다. 히자 카므란은 GenderIT.org의 수석 편집자이자 APC의 여성권리 프로그램에서 옹호 전략가로 활동합니다.
어려운 단어·표현
- 배제 — 어떤 사람이나 집단을 밖으로 밀어내는 일
- 증폭하다 — 작거나 약한 것을 더 크게 만들다증폭할
- 중립적으로 — 특정 편을 들지 않는 태도로
- 이윤 동기 — 이익을 얻기 위한 움직이는 이유
- 탈인간화 — 사람을 인간이 아닌 것으로 취급함탈(脫)인간화
- 표적 — 공격이나 선택의 대상이 되는 것표적이
- 책임 — 행동의 결과에 대해 답해야 하는 의무책임을
- 옹호 — 어떤 사람이나 권리를 지지하고 돕는 행동
팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.
토론 질문
- 기업이 이윤을 우선할 때 어떤 문제가 생길까요? 본인의 생각이나 경험을 말해 보세요.
- AI가 과거의 편견을 학습한다면 이러한 피해를 줄이기 위해 어떤 방법을 사용할 수 있을까요?
- 새로운 기술에 대해 정보를 얻을 때 당신이 먼저 묻고 싶은 질문 세 가지는 무엇인가요?