📖+20 XP
🎧+15 XP
✅+25 XP
AI와 책임: 히자 카므란의 경고CEFR A2
2026년 4월 21일
원문 출처: Guest Contributor, Global Voices • CC BY 3.0
사진 출처: Marija Zaric, Unsplash
레벨 A2 – 기초 / 초중급CEFR A2
2 분
90 단어
히자 카므란은 새로운 기술에 대해 신중한 태도를 가진 저자입니다. 이 글은 Global Voices와 APC, GenderIT가 함께 기획한 연속 기고의 일부로 Global Voices의 2026년 4월 스포트라이트에 포함됩니다. 그녀는 기술 기업들이 사람보다 사업 모델을 우선한다고 주장합니다.
카므란은 AI가 인터넷과 공적 기록에서 얻은 데이터를 학습한다고 설명합니다. 그 데이터는 배제와 차별의 역사를 반영합니다. AI는 이런 문제를 암호화하고 증폭할 수 있습니다. 군사적 맥락에서는 사람이 단순 데이터로 취급될 위험도 있다고 말합니다.
그녀는 권력자에게 책임을 묻는 인권적 접근을 제안하며, 누가 만들었는지, 어떻게 작동하는지, 누가 이익을 보는지를 계속 물어야 한다고 권합니다.
어려운 단어·표현
- 주장하다 — 어떤 의견을 강하게 말하는 행동주장합니다
- 학습하다 — 새로운 정보나 지식을 배우고 익히다학습한다고
- 배제 — 어떤 사람이나 그룹을 밖으로 내보내는 일배제와
- 차별 — 사람들을 다르게 대하고 불이익 주는 것차별의
- 증폭하다 — 작은 영향을 더 크게 만드는 것증폭할
- 책임 — 자신의 행동 결과에 대해 부담을 지는 의무책임을
팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.
토론 질문
- 당신은 새로운 기술에 대해 신중한 태도를 가져야 한다고 생각합니까? 이유를 말해 보세요.
- AI가 차별을 증폭하지 않도록 무엇을 해야 한다고 생각합니까?
- 권력자에게 책임을 묻는 것이 왜 중요하다고 생각합니까?