레벨 B1 – 중급CEFR B1
3 분
122 단어
인공 지능 도구의 사용이 빠르게 늘면서 편향으로 인한 피해 사례가 늘었다. 보도에 따르면 편향된 시스템은 인구 통계에 따라 다른 의료 처방을 내렸고, 일부 채용 도구는 여성과 흑인 지원자를 차별했다.
텍사스 대학교 오스틴(University of Texas at Austin)의 연구진은 이 문제를 분석했다. 연구에는 McCombs의 IROM 박사과정 학생 John-Patrick Akinyemi와 Hüseyin Tanriverdi가 참여했다. 연구팀은 다른 사람들이 편향이 있다고 지적한 알고리즘 집합을 조사하고, 지적된 알고리즘을 유사한 다른 알고리즘과 비교했다. 또한 알고리즘을 만든 조직과 사용하는 조직도 함께 검토했다.
연구는 주요 원인으로 세 가지를 지적한다. 첫째, 확립된 기준 진실(ground truth)이 없을 때 편향 위험이 커진다. 둘째, 모델이 현실을 단순화해 중요한 변수를 놓칠 수 있다. 셋째, 설계에 다양한 이해관계자가 참여하지 않으면 편향이 생기기 쉽다. 연구는 단순히 정확도를 높이는 것만으로는 부족하다고 결론지었다.
어려운 단어·표현
- 편향 — 어떤 방향으로 과도하게 치우친 성향편향으로, 편향된, 편향이
- 알고리즘 — 문제를 해결하는 단계별 계산 절차알고리즘을, 알고리즘과
- 조직 — 사람들이 함께 일하는 단체나 기관조직과, 조직도
- 확립되다 — 굳게 세워지거나 정해지는 상태가 되다확립된
- 변수 — 변할 수 있는 요소나 측정 항목변수를
- 이해관계자 — 정책이나 결과에 관심이 있는 사람들이해관계자가
- 정확도 — 결과나 예측이 실제와 일치하는 정도정확도를
팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.
토론 질문
- 회사나 기관에서 편향된 인공지능을 줄이려면 어떤 사람들을 참여시켜야 할까요? 이유도 말해 보세요.
- 모델이 현실을 단순화하면 어떤 문제가 생길 수 있다고 생각하나요? 구체적인 예를 하나 말해 보세요.
- 의료 분야에서 편향된 처방을 발견하면 기관은 어떤 조치를 해야 할까요? 당신의 의견을 말해 보세요.