L'IA n'est pas neutre et touche les droits humainsCEFR B1
21 avr. 2026
Adapté de Guest Contributor, Global Voices • CC BY 3.0
Photo de Marija Zaric, Unsplash
Hija Kamran, contributrice à une série sur l'IA, dit qu'elle reste prudente face aux nouvelles technologies. Selon elle, les entreprises montrent que leur priorité va souvent aux modèles économiques plutôt qu'aux personnes et à la responsabilité publique.
Kamran cite des réponses d'acteurs technologiques — par exemple la phrase « Sénateur, nous diffusons des publicités. » et l'invitation à « lire nos conditions d'utilisation » — pour illustrer un manque de transparence et de responsabilité effective.
Elle explique que la technologie n'est pas neutre : les systèmes sont conçus par des acteurs précis et les données d'entraînement, issues d'internet et d'archives publiques, reflètent le racisme, le sexisme et l'exclusion. Les incitations au profit et les objectifs de croissance influencent les priorités, la vitesse de mise sur le marché et les terres, savoirs ou vies affectés ; l'article parle de « dommages collatéraux ».
Kamran met aussi en garde contre la déshumanisation, notamment en contextes militarisés où des personnes deviennent des points de données. Elle appelle à une approche fondée sur les droits humains, au scepticisme dès les premières étapes, et recommande de se poser trois questions essentielles sur tout système.
Mots difficiles
- contributrice — personne qui a écrit ou participé à un article
- prudent — qui agit avec attention et méfianceprudente
- responsabilité — obligation de répondre de ses actes
- transparence — clarté et information ouverte sur les actions
- donnée — information collectée et utilisée par un systèmedonnées d'entraînement
- incitation — motif ou avantage qui pousse à agirincitations
- déshumanisation — traiter les personnes comme des choses ou chiffres
- dommage — préjudice ou effet négatif non vouludommages collatéraux
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Connaissez-vous des exemples où une technologie a causé des conséquences inattendues ? Que s'est-il passé ?
- Comment, selon vous, une entreprise pourrait montrer plus de transparence envers le public ? Donnez deux idées.
- Pensez-vous qu'il est facile de poser des questions critiques sur un système technologique au travail ou à l'école ? Pourquoi ou pourquoi pas ?
Articles liés
Élection au Bangladesh marquée par la désinformation IA
Lors de l’élection nationale tenue le 12 février après le soulèvement étudiant de juillet 2024, l’intelligence artificielle a servi à créer des images et des vidéos falsifiées. Une étude a recensé 72 cas de contenus manipulés qui ont circulé pendant la campagne.
7amleh : l'UE, l'IA et les technologies exportées hors d'Europe
7amleh affirme que les règles européennes sur l'intelligence artificielle ne protègent pas les droits humains quand les technologies quittent l'UE. Le rapport décrit des financements et des ventes qui atteignent des gouvernements et des militaires en Asie de l'Ouest et en Afrique du Nord.