L'IA n'est pas neutre et touche les droits humainsCEFR B2
21 avr. 2026
Adapté de Guest Contributor, Global Voices • CC BY 3.0
Photo de Marija Zaric, Unsplash
Ce texte s'appuie sur une contribution de Hija Kamran à la série « Ne demandez pas à l'IA, demandez à un pair » et fait partie du Spotlight d'avril 2026 de Global Voices. L'auteure, qui se dit souvent adoptante tardive, explique pourquoi elle reste prudente face aux nouvelles technologies.
Kamran soutient que les entreprises technologiques montrent à plusieurs reprises que leur engagement principal va aux modèles économiques et non aux personnes. Elle cite des réponses célèbres et représentatives — « Sénateur, nous diffusons des publicités. » et « J'encourage les gens à lire nos conditions d'utilisation. » — pour montrer un manque de transparence et de responsabilité.
Elle souligne que la technologie n'est pas neutre et qu'elle peut renforcer des structures patriarcales et coloniales. Les données d'entraînement proviennent d'internet et d'archives publiques et portent les marques du racisme, du sexisme et des inégalités économiques ; quand l'IA apprend de ces données, elle peut encoder et amplifier ces préjugés. Les incitations au profit, les actionnaires et les objectifs de croissance façonnent le développement, la vitesse de mise sur le marché et les terres, savoirs ou vies qui seront affectés — des « dommages collatéraux », selon l'article.
Kamran met en garde contre la déshumanisation, notamment dans des contextes militarisés où des personnes sont réduites à des points de données. Les systèmes d'IA ne comprennent pas le contexte, l'histoire ni la responsabilité : ils génèrent des résultats à partir de probabilités et imitent des schémas humains sans pouvoir être humains. Elle appelle à une approche fondée sur les droits humains, à un scepticisme dès les premières étapes, et propose de poser trois questions simples :
- Qui a construit le système ?
- Comment fonctionne-t-il ?
- Qui en bénéficie ?
Hija Kamran (she/her) est rédactrice en chef de GenderIT.org et stratège en plaidoyer au sein du Women’s Rights Programme de l'APC.
Mots difficiles
- prudent — qui agit avec précaution et réserveprudente
- modèle économique — structure qui organise production et génération de profitsmodèles économiques
- transparence — caractère ouvert et compréhensible d'une action
- responsabilité — obligation de répondre de ses actes
- préjugé — idées négatives et non fondées sur un groupepréjugés
- déshumanisation — processus qui retire la dignité aux personnes
- incitation — motivation ou pression pour obtenir un avantageincitations
- colonial — lié à la domination d'un pays sur un autrecoloniales
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Pensez-vous que poser les trois questions proposées par Kamran changerait la façon dont les entreprises développent l'IA ? Pourquoi ou pourquoi pas ?
- Quels exemples concrets pouvez-vous imaginer où la déshumanisation par l'IA poserait un problème majeur ?
- Quelles mesures simples demandées par le public pourraient augmenter la transparence et la responsabilité des technologies évoquées ?
Articles liés
Élection au Bangladesh marquée par la désinformation IA
Lors de l’élection nationale tenue le 12 février après le soulèvement étudiant de juillet 2024, l’intelligence artificielle a servi à créer des images et des vidéos falsifiées. Une étude a recensé 72 cas de contenus manipulés qui ont circulé pendant la campagne.
7amleh : l'UE, l'IA et les technologies exportées hors d'Europe
7amleh affirme que les règles européennes sur l'intelligence artificielle ne protègent pas les droits humains quand les technologies quittent l'UE. Le rapport décrit des financements et des ventes qui atteignent des gouvernements et des militaires en Asie de l'Ouest et en Afrique du Nord.