LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
L'IA n'est pas neutre et touche les droits humains — Niveau B2 — a sticker on the side of a wall

L'IA n'est pas neutre et touche les droits humainsCEFR B2

21 avr. 2026

Niveau B2 – Intermédiaire supérieur
5 min
293 mots

Ce texte s'appuie sur une contribution de Hija Kamran à la série « Ne demandez pas à l'IA, demandez à un pair » et fait partie du Spotlight d'avril 2026 de Global Voices. L'auteure, qui se dit souvent adoptante tardive, explique pourquoi elle reste prudente face aux nouvelles technologies.

Kamran soutient que les entreprises technologiques montrent à plusieurs reprises que leur engagement principal va aux modèles économiques et non aux personnes. Elle cite des réponses célèbres et représentatives — « Sénateur, nous diffusons des publicités. » et « J'encourage les gens à lire nos conditions d'utilisation. » — pour montrer un manque de transparence et de responsabilité.

Elle souligne que la technologie n'est pas neutre et qu'elle peut renforcer des structures patriarcales et coloniales. Les données d'entraînement proviennent d'internet et d'archives publiques et portent les marques du racisme, du sexisme et des inégalités économiques ; quand l'IA apprend de ces données, elle peut encoder et amplifier ces préjugés. Les incitations au profit, les actionnaires et les objectifs de croissance façonnent le développement, la vitesse de mise sur le marché et les terres, savoirs ou vies qui seront affectés — des « dommages collatéraux », selon l'article.

Kamran met en garde contre la déshumanisation, notamment dans des contextes militarisés où des personnes sont réduites à des points de données. Les systèmes d'IA ne comprennent pas le contexte, l'histoire ni la responsabilité : ils génèrent des résultats à partir de probabilités et imitent des schémas humains sans pouvoir être humains. Elle appelle à une approche fondée sur les droits humains, à un scepticisme dès les premières étapes, et propose de poser trois questions simples :

  • Qui a construit le système ?
  • Comment fonctionne-t-il ?
  • Qui en bénéficie ?

Hija Kamran (she/her) est rédactrice en chef de GenderIT.org et stratège en plaidoyer au sein du Women’s Rights Programme de l'APC.

Mots difficiles

  • prudentqui agit avec précaution et réserve
    prudente
  • modèle économiquestructure qui organise production et génération de profits
    modèles économiques
  • transparencecaractère ouvert et compréhensible d'une action
  • responsabilitéobligation de répondre de ses actes
  • préjugéidées négatives et non fondées sur un groupe
    préjugés
  • déshumanisationprocessus qui retire la dignité aux personnes
  • incitationmotivation ou pression pour obtenir un avantage
    incitations
  • coloniallié à la domination d'un pays sur un autre
    coloniales

Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.

Questions de discussion

  • Pensez-vous que poser les trois questions proposées par Kamran changerait la façon dont les entreprises développent l'IA ? Pourquoi ou pourquoi pas ?
  • Quels exemples concrets pouvez-vous imaginer où la déshumanisation par l'IA poserait un problème majeur ?
  • Quelles mesures simples demandées par le public pourraient augmenter la transparence et la responsabilité des technologies évoquées ?

Articles liés

Réseaux sociaux, désinformation et IA — Niveau B2
10 nov. 2025

Réseaux sociaux, désinformation et IA

Les réseaux sociaux offrent du soutien à des groupes marginalisés, mais diffusent aussi haine et mensonges. En janvier 2025 Meta a mis fin à sa vérification des faits; chercheurs et organismes alertent sur les risques, y compris liés à l’IA.