LingVo.club
Niveau
L'IA pour informer sur la santé sexuelle en Amérique latine — Niveau B2 — a young boy standing against a yellow wall looking at a tablet

L'IA pour informer sur la santé sexuelle en Amérique latineCEFR B2

8 déc. 2025

Niveau B2 – Intermédiaire supérieur
6 min
348 mots

En Amérique latine, plusieurs initiatives utilisent l'intelligence artificielle pour élargir l'accès à l'information sur la santé sexuelle et reproductive des jeunes et des populations marginalisées. Ces projets répondent à des défis concrets : barrières linguistiques, stigmatisation sociale et insuffisance des services de santé.

Au Pérou, l'obstétricienne Ana Miluzka Baca Gamarra a développé TeleNanu, un chatbot en quechua créé à l'Université de San Martín de Porres. Le système repose sur une IA générative et un modèle de conseil en cinq étapes : établir la confiance, identifier les besoins, répondre, vérifier la compréhension et maintenir la communication ouverte. Des sages‑femmes ont entraîné TeleNanu avec des directives de l'Organisation mondiale de la santé, des documents du ministère de la Santé du Pérou, des articles évalués par des pairs et leur expertise clinique. La plateforme fournit des réponses basées sur des preuves et peut orienter vers un accompagnement humain.

L'ONG APROPO a lancé NOA, une plateforme d'IA générative disponible sur WhatsApp, le web et les réseaux sociaux, entraînée avec des données locales et internationales vérifiées. APROPO vise à atteindre 100,000 adolescents d'ici 2026, en privilégiant des stratégies numériques pour les zones à fort besoin. Sur l'année écoulée, TeleNanu a traité plus de 88,000 requêtes en quechua et en espagnol, y compris depuis l'étranger.

Les données de santé publique motivent ces efforts : plus de 8,000 nouveaux cas de VIH ont été signalés en 2024, 12 pour cent des naissances concernaient des mères de dix à 19 ans et la mortalité maternelle chez les adolescentes augmente. Des spécialistes soulignent des défis importants : accès, déficit de données diverses et éthiques, et besoin d'une coordination public‑privé. En Argentine, le CIECTI a testé de grands modèles de langage et relevé des réponses stigmatisantes et des manques cliniques; il a développé un outil pour classer ces préjudices et prévoit de créer des données plus représentatives. Le chercheur Marcelo Risk (Conicet) a qualifié le biais dans les données d'entraînement de question centrale et a appelé à une supervision humaine. D'autres experts recommandent de relier la recherche aux systèmes de santé et d'impliquer les communautés dans la conception et l'évaluation.

Mots difficiles

  • marginalisépersonnes exclues socialement ou économiquement
    marginalisées
  • obstétriciennemédecin spécialisé dans la grossesse et l'accouchement
  • chatbotprogramme informatique qui converse avec des utilisateurs
  • génératifqui produit automatiquement du contenu nouveau
    générative
  • sage-femmeprofessionnelle de santé qui accompagne les grossesses
    sages‑femmes
  • biaiserreur systématique dans des données ou résultats
  • stigmatisationtraitement négatif qui provoque honte sociale

Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.

Questions de discussion

  • Quels avantages et quels risques voyez-vous à utiliser l'IA pour informer les jeunes sur la santé sexuelle et reproductive ?
  • Comment les communautés locales pourraient-elles être impliquées dans la conception et l'évaluation de ces plateformes ?
  • Quelles actions concrètes suggéreriez-vous pour réduire le biais et améliorer la représentativité des données d'entraînement ?

Articles liés