LingVo.club
Livello
Intelligenza artificiale per la salute sessuale in America Latina — Livello B2 — Argentinian flag waving near a prominent building.

Intelligenza artificiale per la salute sessuale in America LatinaCEFR B2

8 dic 2025

Adattato da Agustín Gulman, SciDev CC BY 2.0

Foto di Paul, Unsplash

Livello B2 – Intermedio-avanzato
7 min
368 parole

In America Latina diversi gruppi di ricerca e ONG usano l'intelligenza artificiale per ampliare l'accesso a informazioni sulla salute sessuale e riproduttiva, concentrandosi su giovani e gruppi marginalizzati, incluse comunità indigene e persone transgender dove i servizi tradizionali sono insufficienti.

In Perù l'ostetrica Ana Miluzka Baca Gamarra ha guidato lo sviluppo di TeleNanu, un chatbot in quechua rivolto ad adolescenti e giovani. TeleNanu impiega intelligenza artificiale generativa e un modello di counselling in cinque fasi per creare fiducia, identificare bisogni, verificare la comprensione e mantenere aperta la comunicazione; il sistema è stato addestrato con linee guida della World Health Organization, del Peru Ministry of Health, letteratura peer‑reviewed e conoscenze professionali. La piattaforma ha ricevuto oltre 88.000 richieste nell'ultimo anno in quechua e spagnolo.

La ONG APROPO ha lanciato NOA, una piattaforma AI generativa disponibile su WhatsApp, web e social media, addestrata secondo l'organizzazione con dati locali e internazionali accurati. Il contesto peruviano mostra più di 8.000 nuovi casi di HIV nel 2024; i giovani adulti nella loro ventina sono i più colpiti e il 12% dei parti riguardava madri tra 10 e 19 anni. APROPO punta a raggiungere 100.000 adolescenti entro il 2026.

I ricercatori evidenziano rischi specifici per le persone transgender: Virginia Silveira e altri avvertono che modelli prevenuti possono cancellare i corpi trans e riprodurre discriminazioni. Il censimento argentino del 2022 ha contato quasi 200.000 persone come transgender o non binarie, mentre un rapporto del 2021 ha rilevato un'aspettativa di vita molto bassa e alti livelli di discriminazione nei centri sanitari. Il centro CIECTI ha testato large language models e ha trovato risposte stigmatizzanti ed errori clinici, per esempio il rifiuto di procedure appropriate in base all'identificazione della persona; il team ha creato uno strumento per valutare tali danni e prevede di integrare nuovi dati per ridurre i bias.

Esperti sottolineano la necessità di migliori dataset, regolamentazione, coordinamento pubblico‑privato e il coinvolgimento delle comunità. CLIAS ha promosso 15 progetti AI tra il 2023 e il 2024 e ha prodotto una guida per dataset sanitari di alta qualità. I ricercatori concludono che l'intelligenza artificiale può sostenere la salute sessuale e riproduttiva se gli strumenti sono addestrati con informazioni rappresentative e usati con supervisione umana tempestiva.

Parole difficili

  • marginalizzatopersone escluse o con meno accesso ai servizi
    marginalizzati
  • ostetricaprofessionista che assiste gravidanze e parti
  • chatbotprogramma che conversa automaticamente con gli utenti
  • fiduciacertezza che un servizio sia sicuro e utile
  • stigmatizzanteche giudica o discrimina negativamente persone
    stigmatizzanti
  • datasetraccolta organizzata di dati per analisi

Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.

Domande di discussione

  • Quali vantaggi e quali rischi vedi nell'uso di chatbot per la salute sessuale tra adolescenti?
  • Come si potrebbero coinvolgere le comunità marginalizzate nella creazione di dataset sanitari rappresentativi?
  • Quali misure di regolamentazione e supervisione umana sarebbero più efficaci per ridurre discriminazioni e errori clinici?

Articoli correlati