In America Latina diversi gruppi di ricerca e ONG usano l'intelligenza artificiale per ampliare l'accesso a informazioni sulla salute sessuale e riproduttiva, concentrandosi su giovani e gruppi marginalizzati, incluse comunità indigene e persone transgender dove i servizi tradizionali sono insufficienti.
In Perù l'ostetrica Ana Miluzka Baca Gamarra ha guidato lo sviluppo di TeleNanu, un chatbot in quechua rivolto ad adolescenti e giovani. TeleNanu impiega intelligenza artificiale generativa e un modello di counselling in cinque fasi per creare fiducia, identificare bisogni, verificare la comprensione e mantenere aperta la comunicazione; il sistema è stato addestrato con linee guida della World Health Organization, del Peru Ministry of Health, letteratura peer‑reviewed e conoscenze professionali. La piattaforma ha ricevuto oltre 88.000 richieste nell'ultimo anno in quechua e spagnolo.
La ONG APROPO ha lanciato NOA, una piattaforma AI generativa disponibile su WhatsApp, web e social media, addestrata secondo l'organizzazione con dati locali e internazionali accurati. Il contesto peruviano mostra più di 8.000 nuovi casi di HIV nel 2024; i giovani adulti nella loro ventina sono i più colpiti e il 12% dei parti riguardava madri tra 10 e 19 anni. APROPO punta a raggiungere 100.000 adolescenti entro il 2026.
I ricercatori evidenziano rischi specifici per le persone transgender: Virginia Silveira e altri avvertono che modelli prevenuti possono cancellare i corpi trans e riprodurre discriminazioni. Il censimento argentino del 2022 ha contato quasi 200.000 persone come transgender o non binarie, mentre un rapporto del 2021 ha rilevato un'aspettativa di vita molto bassa e alti livelli di discriminazione nei centri sanitari. Il centro CIECTI ha testato large language models e ha trovato risposte stigmatizzanti ed errori clinici, per esempio il rifiuto di procedure appropriate in base all'identificazione della persona; il team ha creato uno strumento per valutare tali danni e prevede di integrare nuovi dati per ridurre i bias.
Esperti sottolineano la necessità di migliori dataset, regolamentazione, coordinamento pubblico‑privato e il coinvolgimento delle comunità. CLIAS ha promosso 15 progetti AI tra il 2023 e il 2024 e ha prodotto una guida per dataset sanitari di alta qualità. I ricercatori concludono che l'intelligenza artificiale può sostenere la salute sessuale e riproduttiva se gli strumenti sono addestrati con informazioni rappresentative e usati con supervisione umana tempestiva.
Parole difficili
- marginalizzato — persone escluse o con meno accesso ai servizimarginalizzati
- ostetrica — professionista che assiste gravidanze e parti
- chatbot — programma che conversa automaticamente con gli utenti
- fiducia — certezza che un servizio sia sicuro e utile
- stigmatizzante — che giudica o discrimina negativamente personestigmatizzanti
- dataset — raccolta organizzata di dati per analisi
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Quali vantaggi e quali rischi vedi nell'uso di chatbot per la salute sessuale tra adolescenti?
- Come si potrebbero coinvolgere le comunità marginalizzate nella creazione di dataset sanitari rappresentativi?
- Quali misure di regolamentazione e supervisione umana sarebbero più efficaci per ridurre discriminazioni e errori clinici?
Articoli correlati
Nuovo strumento a luce per misurare le cellule cerebrali
Ricercatori hanno sviluppato CaBLAM, uno strumento che usa la bioluminescenza per registrare l'attività dentro cellule cerebrali viventi. Permette registrazioni di ore senza luce esterna e funziona in modelli animali come topi e zebrafish.
Dubioza Kolektiv pubblica «Yebiga», critica l'intelligenza artificiale
La band bosniaca Dubioza Koleektiv ha pubblicato la canzone «Yebiga», che critica la dipendenza dall'intelligenza artificiale e avverte del rischio di una tecnocrazia. Il video usa immagini satiriche e richiama il personaggio HEPEK.
L'IA può apprendere valori culturali osservando le persone
Uno studio della University of Washington ha testato se l'intelligenza artificiale può imparare valori culturali osservando il comportamento umano. Agenti addestrati su dati di due gruppi hanno mostrato differenze nel comportamento altruistico.
Un modello fisico per immagini di risonanza magnetica più nitide
Ricercatori della Rice University e dell'Oak Ridge National Laboratory hanno sviluppato un nuovo quadro fisico che collega il moto molecolare ai segnali MRI e migliora la descrizione del rilassamento NMR nei liquidi.