En Latinameriko esplorgrupoj kaj ne-registaraj organizaĵoj uzas artefaritan inteligenton por plilarĝigi aliron al informoj pri seksa kaj reproduktiva sano. Projektoj en Peruo kaj Argentino celas specife junularon kaj marĝenigitajn komunumojn, inkluzive indiĝenajn popolojn kaj transajn personojn, ĉar multaj tradician servojn ne atingas tiujn grupojn adekvate.
En Peruo la akuŝistino Ana Miluzka Baca Gamarra gvidis la desegnon de TeleNanu, queĉua‑lingva babilejo por adoleskantoj kaj junuloj. TeleNanu uzas ĝenerativan AI kaj kvin‑paŝan konsilmodelon por konstrui fidon, identigi bezonojn, kontroli komprenon kaj konservi malferman komunikadon. La sistemo estis trejnita laŭ gvidlinioj de la Monda Organizaĵo pri Sano (WHO), la perua Ministerio pri Sano, recenzita scienca literaturo kaj profesia scio; la platformo ricevis pli ol 88,000 demandojn en queĉua kaj hispana en la lasta jaro. APROPO lanĉis NOA, haveblan per WhatsApp, retejo kaj sociaj retoj, kaj diras, ke ĝi estis trejnita per precizaj lokaj kaj internaciaj datumoj.
Samtempe esploristoj studas eblajn damaĝojn al transaj homoj. Virginia Silveira kaj aliaj avertas, ke biasitaj modeloj riskas forviŝi transajn korpojn kaj reprodukti diskriminacion. La argentina censuso de 2022 kalkulis preskaŭ 200,000 personojn kiel transaj aŭ ne‑binara; raporto el 2021 trovis vivdaŭron de 35–40 jaroj kaj altajn nivelojn de diskriminacio en sancentroj. CIECTI testis grandajn lingvajn modelojn kaj identigis stigmatizajn respondojn kaj klinikajn erarojn, ekzemple malakcepti konvenajn procedurojn laŭ identeco. La teamo kreis instrumenton por taksi tiajn damaĝojn kaj planas aldoni datumojn por redukti biason.
Ekspertoj emfazas bezonon de pli bonaj datumoj, reguligo, publika‑privata kunordigo kaj komunuma partopreno. CLIAS antaŭenigis 15 AI‑projektojn inter 2023 kaj 2024 kaj publikigis gvidilon por altkvalitaj sanaj datumaroj. Esploristoj diras, ke AI povas subteni seksan kaj reproduktan sanon nur se iloj estas trejnitaj per reprezentaj informoj kaj uzataj kun ĝustatempa homa superrigardo.
Malfacilaj vortoj
- esplorgrupo — grupo de personoj faranta sciencan esploronesplorgrupoj
- artefarita inteligento — komputila sistemo kiu imitas homan inteligentonartefaritan inteligenton
- marĝenigita — stato de estanta forigita aŭ malpli partoprenintamarĝenigitajn
- ĝenerativa — kapabla krei novan tekston aŭ enhavon memstareĝenerativan
- biasita — havi antaŭjuĝon en datumoj aŭ algoritmojbiasitaj
- diskriminacio — malsama malŝanco aŭ malbonigita traktado de grupodiskriminacion
- trejni — instrui sistemon per datumoj por lernitrejnita, trejnitaj
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Kiel AI en queĉua lingvo povas plibonigi aliron al informoj pri seksa sano por junuloj en marĝenigitaj komunumoj?
- Kiajn konkretajn paŝojn esploristoj aŭ programistoj povus preni por redukti biason en grandaj lingvaj modeloj, laŭ la teksto?
- Kial komunuma partopreno kaj homa superrigardo estas gravaj kiam oni uzas AI por sanaj servoj?
Rilataj artikoloj
Bot-atakoj kontraŭ Instagram-kontoj en la Okcidenta Balkano
En novembro 2025 koordinitaj bot-operacioj celis aktivistajn kaj amaskomunikilajn Instagram-kontojn en la Okcidenta Balkano, laŭ raportoj de Meta.mk la 16an kaj 23an de novembro. Atakantoj uzis aŭtomatajn platformajn regulojn por provi silentigi kritikajn voĉojn.