AI kaj LGBTQ+: riskoj kaj postuloj de aktivulojCEFR B2
18 Nov 2025
Adaptita el Aaron Spitler, Global Voices • CC BY 3.0
Foto de Igor Omilaev, Unsplash
Artefarita inteligenteco disvastiĝas kaj privataj investoj en la kampo kreskis multe dum la lasta jardeko. Tutmonda enketo de Ipsos trovis, ke 55 procentoj opiniis, ke AI-solvoj ofertas pli da avantaĝoj ol malavantaĝoj, kaj firmaoj ofte emfazis la efikecon kaj facilecon de uzo. Samtempe restas seriozaj zorgoj pri la efikoj de AI, precipe por malplimultoj kiel la LGBTQ+-komunumo.
Unu granda fonto de risko estas la trejnaj datumoj. Reta enhavo ofte portas stereotipojn, kaj modeloj trejnitaj per tia enhavo povas reprodukti kaj plifortigi tiujn biasojn. Wired raportis pri bild-generaj iloj kiel Midjourney, kiuj en iuj petoj produktis reduktajn kaj damaĝajn bildojn pri LGBTQ+-homoj. UNESCO ekzamenis supozojn malantaŭ pluraj grandaj lingvaj modeloj kaj trovis, ke populare uzataj modeloj kiel Llama 2 kaj GPT-2 estis formitaj de eteronormaj sintenoj kaj en simuladoj kreis negativan enhavon pri gejaj homoj pli ol duonon de la tempo.
Riskoj etendiĝas preter ciferecaj rezultoj. Forbidden Colours priskribis, kiel sistemoj por «aŭtomata genra rekonado» analizas audio-vidajn materialojn kaj inferas genron el vizaĝaj trajtoj aŭ voĉaj padronoj, kio laŭ ili estas misgvida kaj eble danĝera. Politico Europe raportis, ke Viktor Orbán aprobis AI-ŝaltitan biometrian monitoradon ĉe lokaj Pride-eventoj, dirante ke tio protektus infanojn kontraŭ la «LGBTQ+-agendaĵo». En praktiko la mezuro permesas al registaro kaj ordaj fortoj observi artistojn, aktivulojn kaj ordinaraĵajn civitanojn, kaj institucioj de la Eŭropa Unio revizias la politikon.
Aktivuloj postulas ŝanĝojn por redukti damaĝojn kaj protekti homojn: ili petas partnerecojn inter programistoj kaj LGBTQ+-grupoj, pli fortajn protektojn kontraŭ misuzo de monitorado, kaj malpermeson de sistemoj kiuj detektas aŭ klasifikas genron. Ili ankaŭ volas enigi LGBTQ+-homojn en ĉiuj stadioj de ildezajno, por ke AI estu pli utila kaj justa por pli da homoj.
- Partnerecoj kun LGBTQ+-komunumoj
- Pli striktaj protektoj kontraŭ misuzo
- Malpermeso de genro-detektaj sistemoj
Malfacilaj vortoj
- artefarita inteligenteco — komputila sistemo kiu faras inteligentajn agojn
- trejni — instrui modelon per ekzemploj aŭ datumojtrejnaj, trejnitaj
- stereotipo — simpla, ĝeneraligita ideo pri grupostereotipojn
- eteronorma — kredo kiu donas antaŭecon al heterseksaj normojeteronormaj
- bild-generaj iloj — programoj kiuj aŭtomate kreas bildojn
- biometria monitorado — uzado de korpaj datumoj por observi homojnbiometrian monitoradon
- malpermeso — leĝa aŭ administra malŝalto de permesomalpermeson
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Kiaj riskoj povas aperi kiam AI-modeloj estas trejnitaj per retaj datumoj, laŭ la artikolo? Klarigu per ekzemploj de la teksto.
- Kiel partnerecoj inter programistoj kaj LGBTQ+-komunumoj povus helpi redukti damaĝojn? Donu almenaŭ unu konkretan ideon.
- Kio estas avantaĝoj kaj malavantaĝoj de malpermeso de genro-detektaj sistemoj, laŭ via opinio kaj la informoj en la teksto?
Rilataj artikoloj
AI kaj civitanoj trovas Anopheles stephensi en Madagaskaro
Sciencistoj uzis artefaritan inteligenton kaj telefonajn fotojn por identigi tion, kion ili kredas esti la unua Anopheles stephensi en Madagaskaro. La foto venis per la aplikaĵo GLOBE Observer kaj estis publikigita en Insects.
Cifereca kaj baza edukado por knabinoj en Chiapas
En la altmontoj de Chiapas mankas edukado kaj cifereca aliro por multaj familioj. Statistikoj montras altan malriĉecon, malfortan partoprenon de virinoj kaj perforton, sed programoj kiel Low‑Tech kaj Tecnolochicas montras komencajn progreso‑signojn.