Artefarita inteligenteco ĉe usonaj landlimojCEFR B2
25 Apr 2026
Adaptita el UntoldMag, Global Voices • CC BY 3.0
Foto de Mathias Reding, Unsplash
La teksto estis unue publikigita de UntoldMag la 25-an de novembro 2025 kaj reeldonita ĉe Global Voices kiel parto de aprila 2026 serio pri AI. Homaj rajtoj-organizaĵoj avertas, ke la kreskanta uzo de artefarita inteligenteco en usona landlima kontrolado povas reprodukti kaj pliprofundigi rasajn diskriminaciojn en multaj stadioj de la enmigrada procezo.
Raporto el 2023 de la Black Alliance for Just Immigration (BAJI) kaj la Immigrant Rights Clinic kaj International Justice Clinic ĉe UC Irvine asertas, ke tiaj praktikoj povus malobservi devontigojn sub la International Convention on the Elimination of All Forms of Racial Discrimination, kiun Usono ratifis en 1994. La raporto atentigas pri monitoraj teknologioj — aŭtonomiaj turoj, Anduril Towers kaj Small Unmanned Aircraft Systems (sUAS) — kiuj spuras homojn antaŭ ilia alveno al la teraj landlimoj.
La raporto priskribas kelkajn specifajn problemojn: la aplikaĵo CBP One iam postulis memfotojn sed malpli sukcese rekonis pli malhelajn haŭttonojn ol blankajn; la Automated Targeting System (ATS) etikedigis niĝerianojn kiel pli altan riskon post vojaĝlimigoj en 2020; kaj agentoj uzas antaŭdirajn ilojn kiel la «Hurricane Score» provizitan de B.I. Incorporated kaj la RAVEn-platformon, kiu integras datumojn de oficejoj en 56 landoj. Tiuj sistemoj ofte mankas je travidebleco kaj ne permesas al migrantoj rezigni.
U.S. Citizenship and Immigration Services uzas Asylum Text Analytics (ATA) kaj Evidence Classifier por filtrado de petoj kaj dokumentoj, kio, laŭ la raporto, povas malpliigi ŝancojn por ne-anglalingvanoj kaj por homoj kun netipaj dosieroj. BAJI kaj UCI postulas dekolonian aliron, invokante Cosmo uBuntu kaj postulante afrikajn kaj diasporajn voĉojn en dezajno kaj operacio de AI. Ili rekomendas tujajn sciigojn, opt-out-opciojn, federaciajn malpermesojn pri ras-discriminaj uzoj, sendependan superrigardon, publikan malkaŝon, konsultadon kun interesgrupoj, kompensojn por damaĝoj kaj urbajn promesojn ne kundividi datumojn por DHS-AI-evoluigo. Ĝis sistemo estas liberigita de diskriminacio kaj inkluzivas diversajn perspektivojn, ili argumentas, ke AI ne devus esti uzata ĉe ajna landlimo.
Malfacilaj vortoj
- artefarita inteligenteco — komputila sistemo kiu imitas homajn kapablojn
- rasa diskriminacio — maljusta traktado pro haŭtkoloro aŭ etnorasajn diskriminaciojn
- travidebleco — klaro pri kiel sistemo funkcias aŭ decidas
- dekolonia — rilata al forigo de koloniaj aŭ dominaj strukturojdekolonian
- dezajno — procezo de planado kaj organizado de sistemo
- monitora teknologio — aparatoj aŭ programoj por observi kaj spuri homojnmonitoraj teknologioj
- malpermeso — oficiala malpermeso de certa ago aŭ praktikomalpermesojn
- rezigni — renonci al iu opcio, servaĵo aŭ rajto
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Kiel manko de travidebleco en AI-sistemoj povas influi migrantojn? Donu unu aŭ du ekzemplojn.
- Kio povus esti avantaĝoj kaj malavantaĝoj inkluzivi afrikajn kaj diasporajn voĉojn en la dezajno de AI por landlima kontrolado?
- Ĉu, laŭ la raporto, AI devus esti uzata ĉe landlimoj antaŭ ol ĝi estas liberigita de diskriminacio? Klarigu vian opinion kun argumentoj.
Rilataj artikoloj
Farzana Sithi: voĉo por virinoj post la ribelo
Farzana Sithi estas studentina aktivulino el Jessore kaj volontulino ĉe The Hunger Project. Ŝi famiĝis dum la junular-gvidita ribelo en julio–aŭgusto 2024 kaj raportas kreskon de perforto, diskriminado kaj interreta ĉikanado ekde la 5-a de aŭgusto 2024.
Elasta orelkartilago produktita el homaj ĉeloj
Sciencistoj enlaboratorie kreis elastan orelan kartilagon uzante homajn ĉelojn kaj 3D-presadon. La laboro estas kunlaboro inter ETH Zurich, institutoj en Bazelo kaj la kantona hospitalo de Lucerno, kaj montras promeson en bestaj testoj.