AI kaj ne‑konsentaj sekse bildoj en BraziloCEFR A2
28 Apr 2026
Adaptita el Fernanda Canofre, Global Voices • CC BY 3.0
Foto de KOBU Agency, Unsplash
En novembro 2023 gepatroj en Rio de Janeiro raportis, ke adoleskantoj kreis kaj dividis AI‑kreatajn nudajn fotojn de samklasanoj. En septembro 2024 grupo en Bahio estis suspektata pri uzado de AI por krei pornografajn bildojn, kaj en Mato Grosso studentoj estis ekskluditaj post divido de tiaj bildoj.
Sendependa esplorcentro Internetlab publikigis teknikan noton frue en aprilo 2026. La dokumento diras, ke trejnaj aroj kaj datumbazoj povas esti biasaj kaj ke AI‑iloj povas reprodukti genran perforton. Internetlab petas regulojn pri sekureco‑ekde‑dezajno kaj malpermeson de ne‑konsentaj sekse orientitaj deepfakes (manipulitaj bildoj).
La publika debato kreskas, kaj tribunalaj decidoj en 2025 instigis vokojn por nova regulado. Internetlab ankaŭ rekomendas kurikulon por cifereca alfabeteco kaj pli klarajn regulojn pri respondeco de platformoj.
Malfacilaj vortoj
- trejna aro — aro de datumoj por trejni AI-sistemojntrejnaj aroj
- datumbazo — kolekto de informoj konservata en komputilodatumbazoj
- biaso — neŭtrala eraro aŭ malekvilibro en datumojbiasaj
- genra perforto — perforto kontraŭ homoj pro ilia sekso aŭ genrogenran perforton
- sekureco‑ekde‑dezajno — sistemo dizajnita por esti sekura ekde komenco
- malpermeso — oficiala malpermeso per leĝo aŭ regulomalpermeson
- manipulita bildo — bildo ŝanĝita por trompi aŭ falsimanipulitaj bildoj
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Ĉu via lernejo instruas ciferecan alfabetecon? Kial aŭ kial ne?
- Kion oni povus fari por protekti studentojn kontraŭ ne‑konsentaj bildoj?
- Kiel platformoj devus respondi kiam oni dividas manipulitajn aŭ ne‑konsentajn bildojn?