Hacks Hackers en Ekvadoro: teknologio kontraŭ malinformadoCEFR A2
28 Mar 2025
Adaptita el Melissa Vida, Global Voices • CC BY 3.0
Foto de Hartono Creative Studio, Unsplash
Grupo en Ekvadoro revivigis lokan branĉon de Hacks Hackers por trakti malinformadon en elektokampanjo. La iniciato ekestis el konversacioj inter Ivan Terceros, kunfondinto de Openlab, kaj unu ĵurnalisto kaj komunikada konsilisto. Ili jam havis eventojn en 2021 kaj planis pli vastan agadon frue en 2024.
La 19-an de februaro okazis konferenco titolita "Artificial Intelligence and Disinformation during Elections" ĉe Simon Bolivar Andean University. Poste, la 22-an kaj 23-an de februaro, okazis hakatono ĉe PUCE kun ĉirkaŭ 60 partoprenantoj. La teamoj laboris pri fakto-kontrolado subtenata de AI, travidebleco de kampanjaj financoj kaj analizo de ciferecaj rakontoj. Tri teamoj gajnis premiojn kaj ricevis mentoradon, kaj ili prezentis siajn projektojn la 19-an de marto por serĉi plian subtenon.
Malfacilaj vortoj
- revivigi — doni novan vivon aŭ aktivecon al iorevivigis
- branĉo — parto de organizo aŭ loka grupobranĉon
- malinformado — malĝustaj informoj intence aŭ neintence dissenditajmalinformadon
- hakatono — evento kie homoj laboras pri programaro rapide
- travidebleco — malfermo pri informoj por publika kontrolo
- mentorado — subteno kaj konsilo de spertulo al novulomentoradon
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Ĉu vi opinias, ke AI povas helpi trovi malinformaton? Kial?
- Ĉu vi partoprenus hakaton pri fakto-kontrolado? Kial aŭ kial ne?
Rilataj artikoloj
Elasta orelkartilago produktita el homaj ĉeloj
Sciencistoj enlaboratorie kreis elastan orelan kartilagon uzante homajn ĉelojn kaj 3D-presadon. La laboro estas kunlaboro inter ETH Zurich, institutoj en Bazelo kaj la kantona hospitalo de Lucerno, kaj montras promeson en bestaj testoj.
Artefarita inteligenteco por kontraŭi sekse bazitan perforton en Latin-Ameriko
Grupoj en Latin-Ameriko evoluigas malfermfontajn kaj lokajn AI-ilojn por studi sekse bazitan perforton, protekti sentemajn datumojn kaj doni pli bonan evidenton al registaroj kaj civila socio. Ekzemploj inkluzivas AymurAI kaj PIT Policy Lab.