Kiel sociaj retoj influas informadon kaj danĝerojnCEFR B2
10 Nov 2025
Adaptita el Safa, Global Voices • CC BY 3.0
Foto de Mariia Shalabaieva, Unsplash
Sociaj amaskomunikiloj ludas duoblan rolon: ili vastigas aliron al informo kaj subteno por marĝenigitaj grupoj, sed ankaŭ kreas mekanismojn kiuj plifortigas malamon kaj malinformadon. En januaro 2025 Meta anoncis la forigon de triare parta fakto-ĉekado kaj la adoptadon de la “community notes” modelo uzata sur X; la kompanio ankaŭ diris, ke ĝi ĉesigos iujn politikojn kiuj protektis LGBTQ+ uzantojn. International Fact-Checking Network nomis la decidon paŝo malantaŭen, kaj UN-Altkomisaro Volker Türk avertis, ke permesi malamon interrete havas realajn konsekvencojn en la reala mondo.
Esplorado priskribas kiel produktaj mekanikoj — viraleco, rekomendoj kaj optimizado por engaĝiĝo — ŝovas pli da enhavo al homoj. Unu studo montris, ke la 15% plej kutimaj Facebook-uzantoj respondecis pri 37% de la falsaj kaplinioj en la studo. Algoritmoj formas la novaĵfluojn kaj korektoj malofte ricevas la saman atenton kiel la originalaj falsaj asertoj; pro tio la unua damaĝo ofte restas.
Rekomendaj sistemoj kaj generativa AI estas ligitaj al radikaliĝo kaj novaj riskoj. En 2021 studoj trovis ke TikTok-algoritmo povis konduki spektantojn de transfobiaj videoj al perfortaj ekstremismaj filmetoj, kaj raportoj nomis YouTube “radikaliga motoron”, inkluzive trovojn pri YouTube Kids kaj enhavo pri manĝadaj kondiĉoj. Elektoj en Indonezio en 2024 reliefigis AI-kreitajn avatarojn; ekskandidato Prabowo Subianto uzis unu vaste sur sociaj retoj. Freedom House avertis ke disvastigistoj de malinformado uzas AI-kreatajn bildojn, audion kaj tekston, farante la veron pli facile misformebla kaj malpli facile rekonebla.
En Venezuelo pro-registaraj AI-mesaĝoj kune eksistas kun minacoj al ĵurnalistoj, kiuj foje uzas ciferecajn avatarojn por protekti sian identecon. Malgrandaj humuraj paĝoj kiel “Shrimp Jesus” povas korodi fidon kaj provizi datumajn brokistojn, kun realaj sekvoj por trompoj kaj influkampanjoj. Entute teknologio povas ebligi kaj protekti, sed ankaŭ esti uzata por damaĝi; la ekvilibro dependas de dezajnaj elektoj, povstrukturoj kaj kiu regas la ilojn.
Malfacilaj vortoj
- amaskomunikilo — medioj por disvastigi informon al multaj homojamaskomunikiloj
- marĝenigita — persono aŭ grupo ne havanta fortan socian voĉonmarĝenigitaj
- malinformado — malĝusta aŭ misgvida informo celanta trompi aŭ konfuzigimalinformadon
- algoritmo — komputila regulo aŭ metodo por ordigi enhavonAlgoritmoj, TikTok-algoritmo
- rekomendo — propono aŭ listo de enhavoj proponataj al uzantorekomendoj
- engaĝiĝo — mezuro kiom multe uzantoj interagas kun enhavo
- radikaliĝo — procezo de iĝi pli ekstrema aŭ fanatika
- avataro — cifereca bildo aŭ reprezento de persono en retoavatarojn
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- La teksto diras ke teknologio povas ebligi kaj damaĝi. Kiun ekvilibron devas atingi dezajnaj elektoj kaj povstrukturoj por malpliigi malinformadon? Klarigu per motivoj aŭ ekzemploj.
- Kiel la uzo de AI-kreitaj bildoj, audion kaj avataroj povas influi fidon al novaĵoj kaj al elektaj procezoj? Donu ekzemplojn.
- Kion, laŭ vi, kompanioj aŭ registaroj povus fari por protekti minacatajn ĵurnalistojn sen malfortigi subtenon por marĝenigitaj grupoj?
Rilataj artikoloj
Nova fizika modelo por klaraj MRI-skanadoj
Esploristoj ĉe Rice University kaj Oak Ridge National Laboratory evoluigis modelon, publikigitan en The Journal of Chemical Physics, kiu ligas molekulan movadon al la signalo mezurata de klinikaj MRI-aparatoj. La kodo estas malfermfonta kaj la metodo havas plurajn aplikojn.
Bot-atakoj kontraŭ Instagram-kontoj en la Okcidenta Balkano
En novembro 2025 koordinitaj bot-operacioj celis aktivistajn kaj amaskomunikilajn Instagram-kontojn en la Okcidenta Balkano, laŭ raportoj de Meta.mk la 16an kaj 23an de novembro. Atakantoj uzis aŭtomatajn platformajn regulojn por provi silentigi kritikajn voĉojn.