Esploro de la Universitato de Zuriko, gvidata de Federico Germani kaj Giovanni Spitale, testis kvar vaste uzatajn LLM-ojn: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 kaj Mistral. Ĉiu modelo generis 50 narrativajn asertojn pri 24 kontestataj temoj, inkluzive de vakcinaj devigoj, geopolitiko kaj klimata politiko. Post tio la modeloj taksis la asertojn sub malsamaj kondiĉoj: sen fonto, atribuite al homo de certa nacieco, aŭ atribuite al alia LLM; la teamo kolektis entute 192’000 taksojn por la analizo.
Kiam neniu aŭtoro estis menciita, interkonsento estis tre alta — pli ol 90% — kaj Spitale diras, ke tion ne montras ideologia milito inter modeloj. Tamen la ŝablono ŝanĝiĝis kiam oni aldonis fikciajn fontojn: interkonsento ofte malpliiĝis kaj aperis profundaj, kaŝitaj antaŭjuĝoj. La plej rimarkinda efiko estis forta kontraŭĉina antaŭjuĝo en ĉiuj modeloj; eĉ Deepseek malaltigis interkonsenton en geopolitikaj temoj kiel Tajvano, ĝis up to 75%, ĉar ĝi atendis alian vidpunkton por ĉina persono.
La studo montras ankaŭ, ke LLM-oj ĝenerale fidas homajn aŭtorojn pli ol aliaj AI-oj: plej multaj modeloj donis iom malpli altajn interkonsentajn taksojn kiam la teksto estis opiniita esti verkitaj de alia AI. La esploristoj avertas, ke tiaj kaŝitaj biasoj povas influi enhavmoderadon, dungen, akademian taksadon kaj ĵurnalismon. Ili postuladas travideblon kaj reguladon kaj rekomendas uzi LLM-ojn por helpi rezonadon anstataŭ anstataŭi ĝin — utilaj helpantoj, sed ne juĝistoj. La esploro aperas en Sciences Advances.
Malfacilaj vortoj
- esploro — sistema studo por kolekti kaj analizi datumojn
- modelo — komputila programo kiu generas tekstajn respondojnmodeloj
- kontestata — temo pri kiu homoj malsamas aŭ argumentaskontestataj
- atribui — asocii aŭ doni verkon aŭ ideon al iuatribuite
- interkonsento — ĝeneraligita konsento aŭ sama opinio inter homojinterkonsentajn
- antaŭjuĝo — negativa opinio pri grupo sen pruvojantaŭjuĝoj
- travidebleco — malfermo pri kiel decidoj aŭ procezoj funkciastravideblon
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Kio signifas por socio, se modeloj montras antaŭjuĝojn kiam teksto estas atribuita al certa nacio?
- Kiujn riskojn la esploristoj mencias por enhavmoderado, akademia taksado kaj ĵurnalismo pro tiaj kaŝitaj biasoj?
- Kiel travidebleco kaj regulado povus helpi redukti tiajn problemojn? Donu ekzemplon.