Penelitian dari University of Zurich menyelidiki pengaruh atribusi pengarang terhadap penilaian large language models. Federico Germani dan Giovanni Spitale menguji empat model yang banyak digunakan: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2, dan Mistral. Setiap model menghasilkan lima puluh pernyataan naratif pada 24 topik kontroversial, lalu para peneliti mengumpulkan 192’000 penilaian untuk analisis.
Ketika tidak ada informasi tentang sumber, model-model itu menunjukkan tingkat kesepakatan yang tinggi, lebih dari 90% untuk semua topik. Namun ketika teks diatribusikan pada pengarang fiksi atau diberi label kebangsaan, pola berubah. Menyebut identitas pengarang menimbulkan bias yang kuat: tingkat kesepakatan antar sistem turun tajam meski isi teks tetap identik. Hasil paling menonjol adalah bias anti-Cina yang muncul di semua model.
Contoh spesifik menunjukkan konsekuensinya: pada topik geopolitik seperti kedaulatan Taiwan, Deepseek menurunkan kesepakatan hingga 75% hanya karena mengharapkan orang Cina memiliki pandangan berbeda. Studi ini juga menemukan kecenderungan bahwa model lebih percaya pada penulis manusia daripada pada teks yang dianggap ditulis oleh AI.
Para peneliti memperingatkan bahwa bias tersembunyi ini relevan untuk aplikasi nyata seperti moderasi konten, perekrutan, penelaahan akademik, dan jurnalisme. Germani dan Spitale menekankan perlunya transparansi dan tata kelola agar asumsi berbahaya tidak direplikasi oleh AI. Mereka merekomendasikan memakai LLM sebagai pembantu penalaran, bukan sebagai pengadil. Hasil penelitian ini dipublikasikan di Sciences Advances dan berasal dari University of Zurich.
Kata-kata sulit
- atribusi — menentukan atau menyebutkan sumber suatu teks
- penilaian — pendapat atau evaluasi tentang sesuatu
- kesepakatan — tingkat persetujuan antar pihak atau sistem
- bias — kecenderungan tidak netral terhadap suatu kelompok
- transparansi — keterbukaan informasi tentang proses atau keputusan
- tata kelola — aturan dan pengawasan untuk penggunaan atau teknologi
- moderasi — proses meninjau dan mengendalikan konten publik
Tips: arahkan kursor, fokus, atau ketuk kata yang disorot di dalam teks untuk melihat definisi singkat sambil membaca atau mendengarkan.
Pertanyaan diskusi
- Mengapa menyebut identitas pengarang dapat mengubah penilaian model meski teksnya sama?
- Apa dampak bias seperti anti-Cina pada aplikasi nyata yang disebutkan dalam teks (mis. moderasi konten atau perekrutan)?
- Langkah apa yang bisa meningkatkan transparansi dan tata kelola agar asumsi berbahaya tidak direplikasi oleh AI?
Artikel terkait
Kapan Anak Siap Punya Ponsel? Pilihan Telepon Rumah
Ahli dari Virginia Tech menjelaskan kapan anak mungkin siap punya ponsel dan mengapa beberapa keluarga kembali memakai telepon rumah. Mereka menekankan manfaat batasan, risiko layar berlebih, dan pentingnya pembicaraan terbuka tentang teknologi.
Nanopartikel bantu sel punca tingkatkan mitokondria
Para peneliti di Texas A&M University menggunakan nanopartikel berbentuk bunga (nanoflowers) untuk membuat sel punca menghasilkan lebih banyak mitokondria dan mentransfernya ke sel yang menua atau rusak, sehingga memulihkan energi seluler.
Kekerasan Digital terhadap Jurnalis dan Aktivis Perempuan
Kekerasan digital terhadap jurnalis dan aktivis perempuan di Indonesia semakin terlihat dalam lima tahun terakhir. Serangan online meliputi doxing, manipulasi foto, peretasan dan DDoS; korban melaporkan perlindungan kelembagaan yang terbatas.