Peneliti di University of Zurich menguji empat large language models terkenal: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2, dan Mistral. Setiap model membuat lima puluh pernyataan naratif untuk 24 topik yang kontroversial. Para peneliti lalu meminta model lain menilai pernyataan tersebut dalam kondisi berbeda.
Ketika tidak ada informasi tentang sumber, tingkat kesepakatan antarmodel tinggi, di atas 90%. Namun ketika pengarang disebutkan — misalnya seorang manusia dari negara tertentu atau sebuah AI — tingkat kesepakatan menurun. Hasil yang jelas adalah bias anti-Cina saat pengarang disebut dari Cina. Penelitian juga menunjukkan model lebih percaya pada penulis manusia daripada tulisan yang dianggap dibuat AI. Studi ini dipublikasikan di Sciences Advances.
Kata-kata sulit
- model — Sebuah sistem untuk menganalisis atau menilai.
- bias — Preferensi yang tidak adil terhadap orang atau kelompok.
- penulis — Orang yang menulis teks atau karya.penulisnya
- penilaian — Cara menilai atau memberikan nilai pada sesuatu.penilaian mereka
- kepercayaan — Rasa yakin atau percaya terhadap sesuatu.
- ketidakpercayaan — Rasa tidak yakin atau tidak percaya.
Tips: arahkan kursor, fokus, atau ketuk kata yang disorot di dalam teks untuk melihat definisi singkat sambil membaca atau mendengarkan.
Pertanyaan diskusi
- Mengapa bias dalam model AI bisa menjadi masalah?
- Bagaimana cara mengatasi bias tersebut?
- Apa dampak kepercayaan terhadap manusia dalam penilaian AI?
Artikel terkait
AI dan risiko bagi komunitas LGBTQ+
Kecerdasan buatan semakin hadir, tetapi data dan desain model dapat menghasilkan bias terhadap orang LGBTQ+. Advokat meminta perlindungan lebih kuat, kerja sama dengan pengembang, dan larangan pada sistem yang mendeteksi atau mengklasifikasi gender.