LingVo.club
Level
Model Bahasa Mengubah Penilaian Berdasarkan Identitas Pengarang — Level A2 — three white disc on brown surface

Model Bahasa Mengubah Penilaian Berdasarkan Identitas PengarangCEFR A2

25 Nov 2025

Diadaptasi dari U. Zurich, Futurity CC BY 4.0

Foto oleh Siora Photography, Unsplash

Level A2 – Dasar / Elementer
2 mnt
107 kata

Peneliti di University of Zurich menguji empat large language models terkenal: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2, dan Mistral. Setiap model membuat lima puluh pernyataan naratif untuk 24 topik yang kontroversial. Para peneliti lalu meminta model lain menilai pernyataan tersebut dalam kondisi berbeda.

Ketika tidak ada informasi tentang sumber, tingkat kesepakatan antarmodel tinggi, di atas 90%. Namun ketika pengarang disebutkan — misalnya seorang manusia dari negara tertentu atau sebuah AI — tingkat kesepakatan menurun. Hasil yang jelas adalah bias anti-Cina saat pengarang disebut dari Cina. Penelitian juga menunjukkan model lebih percaya pada penulis manusia daripada tulisan yang dianggap dibuat AI. Studi ini dipublikasikan di Sciences Advances.

Kata-kata sulit

  • modelSebuah sistem untuk menganalisis atau menilai.
  • biasPreferensi yang tidak adil terhadap orang atau kelompok.
  • penulisOrang yang menulis teks atau karya.
    penulisnya
  • penilaianCara menilai atau memberikan nilai pada sesuatu.
    penilaian mereka
  • kepercayaanRasa yakin atau percaya terhadap sesuatu.
  • ketidakpercayaanRasa tidak yakin atau tidak percaya.

Tips: arahkan kursor, fokus, atau ketuk kata yang disorot di dalam teks untuk melihat definisi singkat sambil membaca atau mendengarkan.

Pertanyaan diskusi

  • Mengapa bias dalam model AI bisa menjadi masalah?
  • Bagaimana cara mengatasi bias tersebut?
  • Apa dampak kepercayaan terhadap manusia dalam penilaian AI?

Artikel terkait

AI Membantu Mendeteksi Melanoma — Level A2
21 Jan 2026

AI Membantu Mendeteksi Melanoma

Peneliti University of Missouri menguji kecerdasan buatan (AI) untuk mendeteksi melanoma dari gambar kulit. Teknologi ini dimaksudkan sebagai alat pendukung keputusan, bukan pengganti dokter, dan hasil awal menunjukkan potensi peningkatan akurasi.

AI dan risiko bagi komunitas LGBTQ+ — Level A2
18 Nov 2025

AI dan risiko bagi komunitas LGBTQ+

Kecerdasan buatan semakin hadir, tetapi data dan desain model dapat menghasilkan bias terhadap orang LGBTQ+. Advokat meminta perlindungan lebih kuat, kerja sama dengan pengembang, dan larangan pada sistem yang mendeteksi atau mengklasifikasi gender.