Penelitian yang dipublikasikan di PNAS Nexus menunjukkan bahwa ringkasan singkat dari chatbot bertenaga AI dapat menggeser pandangan sosial dan politik penggunanya melalui pembingkaian halus, meskipun informasi yang disajikan faktual. Daniel Karell, asisten profesor sosiologi di Yale University dan penulis senior, menyatakan: "Kami menunjukkan bahwa menanyakan chatbot AI untuk mendapatkan fakta sejarah dapat memengaruhi opini orang bahkan ketika informasi yang diberikan akurat dan tidak ada yang meminta alat itu untuk mencoba membujuk Anda tentang apa pun."
Tim peneliti, termasuk Matthew Shu (Yale College 2025), menguji 1.912 peserta dengan membandingkan tiga jenis ringkasan: ringkasan default dari GPT-4o, entri Wikipedia, dan ringkasan yang diprompt agar bersuara liberal atau konservatif. Mereka menelaah dua peristiwa abad ke-20, yakni Seattle General Strike (penghentian kerja lima hari pada Februari 1919) dan protes Third World Liberation Front pada 1968.
Analisis menunjukkan bahwa ringkasan AI default dan ringkasan yang diprompt liberal mendorong pandangan yang lebih liberal dibandingkan Wikipedia, sedangkan pembingkaian konservatif mendorong opini lebih konservatif relatif ke Wikipedia. Para penulis menilai adanya "bias laten" yang muncul selama pelatihan model bahasa besar (LLM) dan juga pengaruh dari bias prompt; pembingkaian konservatif tampaknya terutama berasal dari bias prompt, sedangkan pembingkaian liberal kemungkinan berasal dari kombinasi bias laten dan prompt. Mereka memperingatkan bahwa, berbeda dengan pengeditan Wikipedia yang transparan, pengembangan chatbot kurang transparan, sehingga perusahaan pembuat model memiliki kapasitas untuk membentuk opini publik.
- Publikasi: PNAS Nexus
- Institusi penulis: Yale dan Rutgers
- Fokus: efek pembingkaian dan bias dalam LLM
Kata-kata sulit
- pembingkaian — cara menyajikan informasi sehingga mempengaruhi sudut pandangpembingkaian konservatif, pembingkaian liberal, efek pembingkaian
- bias laten — kecenderungan tersembunyi dalam model karena data pelatihan
- bias prompt — kecenderungan yang muncul dari instruksi atau masukan pengguna
- model bahasa besar — sistem AI yang dilatih pada banyak teks
- transparan — jelas dan dapat diperiksa oleh publik atau penggunakurang transparan
- memengaruhi — mengubah sikap, pendapat, atau perilaku seseorang
Tips: arahkan kursor, fokus, atau ketuk kata yang disorot di dalam teks untuk melihat definisi singkat sambil membaca atau mendengarkan.
Pertanyaan diskusi
- Bagaimana menurut Anda transparansi pengembang model AI bisa mengurangi risiko pembingkaian? Berikan satu atau dua contoh tindakan konkret.
- Apa yang bisa dilakukan pengguna ketika menerima ringkasan AI agar menilai kemungkinan adanya pembingkaian atau bias?
- Apakah perbandingan dengan Wikipedia cukup untuk menilai pengaruh ringkasan AI? Mengapa ya atau tidak, dan sumber informasi apa lagi yang berguna?
Artikel terkait
Calon Perempuan di Uganda Diserang Secara Daring
Dalam pemilu Januari 2026 beberapa calon perempuan Uganda menghadapi serangan online seperti gambar AI, deepfake, disinformasi, dan hinaan seksual. Teknologi memperkuat kekerasan yang sudah ada dan tidak ada undang-undang khusus untuk itu.
Kebangkitan Intervision 2025: musik dan politik
Intervision hidup kembali pada September 2025 dan memicu perdebatan tentang hubungan antara musik dan politik. Rusia mengatakan acara itu apolitis, tetapi pengamat dan media melihat kemiripan dengan Eurovision serta reaksi publik di media sosial.