Yeni bir çalışma, sıradan yapay zekâ sohbet botu yanıtlarının bile insanların sosyal ve siyasi görüşlerini değiştirebildiğini gösterdi. Araştırmacılar, bu etkinin büyük dil modellerinin (LLM'ler) eğitimi sırasında oluşan örtük önyargılardan kaynaklandığını söylüyor ve bunun kullanıcıları istemeden etkileme potansiyeline dikkat çekiyor.
Çalışma PNAS Nexus dergisinde yayımlandı. Kıdemli yazar Yale Üniversitesi sosyoloji doçenti Daniel Karell, baş yazarı ise Yale College'dan 2025 mezunu Matthew Shu. Ekip, Seattle General Strike (Şubat 1919) ve 1968'deki Third World Liberation Front öğrenci protestoları gibi iki 20. yüzyıl olayını inceledi ve farklı kaynak özetlerini karşılaştırdı. Deneye katılanların bir kısmı yapay zekânın (GPT-4o) varsayılan özetlerini, bazıları ilgili Wikipedia girişlerini, diğerleri ise araştırma ekibinin liberal ya da muhafazakâr çerçevelerle yönlendirdiği özetleri okudu.
Sonuçlar, varsayılan yapay zekâ özetleri ile liberal çerçeveli özetlerin katılımcıları Wikipedia'ya kıyasla daha liberal görüşlere yönlendirdiğini; muhafazakâr çerçevelerin ise daha muhafazakâr görüşlere ittiğini gösterdi. Araştırmacılar, liberal kaymanın LLM'lerdeki örtük önyargıların ikna edici etkisini yansıttığını belirtiyor. Ayrıca ekip, muhafazakâr çerçevenin ağırlıklı olarak yönlendirme (steering) önyargısından kaynaklanabileceğini, liberal çerçevenin ise örtük ve yönlendirilmiş önyargıların birleşiminden doğabileceğini ekliyor.
Çalışma ayrıca katılımcılardan kendi siyasi ideolojilerini bildirmelerini istedi ve liberal çerçevenin genel gruplarda liberal görüşleri artırdığını not etti; muhafazakâr çerçeve ise istatistiksel olarak anlamlı etkileri yalnızca kendini muhafazakâr olarak tanımlayan katılımcılarda gösterdi. Yazarlar, Wikipedia'nın şeffaf düzenlemesiyle sohbet botu geliştirme süreçleri arasındaki farkı vurgulayarak, model geliştiren şirketlerin insanların görüşlerini şekillendirme gücünün rahatsız edici bir olgu olduğunu belirtiyor. Çalışmanın diğer ortak yazarları Yale ve Rutgers University'dendir.
Zor kelimeler
- önyargı — bir kişiye veya gruba karşı haksız kanaatönyargılardan, önyargıların
- örtük — doğrudan söylenmeyen ama mevcut olan
- büyük dil modeli — geniş veriyle dil üreten yapay zeka sistemibüyük dil modellerinin (LLM'ler)
- varsayılan — ilk seçilen veya otomatik olarak ayarlanmış olan
- şeffaf — içeriği veya süreci açıkça görülebilen
- şekillendirme — bir şeyin fikir veya davranışını değiştirme eylemi
İpucu: Türkçe metni okurken veya ses kaydını dinlerken, vurgulanan kelimelerin üzerine gel, odaklan ya da dokun; anında kısa tanımlar görünür.
Tartışma soruları
- Sizce sohbet botlarının insanların siyasi görüşlerini etkileme olasılığı için hangi önlemler alınmalı? Neden?
- Wikipedia'nın şeffaf düzenlemesi ile sohbet botu geliştirme süreçleri arasındaki farkın önemini nasıl açıklarsınız? Bir örnek verin.
- Bu çalışmanın günlük haber okuma ve bilgi edinme alışkanlıklarımız üzerinde hangi olumlu veya olumsuz sonuçları olabilir?
İlgili makaleler
Teknoloji ve tarım: küçük çiftçilerin erişim sorunu
25 Şubat'ta yayımlanan IPES-Food raporu, büyük tarım ve teknoloji şirketlerinin yakın ilişkilerinin küçük çiftçilerin modern tarım araçlarına erişimini zorlaştırdığını uyarıyor. Rapor bulut ve yapay zekâ kullanımını ve veri kontrolü endişelerini ele alıyor.
Manyetik Rezonansta (MRI) Yeni Fiziksel Model
Rice Üniversitesi ve Oak Ridge Ulusal Laboratuvarı araştırmacıları, moleküler hareketleri MRI sinyalleriyle ilişkilendiren fizik tabanlı bir model geliştirdi. Çalışma The Journal of Chemical Physics dergisinde yayımlandı ve kod açık kaynak verildi.