Bangladeş seçim kampanyasında yapay zekâ ve sahte görüntülerCEFR B2
1 Nis 2026
Uyarlanmıştır: Zulker Naeen, Global Voices • CC BY 3.0
Fotoğraf: Refat Ul Islam, Unsplash
Bangladeş'te Temmuz 2024'teki öğrenci ve halk ayaklanması eski hükümeti devirmiş ve ülke 12 Şubat'ta yüksek riskli bir ulusal seçim yapmıştır. Seçim öncesi aylarda yapay zekâ, siyasi anlatılar ve kamu algısını biçimlendirmede merkezi bir araç haline gelmiştir.
14 Aralık 2025'te çevrimiçinde yayılan bir fotoğraf, Dhaka Üniversitesi Merkezi Öğrenci Birliği'nin 27. başkan yardımcısı Shadik Kayem'i, daha sonra Osman Hadi'nin tetikçisi olduğu iddia edilen bir adamla otururken gösteriyor gibiydi. Osman Hadi 11 Aralık'ta Dakka'da vurulmuştu. FactWatch görüntünün sahte ve yapay zekâ tarafından üretilmiş olduğunu doğruladı.
Bir kampanya çalışması çevrimiçinde 72 vaka tespit etti. Bunların %49'u tamamen kurgusal faaliyet veya ifadeler üretiyordu, %28'i düzenlenmiş foto kartlarla siyasi figürlere yanlış ifadeler atfediyordu ve doğrulayıcılar AI ile düzenlenmiş sahte alıntılara ilişkin 20 ayrı vaka buldu. Sentezik görüntüler ve deepfake videolar birçok lidere yönlendirildi; örneğin Tarique Rahman, sahnelenmiş kampanya görüntülerinde gösterildi, Khaleda Zia ise bilinen sağlık sorunlarına rağmen yürürken gösterildi (raporlarda kendisi 76 yaşında olarak tanımlanıyor). Deepfake videolar eski Başbakan Sheikh Hasina'yı sürgünden açıklama yaparken gösterdi ve bir AI videosu eski Malezya Başbakanı Mahathir Mohamad'ı Hasina'yı desteklerken yanlış biçimde sundu.
Politik aktörler Somoy TV, Channel i, Jugantor, Kaler Kantho ve Barta Bazar gibi güvenilir mecraları taklit eden düzenlenmiş foto kartlar kullandı. Uydurma alıntılar farklı markalar üzerinden yayılarak güvenilirlik izlenimi artırıldı; bunlar arasında Bangladesh Jamaat-e-Islami'den Syed Abdullah Muhammad Taher ve Ulusal Vatandaş Partisi'nden Nahid Islam'a atfedilen alıntılar vardı.
- Bangladesh Milliyetçi Partisi 47 vaka ile hedeflendi.
- Jamaat-e-Islami 13 vaka ile hedeflendi.
- Awami League 6 vaka ile hedeflendi.
Düzenlenmiş foto kartlar, deepfake'ler ve uydurma videolar ayrıca yanlış anket sonuçları, sahnelendiği iddia edilen toplantılar ve saldırı iddiaları yayıyordu; bunlar arasında Osman Hadi'nin vurulmasında Jamaat'ın rolüne dair ısrarcı yanlış iddialar da vardı. Gözlemciler, kampanyanın seçim gününe zamanlanmış tırmanma, sentezik görüntüler ve hassas olayların istismarı gibi yeni taktikler yarattığını belirtiyor. Bu taktiklerin nasıl düzenleneceği veya diğer Güney Asya demokrasilerinin benzer AI kaynaklı dezenformasyona ne kadar hazırlıklı olduğu hâlâ belirsizdir.
Zor kelimeler
- ayaklanma — bir grup insanın otoriteye karşı toplu isyanıayaklanması
- algı — toplumun bir konu hakkında düşünme ve hissetme biçimikamu algısını
- sahte — gerçek olmayan, kopya veya uydurma
- sentezik — yapay yöntemlerle oluşturulmuş görüntü veya içeriksentezik görüntüler
- deepfake — gerçeğe çok benzeyen sahte video veya sesdeepfake videolar, deepfake'ler
- dezenformasyon — yanlış bilgi yayma amacıyla yapılan iletişimdezenformasyona
- doğrulayıcı — haber veya içerik doğruluğunu kontrol eden kişilerdoğrulayıcılar
İpucu: Türkçe metni okurken veya ses kaydını dinlerken, vurgulanan kelimelerin üzerine gel, odaklan ya da dokun; anında kısa tanımlar görünür.
Tartışma soruları
- Yapay zekâ ile üretilmiş sahte görüntü ve videolar seçim güvenliğini nasıl etkileyebilir? Örneklerle açıklayın.
- Medya kuruluşlarının taklit edilmesi ve uydurma alıntıların yayılması karşısında hangi önlemler etkili olabilir? Neden?
- Diğer Güney Asya demokrasilerinin benzer AI kaynaklı dezenformasyona hazırlanması için hangi adımlar atılmalıdır? Kısaça tartışın.