Yapay zeka ile üretilen sahte fotoğraf, video ve sesler (deepfake) insanları yanıltabiliyor ve kamu güvenini zedeleyebiliyor. ETH Zurich araştırmacıları, kaydedildiği anda veriyi kriptografik olarak imzalayan bir sensör çipi geliştirdi.
Bu imza, verinin hangi cihazdan ve ne zaman geldiğini gösteriyor ve sonradan yapılan değişiklikleri ortaya çıkarıyor. İmzalar değiştirilemez bir defterde, örneğin blok zincirinde saklanabiliyor. Sensör herhangi bir kameraya veya kayıt cihazına entegre edilebilir ve sosyal medya platformları yükleme sırasında otomatik doğrulama yapabilir.
Zor kelimeler
- sahte fotoğraf — gerçekte olmayan, yanıltıcı görüntü veya fotoğraf
- kriptografik — veriyi matematiksel yöntemlerle korumaya ilişkin
- imza — verinin kaynağını ve doğruluğunu gösteren işaret
- sensör çipi — veri toplayan küçük elektronik donanım parçası
- blok zinciri — değişikliklerin kaydının güvenli tutulduğu dijital sistemblok zincirinde
- doğrulama — bilginin gerçek ve doğru olup olmadığını kontrol etme
İpucu: Türkçe metni okurken veya ses kaydını dinlerken, vurgulanan kelimelerin üzerine gel, odaklan ya da dokun; anında kısa tanımlar görünür.
Tartışma soruları
- Sence sahte fotoğraf ve videolar neden tehlikeli olabilir?
- Bu sensör çipi hangi durumlarda en çok işe yarar? Kısa yazın.
- Sosyal medyada fotoğraf yüklerken otomatik doğrulama olmasını ister misiniz? Neden?
İlgili makaleler
Yapay zekâlı manşetle yaşlılarda zayıflık erken tespit ediliyor
Arizona Üniversitesi araştırmacıları, uyluğa takılan yumuşak bir manşet ve yapay zekâ kullanarak yaşlı yetişkinlerde zayıflığın erken işaretlerini tespit etti. Cihaz veriyi cihaz üzerinde işler ve veri iletimini büyük ölçüde azaltır.
Dünya Kupası'nda Bangladeş ile Hindistan arasında güvenlik krizi
2026 T20 Kriket Dünya Kupası, Bangladeş’in Hindistan’a gitmeyi reddetmesiyle güvenlik ve siyasi bir krize dönüştü. Tartışma, BCCI’nin bir oyuncuyu IPL kadrosundan güvenlik gerekçesiyle serbest bırakma talebiyle başladı; ICC değerlendirmesi sızdı ve taraflar anlaşamıyor.