Araştırmacılar, "vibe coding" adı verilen yöntemin üretken yapay zekâ araçlarının güvensiz kod oluşturmasına yol açtığını söylüyor. Ekip internet genelinde 43,000'den fazla güvenlik duyurusunu taradı ve birçok vaka buldu. Claude, Gemini ve GitHub Copilot gibi araçlar bu yaklaşımla kullanılıyor.
Vibe Security Radar adlı araç Georgia Tech'teki bir laboratuvar tarafından geliştirildi. Radar herkese açık zafiyet veri tabanlarını tarıyor, hatayı buluyor ve kod geçmişine bakıyor. Eğer bir AI aracının izi görünürse vaka işaretleniyor.
Araştırmacılar, AI çıktısının dikkatle incelenmesi ve üretilen kodun güvenlik araçlarıyla kontrol edilmesi gerektiğini öneriyorlar.
Zor kelimeler
- yöntem — Bir işi yapma veya çözme biçimiyöntemin
- güvensiz — Tehlike veya risk yaratabilen, korunmamış
- taramak — Bir şeyin içini dikkatle aramaktaradı
- zafiyet — Bilgisayar sisteminde güvenlik açığı olan durum
- veritabanı — Bilgi ve verilerin saklandığı dijital yerveri tabanlarını
- çıktı — Bir işlemden veya programdan çıkan sonuççıktısının
İpucu: Türkçe metni okurken veya ses kaydını dinlerken, vurgulanan kelimelerin üzerine gel, odaklan ya da dokun; anında kısa tanımlar görünür.
Tartışma soruları
- Sizce AI tarafından oluşturulan kod neden riskli olabilir?
- Vibe Security Radar gibi araçlar kullanmak iyi bir fikir mi? Neden?
- Günlük hayatta AI araçları kullanıyor musunuz? Kısa bir örnek verin.
İlgili makaleler
Yapay zekada önyargı ve gerçek dünya sorunları
Yapay zeka hızla yayılıyor; Nisan ayında ChatGPT haftalık bir milyar aktif kullanıcıya ulaştı. Araştırmalar önyargılı sistemlerin zararlı etkilerini gösteriyor. Teksas Üniversitesi araştırması, üç ana faktörün önyargıyı artırdığını buldu.