Chicago Üniversitesi'nden Xiaoyan Bai ve Chenhao Tan liderliğindeki bir ekip, MIT, Harvard, Waterloo ve Google DeepMind iş birlikçileriyle çalıştı. Ekip, iki dört basamaklı sayının çarpımını hesaplama görevine odaklandı çünkü bu görev uzun hesaplamada ara sonuçların saklanmasını gerektiriyor.
Ekip standart ince ayar ile ICoT adlı başka bir eğitim yöntemini karşılaştırdı. Standart ince ayar altında modeller çok düşük doğruluk gösterdi. ICoT ile eğitilen model ise ara değerleri kodladı ve sonuçları doğru üretti. Araştırmacılar ayrıca modele ara toplamları takip etmeyi öğreten bir hedef eklediler ve basit modellerde doğruluk önemli ölçüde yükseldi.
Zor kelimeler
- ekip — bir ortak çalışma yapan kişi grubu
- odaklanmak — bir işe dikkatle ve sabırla yönelmekodaklandı
- ara sonuç — hesaplama sırasında oluşan ara değer veya sonuçara sonuçların
- ince ayar — önceden eğitilmiş modelin küçük ayarlarla geliştirilmesi
- doğruluk — bir şeyin doğru olma veya doğru sonuç verme seviyesi
- kodlamak — bilgi veya değerleri belirli biçime dönüştürmekkodladı
- hedef — yapılacak işi veya amacı gösteren nesne
İpucu: Türkçe metni okurken veya ses kaydını dinlerken, vurgulanan kelimelerin üzerine gel, odaklan ya da dokun; anında kısa tanımlar görünür.
Tartışma soruları
- Bu makaleye göre neden ara sonuçlar saklanmalı?
- Araştırmacıların eklediği hedefin doğruluk üzerindeki etkisini kısaca açıklayın.
- Sen olsaydın bir hesaplama görevinde ara sonuçları takip eder miydin? Neden?
İlgili makaleler
NeuroBridge: otistik iletişimi anlamaya yarayan yapay zekâ aracı
Tufts Üniversitesi araştırmacıları NeuroBridge adlı bir yapay zekâ aracı geliştirdi. Araç, nörotipik kişilere otistik insanların iletişim tercihlerini göstermeyi ve daha açık, doğrudan konuşmayı öğrenmelerini sağlamayı amaçlıyor.