Penelitian ini menguji bagaimana metode pelatihan memengaruhi kemampuan model untuk menyimpan dan menggunakan kembali hasil perhitungan antara. Tim membandingkan fine-tuning standar dan Implicit Chain of Thought (ICoT), serta mengamati masalah ketergantungan jangka panjang yang muncul pada perkalian empat digit.
Pada fine-tuning standar, model dengan dua sampai dua belas lapis mencapai akurasi yang sangat rendah karena terjebak pada pola permukaan dalam data. Sebaliknya, model ICoT mencapai 100% akurasi. Analisis keadaan internal menunjukkan bahwa ICoT mengkode dan menyimpan nilai antara; peneliti bahkan berhasil mendekode jumlah berjalan dari hidden states tersebut.
Lebih jauh, ICoT mengatur mekanisme perhatian melintasi waktu: lapisan awal menghitung dan menyimpan produk pasangan digit di lokasi tertentu, sedangkan lapisan akhir mengambil kembali nilai itu untuk membentuk digit jawaban akhir. Menambahkan tujuan pelatihan untuk melacak jumlah berjalan pada model sederhana meningkatkan akurasi secara dramatis tanpa supervisi chain-of-thought eksplisit.
Kata-kata sulit
- akurasi — tingkat benar dalam hasil atau prediksi
- ketergantungan jangka panjang — ketergantungan selama periode waktu lama
- jumlah berjalan — total sementara yang terus diperbarui
- keadaan internal — informasi tersembunyi di dalam model
- mengkode — mengubah informasi menjadi bentuk tersimpan
- mendekode — mengubah kembali informasi tersimpan menjadi data
- mekanisme perhatian — cara model fokus pada bagian informasi penting
- lapisan — bagian bertumpuk atau tingkat dalam modellapisan awal, lapisan akhir
Tips: arahkan kursor, fokus, atau ketuk kata yang disorot di dalam teks untuk melihat definisi singkat sambil membaca atau mendengarkan.
Pertanyaan diskusi
- Bagaimana menurut Anda menyimpan nilai antara di keadaan internal bisa membantu model menyelesaikan perkalian panjang? Jelaskan dengan satu atau dua alasan.
- Apakah menambahkan tujuan pelatihan untuk melacak jumlah berjalan bisa berguna untuk tugas lain selain perkalian? Beri contoh singkat.
- Mengapa fine-tuning standar mungkin membuat model 'terjebak pada pola permukaan' menurut teks? Apa konsekuensinya bagi akurasi?
Artikel terkait
AI Membimbing Mahasiswa Bedah Saat Latihan Menjahit Luka
Para peneliti di Johns Hopkins mengembangkan AI yang menilai dan memberi umpan balik personal pada mahasiswa kedokteran saat berlatih menjahit luka. Studi acak dengan 12 mahasiswa menunjukkan manfaat terbesar bagi yang sudah punya dasar bedah.
Jeda Singkat di Media Sosial untuk Kurangi Misinformasi
Peneliti dari University of Copenhagen meneliti cara sederhana untuk memperlambat penyebaran misinformasi di media sosial. Mereka menemukan bahwa menambah jeda kecil dan elemen pembelajaran dapat mengurangi pembagian impulsif dan meningkatkan kualitas unggahan yang dibagikan.