Đội nghiên cứu do Xiaoyan Bai và Chenhao Tan tại University of Chicago, cùng cộng tác với MIT, Harvard, University of Waterloo và Google DeepMind, phân tích vì sao các mô hình ngôn ngữ lớn tinh chỉnh tiêu chuẩn thất bại khi nhân hai số có bốn chữ số. Họ so sánh phương pháp huấn luyện tinh chỉnh thông thường với Chuỗi suy luận ẩn (Implicit Chain of Thought, ICoT) và tập trung vào phụ thuộc dài hạn, tức khả năng giữ các tổng chạy và tích từng cặp chữ số qua nhiều bước tính.
Kết quả cho thấy các mô hình tinh chỉnh tiêu chuẩn với từ hai đến mười hai lớp đạt độ chính xác rất thấp (dưới 1%). Những mô hình này rơi vào một cực tiểu cục bộ: chúng học các mẫu bề ngoài trong dữ liệu huấn luyện nhưng không phát triển cách lưu và tái sử dụng các giá trị trung gian cần cho các bước tiếp theo. Ngược lại, mô hình ICoT đạt kết quả chính xác trên tập kiểm thử.
Phân tích trạng thái nội bộ cho thấy mô hình ICoT mã hóa các giá trị trung gian và có thể giải mã các tổng chạy từ trạng thái ẩn, chứng tỏ mô hình thực sự nhớ những gì cần cho nhiệm vụ. Cơ chế chú ý được tổ chức thành các đường dẫn tách theo thời gian: các lớp đầu tính toán và lưu tích từng cặp chữ số ở vị trí cụ thể, còn các lớp sau truy xuất những giá trị đó để tạo chữ số của kết quả. Nhóm cũng quan sát biểu diễn chữ số theo cơ sở giống Fourier và một phép toán hình học tương tự tổng Minkowski xuất hiện tự nhiên trong quá trình huấn luyện.
Để kiểm tra khả năng cải thiện mô hình tiêu chuẩn, họ thêm một mục tiêu huấn luyện dạy mô hình theo dõi tổng chạy ở mỗi bước. Việc này nâng độ chính xác của một mô hình hai lớp lên gần mức cao (gần 99%) mà không cần giám sát chuỗi suy luận rõ ràng; mô hình phát triển cơ chế chú ý tương tự ICoT và các chiến lược theo dõi nhiều cặp chữ số. Nhóm nhấn mạnh bài học rộng hơn: một số hạn chế không thể chỉ sửa bằng cách tăng dữ liệu hay tham số; hướng dẫn kiến trúc và mục tiêu huấn luyện phù hợp có thể giúp mô hình học suy luận nhiều bước. "Khi AI ngày càng được tích hợp vào quyết định quan trọng, cần hiểu rõ cách nó học và suy nghĩ," Tan nói.
Từ khó
- tinh chỉnh — huấn luyện thêm để điều chỉnh mô hìnhtinh chỉnh tiêu chuẩn, mô hình tinh chỉnh tiêu chuẩn
- cực tiểu cục bộ — trạng thái nơi mô hình mắc kẹt không cải thiện
- trạng thái ẩn — biểu diễn bên trong mà mô hình lưu giữ thông tin
- cơ chế chú ý — cách mô hình tập trung thông tin quan trọng
- tổng chạy — kết quả trung gian được cộng dần theo bước
- giá trị trung gian — số hoặc dữ liệu tạm lưu cho bước tiếp theo
Mẹo: di chuột, dùng phím Tab hoặc chạm vào các từ được tô sáng trong bài để xem định nghĩa nhanh ngay khi bạn đọc hoặc nghe.
Câu hỏi thảo luận
- Tại sao hướng dẫn kiến trúc và mục tiêu huấn luyện lại quan trọng hơn chỉ tăng dữ liệu hoặc tham số? Hãy nêu lý do.
- Việc mô hình lưu và truy xuất giá trị trung gian có thể ảnh hưởng thế nào đến độ tin cậy khi AI tham gia vào quyết định quan trọng?
- Cho một ví dụ thực tế nơi theo dõi các giá trị trung gian sẽ hữu ích và giải thích ngắn lý do.