Các nhà nghiên cứu tự hỏi liệu mô hình ngôn ngữ AI có mã hóa thứ gì giống như hiểu biết về thế giới thật hay không. Các mô hình được huấn luyện trên nhiều văn bản Internet, nên dữ liệu có cả thông tin đúng, sai và nội dung vô nghĩa.
Nhóm thiết kế thí nghiệm với các câu có mức độ hợp lý khác nhau, ví dụ "Someone cooled a drink with ice", "...with snow", "...with fire" và "...with yesterday". Họ kiểm tra các trạng thái toán học nội tại của mô hình bằng phương pháp gọi là giải mã cơ chế (mechanistic interpretability).
Thí nghiệm chạy trên nhiều mô hình mở, gồm các ví dụ như GPT-2, Llama 3.2 và Gemma 2. Nhóm thấy các mô hình đủ lớn phát triển biểu diễn nội tại tương ứng với các mức hợp lý và kết quả khớp với phán đoán con người.
Từ khó
- mô hình ngôn ngữ — chương trình máy tính xử lý và tạo văn bản
- mã hóa — biến thông tin thành dạng khác để lưu hoặc xử lý
- huấn luyện — dạy máy tính bằng nhiều dữ liệu để học
- giải mã cơ chế — phân tích cách hoạt động bên trong của một mô hình
- biểu diễn — cách mô hình lưu và biểu thị thông tin nội bộ
- hợp lý — phù hợp với kinh nghiệm và suy luận thông thường
- phán đoán — kết luận hoặc nhận xét dựa trên thông tin
Mẹo: di chuột, dùng phím Tab hoặc chạm vào các từ được tô sáng trong bài để xem định nghĩa nhanh ngay khi bạn đọc hoặc nghe.
Câu hỏi thảo luận
- Bạn có nghĩ mô hình ngôn ngữ AI thực sự hiểu thế giới thật không? Tại sao?
- Bạn có lo lắng khi AI học từ thông tin sai trên Internet không? Viết một câu ngắn giải thích.
- Bạn nghĩ việc kiểm tra 'mức độ hợp lý' của câu hữu ích cho nghiên cứu như thế nào?