Các nhà nghiên cứu Federico Germani và Giovanni Spitale thử nghiệm bốn LLM phổ biến. Họ cho mỗi mô hình tạo 50 câu tường thuật về 24 chủ đề tranh cãi. Sau đó họ yêu cầu các mô hình đánh giá những phát biểu này theo các điều kiện khác nhau.
Khi không cho biết nguồn, mức đồng thuận giữa các mô hình vượt quá 90%. Nhưng khi gán tên tác giả hoặc quốc tịch, sự đồng thuận giảm. Nghiên cứu còn thấy một thiên vị chống Trung Quốc ở tất cả các mô hình. Các tác giả kêu gọi minh bạch và quản trị trong cách AI đánh giá thông tin.
Từ khó
- mô hình — Cách để tổ chức hoặc hiểu một vấn đề.các mô hình
- đánh giá — Nhận xét hoặc quyết định về điều gì đó.
- tin tưởng — Có niềm tin vào ai đó hoặc điều gì đó.
- người Trung Quốc — Người đến từ đất nước Trung Quốc.
Mẹo: di chuột, dùng phím Tab hoặc chạm vào các từ được tô sáng trong bài để xem định nghĩa nhanh ngay khi bạn đọc hoặc nghe.
Câu hỏi thảo luận
- Bạn nghĩ gì về việc các LLMs không tin tưởng vào nội dung do máy tạo?
- Tại sao sự đồng thuận lại giảm khi biết tác giả là người Trung Quốc?
- Bạn có nghĩ rằng thông tin tác giả ảnh hưởng đến cách đánh giá không?
Bài viết liên quan
Phân tích mạng xã hội giúp cảnh báo sớm dòng di cư trong khủng hoảng
Nghiên cứu trên EPJ Data Science cho thấy phân tích bài đăng mạng xã hội có thể cung cấp cảnh báo sớm về di cư trong xung đột và thiên tai. Nghiên cứu dùng gần 2 triệu bài đăng trên X và ba trường hợp: Ukraine, Sudan, Venezuela.