Nghiên cứu từ Brown University khảo sát liệu các mô hình ngôn ngữ AI mã hóa ràng buộc thực tế hay không. Họ phân tích trạng thái nội tại của nhiều mô hình mở và so sánh với phán đoán của con người.
Các nhà nghiên cứu tại Georgia Tech cảnh báo phong cách 'vibe coding' do công cụ AI sinh mã có thể tạo lỗ hổng. Họ dùng Vibe Security Radar để quét và phát hiện nhiều trường hợp mã không an toàn.
Các nhà nghiên cứu tạo khuôn khổ để đánh giá mức tự động hóa công việc trị liệu khi AI và các mô hình ngôn ngữ lớn phổ biến. Khuôn khổ phân loại bốn mức tự động hóa và nêu lợi ích, rủi ro cùng hướng phát triển an toàn.
Nghiên cứu trên tạp chí Nature Neuroscience cho thấy não người dự đoán từ bằng cách nhóm các từ theo cấu trúc ngữ pháp, khác với mô hình ngôn ngữ lớn chỉ dựa vào từ tiếp theo. Kết quả dựa trên dữ liệu MEG và bài kiểm tra Cloze.
Nghiên cứu cho thấy khi người dùng nói họ bị chẩn đoán tự kỷ, phản hồi của các mô hình ngôn ngữ lớn thay đổi theo các định kiến phổ biến. Nhóm nghiên cứu kêu gọi minh bạch và cho người dùng kiểm soát.
Các nhà nghiên cứu tại ETH Zurich phát triển một chip cảm biến ký ảnh, video và âm thanh ngay lúc ghi. Chữ ký này giúp phát hiện nội dung bị sửa và có thể lưu vào sổ cái bất biến để kiểm chứng.
Các nhà nghiên cứu phát triển một bước tiền xử lý lấy cảm hứng từ bầy chim để chọn câu quan trọng trước khi mô hình ngôn ngữ lớn (LLMs) tạo tóm tắt. Phương pháp giúp giảm lỗi thông tin sai nhưng không loại bỏ hoàn toàn.
Nhóm tại North Carolina State University nghiên cứu cách căn chỉnh an toàn cho mô hình ngôn ngữ lớn. Họ đề xuất giả thuyết SSAH và kỹ thuật 'đóng băng' nơ-ron để giảm thuế căn chỉnh mà vẫn giữ mô hình an toàn.
Các nhà nghiên cứu dùng hình ảnh thần kinh để tìm hiểu cách não được tổ chức và vì sao một tâm trí thống nhất xuất hiện từ nhiều mạng chuyên biệt. Họ phân tích dữ liệu lớn và thấy trí tuệ tổng quát liên quan đến phối hợp toàn hệ thống.
Nghiên cứu cho thấy công cụ NotebookLM của Google có thể biến bài báo chuyên sâu thành tóm tắt âm thanh dễ nghe, nhưng các bản này vẫn chứa lỗi và không nên thay thế việc đọc tài liệu gốc.
Các nhà nghiên cứu tại Georgia Tech phát hiện lỗ hổng VillainNet trong các mạng siêu AI dùng cho xe tự hành. Cửa hậu này có thể được kích hoạt trong một số tiểu mạng và cho phép kẻ tấn công chiếm quyền điều khiển.
Nghiên cứu cho thấy các mô hình sinh văn bản lớn như ChatGPT, Claude và LLaMa có thể dự đoán tính cách, cảm xúc và hành vi từ nhật ký nói hoặc bản ghi của người tham gia. Kết quả khớp chặt với tự đánh giá của chính họ.
AI đang thay đổi cách mọi người tìm kết nối cảm xúc. Chatbot có thể an ủi tạm thời nhưng không thể thay thế tình yêu thật, và các nhà nghiên cứu cân nhắc lợi ích và rủi ro.