AI và kiểm soát nhập cư ở biên giới Hoa KỳCEFR B2
25 thg 4, 2026
Phỏng theo UntoldMag, Global Voices • CC BY 3.0
Ảnh: Mathias Reding, Unsplash
Bài viết, xuất bản lần đầu bởi UntoldMag ngày 25 tháng 11 năm 2025 và tái bản trên Global Voices tháng 4 năm 2026, phân tích việc sử dụng AI trong thực thi biên giới và kiểm soát nhập cư ở Hoa Kỳ. Năm 2023, Black Alliance for Just Immigration cùng hai phòng luật tại Trường Luật UC Irvine gửi báo cáo tới Người báo cáo đặc biệt của Liên Hợp Quốc về phân biệt chủng tộc, cho rằng các chính sách sử dụng AI vi phạm Công ước quốc tế về xóa bỏ mọi hình thức phân biệt chủng tộc (ICERD), mà Hoa Kỳ đã phê chuẩn năm 1994.
Các công nghệ giám sát gồm trụ giám sát tự hành, Anduril Towers và hệ thống máy bay nhỏ không người lái theo dõi người trước khi họ tới biên giới. Nhà chức trách nói các hệ thống này giúp ngăn chặn vượt biên trái phép và bảo vệ người di cư, nhưng báo cáo lại thấy việc tăng dùng "biên giới thông minh" trùng với tỷ lệ tử vong người di cư ở mức cao lịch sử và góp phần khuôn mẫu hóa người bị di dời như mối đe doạ an ninh.
Nhiều hệ thống xử lý dữ liệu và dự báo cũng gây lo ngại. Ứng dụng CBP One từng yêu cầu ảnh selfie để xác minh nhưng nhận diện tông da tối kém hơn khuôn mặt da trắng từ 10 đến 100 lần và thiếu bản dịch ngôn ngữ quan trọng. Automated Targeting System dùng dữ liệu để dự đoán việc ở quá hạn thị thực; khi hạn chế đi lại tăng năm 2020, công dân Nigeria bị gắn cờ là rủi ro cao không tương xứng. Bên trong Hoa Kỳ, ICE dùng công cụ dự báo như "Hurricane Score" của B.I. Incorporated và nền tảng RAVEn với dữ liệu từ 56 nước; những hệ thống này thiếu minh bạch và không cho phép người di cư từ chối. USCIS dùng Asylum Text Analytics và một Evidence Classifier để sàng lọc đơn và tài liệu, điều này có thể bất lợi cho người không nói tiếng Anh và những người có hồ sơ bất thường.
Các tác giả báo cáo kêu gọi một tiếp cận phi thực dân đối với AI, viện dẫn Cosmo uBuntu và yêu cầu cộng đồng châu Phi cùng người hải ngoại tham gia thiết kế và vận hành AI. Họ đề nghị các biện pháp sau:
- thông báo kịp thời và quyền từ chối;
- giám sát độc lập và công bố công khai;
- tham vấn các bên liên quan và biện pháp khắc phục thiệt hại;
- cam kết của các thành phố không chia sẻ dữ liệu cho DHS.
Cho tới khi các hệ thống không còn phân biệt và bao gồm nhiều quan điểm đa dạng, họ cho rằng không nên sử dụng AI ở bất kỳ biên giới nào.
Từ khó
- giám sát — theo dõi hành vi hoặc khu vực bằng công nghệgiám sát tự hành, giám sát độc lập
- dự báo — sử dụng dữ liệu để tiên đoán khả năng xảy racông cụ dự báo
- nhận diện — xác định khuôn mặt hoặc đặc điểm bằng máynhận diện tông da
- phi thực dân — tiếp cận chống lại ảnh hưởng của chủ nghĩa thực dân
- biên giới thông minh — biên giới được giám sát bằng nhiều công nghệ
- minh bạch — rõ ràng, có thể kiểm tra và giải thíchthiếu minh bạch
Mẹo: di chuột, dùng phím Tab hoặc chạm vào các từ được tô sáng trong bài để xem định nghĩa nhanh ngay khi bạn đọc hoặc nghe.
Câu hỏi thảo luận
- Bạn nghĩ cách tiếp cận “phi thực dân” đối với thiết kế AI có thể thay đổi việc ra quyết định về di cư như thế nào? Hãy nêu một hoặc hai ví dụ.
- Các tác giả đề nghị quyền từ chối và giám sát độc lập. Theo bạn, những biện pháp này sẽ giúp bảo vệ người di cư ra sao?
- Bài viết nêu vấn đề nhận diện tông da và thiếu minh bạch. Bạn thấy các thành phố nên hay không nên chia sẻ dữ liệu với cơ quan liên bang? Vì sao?
Bài viết liên quan
Cảm biến nhà và AI giám sát sức khỏe người mắc ALS
Nhóm tại University of Missouri thử nghiệm hệ thống cảm biến trong nhà kết hợp trí tuệ nhân tạo để theo dõi thay đổi chức năng ở người mắc xơ cứng teo cơ một bên (ALS). Dự án xác minh dữ liệu rồi phát triển mô hình dự báo và tích hợp cảnh báo vào chăm sóc lâm sàng.