AI và rủi ro cho cộng đồng LGBTQ+CEFR B2
18 thg 11, 2025
Phỏng theo Aaron Spitler, Global Voices • CC BY 3.0
Ảnh: Igor Omilaev, Unsplash
Trí tuệ nhân tạo đang được triển khai rộng hơn trong đời sống hàng ngày, kèm theo sự gia tăng đầu tư tư nhân trong thập kỷ qua. Một khảo sát toàn cầu của Ipsos cho thấy 55 phần trăm người được hỏi nghĩ rằng các giải pháp dùng AI mang lại nhiều lợi ích hơn nhược điểm. Dù nhiều công ty quảng bá công cụ AI nhờ hiệu quả và tính dễ dùng, cộng đồng và chuyên gia vẫn cảnh báo về rủi ro từ dữ liệu và thiết kế mô hình.
Các vấn đề thiên vị đặc biệt ảnh hưởng tới cộng đồng LGBTQ+. Wired đưa tin rằng một số công cụ tạo ảnh, ví dụ Midjourney, đã tạo ra hình ảnh quy giản và có hại khi mô tả người LGBTQ+. UNESCO đã xem xét các giả định đằng sau nhiều mô hình lớn và báo cáo rằng công cụ phổ biến như Llama 2 của Meta và GPT-2 của OpenAI mang thái độ dị tính chuẩn tắc; trong mô phỏng, họ tạo ra nội dung tiêu cực về người đồng tính hơn một nửa số lần. Điều này cho thấy dữ liệu huấn luyện và lựa chọn thiết kế có thể lặp lại những tổn hại xã hội.
Những rủi ro không chỉ dừng ở nội dung số. Forbidden Colours, một tổ chức Bỉ bảo vệ quyền LGBTQ+, mô tả cách hệ thống "nhận diện giới tính tự động" phân tích tư liệu âm thanh và hình ảnh, dùng đường nét khuôn mặt hay mẫu giọng nói để suy đoán giới tính. Họ lập luận rằng những phép đo này không phản ánh cách một người tự hiểu giới tính và vì thế là hiểu sai, thậm chí có thể nguy hiểm.
Politico Europe đưa tin Thủ tướng Hungary Viktor OrbE1n đã phê chuẩn giám sát sinh trắc học có hỗ trợ AI tại các sự kiện Pride, với lý giải là bảo vệ trẻ em khỏi "chương trình nghị sự LGBTQ+"; trên thực tế biện pháp này mở cửa cho việc giám sát nghệ sĩ, nhà hoạt động và công dân. Các cơ quan của Liên minh châu Âu đang xem xét chính sách đó. Những người ủng hộ thay đổi kêu gọi hợp tác giữa nhà phát triển và các tổ chức LGBTQ+, tăng biện pháp bảo vệ để ngăn lạm dụng giám sát, và cấm các hệ thống phát hiện hoặc phân loại giới tính. Họ nhấn mạnh rằng ý kiến của người LGBTQ+ nên được xin ở mọi giai đoạn phát triển công cụ, nhằm giảm tổn hại và tăng khả năng AI trở nên hữu ích và công bằng cho nhiều người hơn.
Từ khó
- triển khai — đưa vào sử dụng trong thực tế
- thiên vị — đối xử hoặc đánh giá không công bằng
- quy giản — làm cho cái gì đó đơn giản quá mức
- dữ liệu huấn luyện — thông tin dùng để dạy mô hình AI
- nhận diện — xác định ai hoặc cái gì dựa trên dấu hiệu
- giám sát sinh trắc học — theo dõi con người bằng dấu hiệu sinh học
- lạm dụng — dùng sai mục đích, gây hại hoặc vi phạm
Mẹo: di chuột, dùng phím Tab hoặc chạm vào các từ được tô sáng trong bài để xem định nghĩa nhanh ngay khi bạn đọc hoặc nghe.
Câu hỏi thảo luận
- Những biện pháp nào nhà phát triển và tổ chức LGBTQ+ có thể làm để giảm rủi ro từ AI, theo bài viết? Hãy nêu ít nhất hai ví dụ và lý do.
- Việc cấm hệ thống phát hiện hoặc phân loại giới tính có thể ảnh hưởng thế nào đến an ninh và quyền riêng tư tại các sự kiện công cộng? Nêu ưu và nhược điểm.
Bài viết liên quan
AI và ảnh công dân phát hiện muỗi Anopheles stephensi ở Madagascar
Các nhà nghiên cứu dùng AI và ảnh do người dân gửi để xác định Anopheles stephensi, được cho là phát hiện đầu tiên ở Madagascar. Ảnh chụp năm 2020 qua ứng dụng GLOBE Observer và kết quả được công bố trên tạp chí Insects.