AI tạo nội dung người lớn và rủi ro với cộng đồng LGBTQ+CEFR B2
2 thg 4, 2026
Phỏng theo Guest Contributor, Global Voices • CC BY 3.0
Ảnh: franco alva, Unsplash
Việc sử dụng trí tuệ nhân tạo để tạo ảnh và video người lớn dựa trên mô hình được huấn luyện từ bộ dữ liệu lớn, nên sản phẩm thường không là ảnh chính xác của một người cụ thể mà là hình ảnh mới được sinh ra theo yêu cầu. Năm 2025, Pornhub báo cáo chuyên mục "Lesbian" là mục xem nhiều nhất và "Transgender" đứng thứ hai; đồng thời lượng tìm kiếm cho các công cụ "AI porn generators" tăng và một trang thu hút lượng truy cập lớn trong tháng Một.
Các nhà nghiên cứu cảnh báo nhiều vấn đề pháp lý và đạo đức. Aurélie Petit mô tả phần lớn nội dung do AI tạo là "phương tiện không hiện thực về ảnh", một khái niệm mà nhiều nền tảng và luật hiện nay chưa quy định rõ. Miranda Wei lưu ý các bộ dữ liệu huấn luyện có thể bao gồm hình ảnh không có sự đồng thuận hoặc nội dung thù hằn. Nhiều mô hình tuyên bố có quy tắc an toàn — ví dụ chính sách của ChatGPT cấm các hoạt động bất hợp pháp và bạo lực tình dục — nhưng kẻ xấu vẫn có thể tìm cách lách.
Các nhà bảo vệ quyền lợi nêu rõ hậu quả với cộng đồng LGBTQ+. Porn chuyển giới chính thống có thể khai thác định kiến; các trang như CreateAIShemale cung cấp tùy chỉnh rộng gồm tuổi, bộ phận cơ thể, bộ điều chỉnh và 42 tùy chọn "race", trong đó có những mục gây xúc phạm như "goblin" hay "green skin". AI cũng khuếch đại hình ảnh phi thực tế của nam đồng tính, với các tìm kiếm như "femboy" và "twink" ở vị trí đầu, cùng báo cáo về mức tăng tìm kiếm cho cụm từ mô tả trẻ hóa.
Về luật pháp, một số biện pháp đã được thông qua: Đạo luật TAKE IT DOWN cấm công bố hình ảnh thân mật không đồng thuận ở Hoa Kỳ; Tennessee xem việc chia sẻ deepfake là tội hình; California thông qua luật yêu cầu gắn watermark. UNICEF báo cáo năm 2026 rằng tại 11 quốc gia, ít nhất 1.2 triệu trẻ em cho biết hình ảnh của họ bị chỉnh thành deepfake tình dục trong năm trước đó. Ngoài ra, có tiết lộ rằng từ tháng 12 năm 2025, Grok đã sản xuất và chia sẻ tới 1.8 triệu hình ảnh tình dục hóa phụ nữ. Các chuyên gia lo ngại hậu quả cho cả người xem và người sáng tạo, từ việc gia tăng tiêu thụ nội dung đến những báo cáo về lệ thuộc ở vị thành niên, trong khi khung pháp lý vẫn chưa hoàn thiện.
Từ khó
- trí tuệ nhân tạo — kỹ thuật máy tính mô phỏng trí tuệ con người
- bộ dữ liệu — tập hợp dữ liệu dùng để huấn luyện máybộ dữ liệu lớn
- huấn luyện — dạy mô hình máy học với dữ liệu
- đồng thuận — sự cho phép hay chấp nhận rõ ràng
- deepfake — hình ảnh hoặc video bị giả mạo bằng AIdeepfake tình dục
- khung pháp lý — tập hợp luật và quy định áp dụng
- khuếch đại — làm mạnh hoặc tăng cường ảnh hưởng
- tùy chỉnh — thay đổi theo yêu cầu cá nhân người dùng
Mẹo: di chuột, dùng phím Tab hoặc chạm vào các từ được tô sáng trong bài để xem định nghĩa nhanh ngay khi bạn đọc hoặc nghe.
Câu hỏi thảo luận
- Bạn nghĩ biện pháp nào trong bài (TAKE IT DOWN, luật của California, hay quy định tại Tennessee) sẽ hiệu quả nhất để bảo vệ nạn nhân? Vì sao?
- Các nền tảng và nhà phát triển AI nên làm gì để giảm rủi ro dữ liệu huấn luyện chứa hình ảnh không có sự đồng thuận hoặc nội dung thù hằn?
- Bài viết nêu một số hậu quả cho cộng đồng LGBTQ+. Bạn thấy tác hại cụ thể là gì và các biện pháp giảm thiểu phù hợp là gì?