AI dan risiko bagi komunitas LGBTQ+CEFR B2
18 Nov 2025
Diadaptasi dari Aaron Spitler, Global Voices • CC BY 3.0
Foto oleh Igor Omilaev, Unsplash
Kecerdasan buatan semakin masuk ke kehidupan sehari-hari dan sektor bisnis. Survei Ipsos menunjukkan mayoritas melihat manfaat teknologi ini, sementara investasi swasta dalam AI tumbuh tajam. Namun laporan dan penelitian menyoroti risiko sistem yang dilatih pada data daring, karena data tersebut sering membawa stereotip yang kemudian direproduksi oleh model.
Untuk komunitas LGBTQ+, konsekuensi itu nyata. Wired mencatat bahwa beberapa alat pembuat gambar, misalnya Midjourney, dapat menghasilkan representasi yang reduktif dan berbahaya. UNESCO meneliti asumsi yang membentuk beberapa model dan menemukan bahwa tool populer seperti Llama 2 dan GPT-2 dalam simulasi memproduksi konten negatif tentang orang gay lebih dari separuh waktu. Temuan ini menekankan peran data pelatihan dan pilihan desain dalam memproduksi kerugian berulang.
Risiko tidak terbatas pada teks atau gambar. Forbidden Colours, organisasi non-profit Belgia, menjelaskan cara kerja sistem "pengenalan jenis kelamin otomatis" (AGR) yang menganalisis materi audio-visual dan menggunakan ciri wajah atau pola vokal untuk menyimpulkan gender. Mereka berpendapat mustahil mengetahui bagaimana seseorang memahami identitas gendernya dari ukuran-ukuran itu, sehingga sistem semacam itu salah arah dan berpotensi berbahaya. Politico Europe melaporkan bahwa Perdana Menteri Hongaria, Viktor Orbán, mensahkan pemantauan biometrik berbasis AI pada acara Pride lokal dengan alasan akan melindungi anak-anak dari "agenda LGBTQ+." Lembaga-lembaga Uni Eropa sedang meninjau kebijakan tersebut.
Para advokat meminta langkah konkret untuk mengurangi kerugian: kemitraan antara pengembang dan pemangku kepentingan LGBTQ+, perlindungan yang lebih kuat terhadap penyalahgunaan pengawasan, larangan pada sistem yang mendeteksi atau mengklasifikasi gender, serta keterlibatan orang-orang LGBTQ+ pada semua tahap pengembangan alat. Tujuan langkah-langkah ini adalah mengurangi kerugian dan meningkatkan kemungkinan AI menjadi lebih berguna dan adil bagi lebih banyak orang.
Kata-kata sulit
- stereotip — gambaran atau anggapan sederhana tentang kelompok
- reproduksi — pembuatan ulang atau pengulangan sesuatudireproduksi
- pelatihan — proses memberi data atau contoh kepada model
- biometrik — pengukuran tubuh atau ciri biologis seseorang
- pengawasan — aktivitas mengamati atau memantau orang atau tempat
- mendeteksi — menemukan atau mengenali sesuatu secara otomatis
Tips: arahkan kursor, fokus, atau ketuk kata yang disorot di dalam teks untuk melihat definisi singkat sambil membaca atau mendengarkan.
Pertanyaan diskusi
- Bagaimana penggunaan data daring dapat menyebabkan kerugian bagi komunitas LGBTQ+? Berikan contoh yang disebutkan dalam teks.
- Apa keuntungan dan risiko jika pelarangan sistem yang mendeteksi atau mengklasifikasi gender diterapkan?
- Dari langkah yang diminta para advokat, mana yang menurut Anda paling penting untuk diutamakan? Jelaskan alasan dan contoh penerapannya.
Artikel terkait
Ilmuwan Afrika Selatan Pantau Kualitas Udara Waktu Nyata dengan Metode Fisika Partikel
Ilmuwan di Afrika Selatan mengadaptasi metode fisika partikel untuk sistem AI_r yang memantau kualitas udara waktu nyata menggunakan sensor murah, IoT, dan kecerdasan buatan. Proyek memasang 500 sensor di Sedibeng tahun depan dan mendapat dukungan internasional.
Afrika butuh surveilans One Health yang terintegrasi
Para ahli mengatakan Afrika memerlukan surveilans terintegrasi untuk manusia, hewan, dan lingkungan karena data terfragmentasi memperlambat deteksi wabah. Studi One Health yang dipimpin CABI mengusulkan investasi, pelatihan, dan kerja sama lintas sektor.
Remaja di Hong Kong Menggunakan Chatbot sebagai Teman Emosional
Laporan 12 Oktober 2025 menunjukkan remaja di Hong Kong memakai chatbot seperti Xingye dan Character.AI untuk dukungan emosional. Para ahli peringatkan risiko, dan beberapa pengembang mencoba membuat alat yang lebih aman.