टेक, AI और जवाबदेही: हिजा कमरान की बातCEFR B2
21 अप्रैल 2026
आधारित: Guest Contributor, Global Voices • CC BY 3.0
फोटो: Marija Zaric, Unsplash
यह रचना "Don’t ask AI, ask a peer" श्रृंखला पर आधारित है, जो Global Voices, Association for Progressive Communication और GenderIT के बीच सहयोग से हुई है, और Global Voices की अप्रैल 2026 Spotlight श्रृंखला "Human perspectives on AI" का भी हिस्सा है। लेखिका हिजा कमरान बताती हैं कि उनका काम उन्हें नई तकनीकों के प्रति सतर्क बनाता है और वे अक्सर इन्हें देर से अपनाती हैं।
कमरान का तर्क है कि तकनीक तटस्थ नहीं है और बड़ी टेक कंपनियों की प्राथमिक वचनबद्धता अक्सर व्यवसाय मॉडल की ओर रहती है। वे मार्क ज़करबर्ग के कथित शब्द "सिनेटर, हम विज्ञापन चलाते हैं" का संदर्भ देती हैं और यह बताती हैं कि जब हानिकारक सामग्री और विज्ञापन के बारे में पूछा गया तो एक कंपनी प्रतिनिधि ने कहा, "मैं लोगों को हमारी सेवा की शर्तें पढ़ने के लिए प्रेरित करती/करता हूँ।" ऐसे जवाब पारदर्शिता और जवाबदेही की कमी दर्शाते हैं।
लेख में बताया गया है कि प्रशिक्षण के लिए उपयोग किए जाने वाला डेटा इंटरनेट और सार्वजनिक रिकॉर्ड से आता है और इसमें बहिष्कार, नस्लवाद, लैंगिक भेदभाव और आर्थिक असमानता का इतिहास छपा होता है। जब AI ऐसे डेटा से सीखता है तो वह मौजूद परेशानियों को एन्कोड और बढ़ा सकता है तथा अपने परिणामों को तटस्थ के रूप में पेश कर देता है। कॉर्पोरेट प्रोत्साहन—मुनाफ़ा, शेयरधारक और विकास लक्ष्य—निर्णय लेते हैं कि किन समस्याओं को महत्व मिलेगा, उत्पाद कितनी तेज़ी से आएंगे और किसकी जमीन या जानें प्रभावित होंगी; ऐसे प्रभावितों के लिए लेख में "परोक्ष हानि" शब्द का प्रयोग किया गया है।
कमरान अमानवीयकरण के जोखिम पर भी जोर देती हैं और बताती हैं कि सैन्यीकृत संदर्भों में लोग केवल आंकड़ों के बिंदु बनकर लक्ष्यों जैसी हालत में आ सकते हैं। AI संदर्भ, इतिहास या जिम्मेदारी को समझता नहीं; यह संभाव्यताओं से परिणाम उत्पन्न करता है। इसलिए लेख मानवाधिकार दृष्टिकोण की वकालत करता है जो जवाबदेही को सत्ता रखने वालों की ओर शिफ्ट करे और विकास के आरम्भिक चरणों में सवाल पूछे—किसने सिस्टम बनाया, यह कैसे काम करता है और किसे लाभ होता है।
हिजा कमरान (she/her) GenderIT.org की मुख्य संपादक और APC के Women’s Rights Programme में वकालत रणनीतिकार हैं।
कठिन शब्द
- तटस्थ — किसी पक्ष का समर्थन न करने वाला स्थिति
- जवाबदेही — अपनी कार्रवाईयों के लिए उत्तर देने की जिम्मेदारी
- पारदर्शिता — निर्णयों और प्रक्रियाओं का खुलकर दिखना
- प्रशिक्षण — मशीन को सीखाने के लिए दिया गया डेटा
- परोक्ष हानि — ऐसी बुरी असर जो सीधे न दिखे
- अमानवीयकरण — लोगों को वस्तु या आंकड़ा बनाने की क्रिया
- सैन्यीकृत — लड़ाई या सेना के ढंग में तैयार किया गया
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- लेख में बताये अनुसार टेक कंपनियों की प्राथमिकता व्यवसाय मॉडल क्यों होती है? आप क्या सोचते हैं?
- परोक्ष हानि के उदाहरण आपके समाज में क्या हो सकते हैं? एक या दो उदाहरण दीजिए और कारण बताइए।
- AI के विकास में जवाबदेही सुनिश्चित करने के लिए कौन से कदम उठाए जा सकते हैं? तर्क सहित बताइए।