टेक, AI और जवाबदेही: हिजा कमरान की बातCEFR B1
21 अप्रैल 2026
आधारित: Guest Contributor, Global Voices • CC BY 3.0
फोटो: Marija Zaric, Unsplash
यह लेख Global Voices, Association for Progressive Communication और GenderIT के सहयोग से प्रकाशित "Don’t ask AI, ask a peer" श्रृंखला का हिस्सा है। यह Global Voices की अप्रैल 2026 Spotlight श्रृंखला "Human perspectives on AI" का भी हिस्सा है। लेखिका हिजा कमरान बताती हैं कि उनका कार्य उन्हें नई तकनीकों के प्रति सतर्क बनाता है।
कमरान का तर्क यह है कि टेक कंपनियाँ अक्सर अपनी प्राथमिक वचनबद्धता लोगों के बजाय व्यवसाय मॉडल की ओर रखती हैं। लेख में एक उद्धरण के तौर पर मार्क ज़करबर्ग के कथित शब्द "सिनेटर, हम विज्ञापन चलाते हैं" का हवाला है, और एक कंपनी प्रतिनिधि ने कहा कि वे लोगों को सेवा की शर्तें पढ़ने के लिए प्रेरित करते हैं। ऐसे उत्तर पारदर्शिता और जवाबदेही की कमी दिखाते हैं।
लेख यह भी बताता है कि AI प्रशिक्षण के लिए उपयोग किए जाने वाले डेटा इंटरनेट और सार्वजनिक रिकॉर्ड से आते हैं और इनमें नस्लवाद, लैंगिक भेदभाव और अन्य असमानताएं छपी होती हैं। कॉर्पोरेट मुनाफा और विकास लक्ष्य यह तय करते हैं कि किन समस्याओं को प्राथमिकता मिले। लेख उन प्रभावितों के लिए "परोक्ष हानि" शब्द का प्रयोग करता है और मानवाधिकार दृष्टिकोण अपनाने का आग्रह करता है।
कठिन शब्द
- वचनबद्धता — किसी उद्देश्य के प्रति दिया गया भरोसेमंद आश्वासन
- पारदर्शिता — साफ़ और खुलकर जानकारी दिखाने की स्थिति
- जवाबदेही — अपनी कार्रवाई के लिए जिम्मेदार ठहराए जाने की स्थिति
- नस्लवाद — किसी की नस्ल के आधार पर भेदभाव का विचार
- लैंगिक भेदभाव — लिंग के आधार पर अलग या गलत व्यवहार
- परोक्ष हानि — सीधे अनुभव न होने पर होने वाला नकारात्मक असर
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- लेख कहता है कि प्रशिक्षण डेटा में नस्लवाद और लैंगिक भेदभाव छिपा होता है। इससे आम लोगों पर क्या असर हो सकता है?
- कंपनियाँ पारदर्शिता और जवाबदेही बढ़ाने के लिए आप क्या कदम सुझाएँगे? दो-तीन वाक्यों में बताइए।
- लेख में मानवाधिकार दृष्टिकोण अपनाने का आग्रह है। आप इस विचार के बारे में क्या सोचते हैं और क्यों?
संबंधित लेख
बड़े भाषा मॉडल में सुरक्षा-संशोधन
North Carolina State University के शोधकर्ताओं ने बड़े भाषा मॉडल (LLMs) में सुरक्षा-संशोधन कैसे काम करता है इसका अध्ययन किया। उन्होंने मॉडल में सुरक्षा-न्यूरॉन्स की पहचान कर फाइन‑ट्यूनिंग के समय उन्हें स्थिर रखकर सुरक्षित व्यवहार बनाए रखने के तरीके दिखाए।