AI, निगरानी और नागरिक समूहों के उत्तरCEFR B1
29 अप्रैल 2026
आधारित: Guest Contributor, Global Voices • CC BY 3.0
फोटो: Christian Wiediger, Unsplash
Global Voices की Spotlight श्रृंखला (अप्रैल 2026) के एक प्रोजेक्ट में IRIS, Luminate और Open Society Foundations के समर्थन से Global Majority के मामलों पर दस केस स्टडीज़ कमीशन की गईं। अध्ययन लैटिन अमेरिका और कैरिबियन, अरब क्षेत्र, नाइजीरिया, ट्यूनीशिया, भारत और हांगकांग से आईं।
अध्ययन तीन व्यापक प्रतिउत्तर बताते हैं। Co‑opting में कुछ समूह तकनीक और संस्कृति का उपयोग कर अपने लक्ष्यों को आगे बढ़ाते हैं; उदाहरण के लिए ब्राज़ील की Fogo Cruzado ने Future Narratives Lab के साथ मिलकर AI से फावेलास में पुलिस हिंसा के खिलाफ संदेशों की परख की। Countering में Derechos Digitales ने ब्राज़ील और चिली में चेहरे की पहचान के व्यापक उपयोग के खिलाफ अभियान चलाया। Innovating में El Salvador की नारीवादी पत्रकारियों की समूह Alharaca ऑफलाइन सभाएँ, बोर्ड गेम और साउंड इंस्टॉलेशन इस्तेमाल करती है, जबकि हांगकांग के कार्यकर्ता व्यंग्य और संकेतित भाषा का सहारा लेते हैं।
अध्ययन बतलाते हैं कि समूह हाइपरलोकल स्तर पर जमीनी आवाजें केंद्र में लाते हैं और सीमाओं के पार सबक साझा करते हैं। लेखकों ने लचीलापन पर जोर दिया और कहा कि फंडरों को ऐसे समर्थन देना चाहिए जिससे संगठन जल्दी अनुमान लगा कर दिशा बदल सकें।
कठिन शब्द
- समर्थन — किसी काम के लिए सहायता या मदद प्रदान करना
- अध्ययन — किसी विषय की जानकारी इकट्ठा करने की प्रक्रिया
- प्रतिउत्तर — किसी घटना या कार्य पर दिया गया जवाब
- हाइपरलोकल — बहुत छोटे स्थानीय स्तर या समुदाय से संबंधित
- लचीलापन — परिवर्तन के अनुसार जल्दी ढलने की क्षमता
- जमीनी — स्थानीय स्तर पर मौजूद या धरातल से जुड़ा
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- आपके शहर या गाँव में जमीनी आवाज़ें सुनाने वाले कौन से तरीके उपयोगी हो सकते हैं? उदाहरण दें।
- अगर आप किसी समूह को फंड कर रहे हों तो उसे जल्दी बदलाव करने लायक समर्थन किस रूप में देंगे? कारण बताइए।
- क्या आप सोचते हैं कि व्यंग्य और संकेतित भाषा जैसे तरीकों से प्रभाव बढ़ सकता है? क्यों या क्यों नहीं?
संबंधित लेख
बड़े भाषा मॉडल में सुरक्षा-संशोधन
North Carolina State University के शोधकर्ताओं ने बड़े भाषा मॉडल (LLMs) में सुरक्षा-संशोधन कैसे काम करता है इसका अध्ययन किया। उन्होंने मॉडल में सुरक्षा-न्यूरॉन्स की पहचान कर फाइन‑ट्यूनिंग के समय उन्हें स्थिर रखकर सुरक्षित व्यवहार बनाए रखने के तरीके दिखाए।