स्तर A2 – प्राथमिक / एलिमेंटरीCEFR A2
2 मिनट
114 शब्द
रिपोर्टों में कहा गया कि पक्षपाती AI से मरीजों और नौकरी के उम्मीदवारों को नुकसान हुआ। शोधकर्ताओं ने कई ऐसे एल्गोरिद्म देखे जिन्हें पक्षपाती माना गया था और उनकी समस्याएँ दर्ज कीं।
शोध ने तीन सरल कारण पहचाने: पहला, कई मामलों में कोई स्पष्ट 'ground truth' (सही माप) नहीं होता। दूसरा, मॉडल असली दुनिया को बहुत साधारण बना देते हैं और जरूरी जानकारी छोड़ देते हैं। तीसरा, प्रणालियाँ तब पक्षपाती हो सकती हैं जब उन्हें मुख्य रूप से एक ही तरह के लोग बनाते हैं।
निष्कर्ष यह है कि सिर्फ मॉडल की सटीकता बढ़ाना काफी नहीं है; विकसित करने वालों को प्रणाली के काम करने के तरीके और विविध इनपुट पर विचार करना चाहिए।
कठिन शब्द
- पक्षपाती — कुछ समूह के पक्ष में अन्यायपूर्ण झुकाव या फैसला
- एल्गोरिद्म — समस्याएँ हल करने के क्रमिक निर्देशों का समूह
- प्रणाली — कुछ काम करने वाला व्यवस्थित तरीका या सिस्टमप्रणालियाँ
- सटीकता — नतीजे या जवाब का सही या निकट सही होना
- स्पष्ट — आसानी से समझ में आने वाला या साफ दिखने वाला
- विविध — कई तरह के अलग-अलग या भिन्न प्रकार
- इनपुट — सिस्टम या मॉडल में दिया गया डेटा
- जानकारी — किसी विषय या काम के बारे में तथ्य
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- आपके अनुसार 'सही माप' न होना क्यों समस्या हो सकता है?
- क्या एक ही तरह के लोगों की टीम बनाना पक्षपात बढ़ा सकता है? क्यों?
- विकसित करते समय आप किन प्रकार के विविध इनपुट जोड़ना चाहेंगे?