रिपोर्टों में कहा गया कि पक्षपाती AI से मरीजों और नौकरी के उम्मीदवारों को नुकसान हुआ। शोधकर्ताओं ने कई ऐसे एल्गोरिद्म देखे जिन्हें पक्षपाती माना गया था और उनकी समस्याएँ दर्ज कीं।
शोध ने तीन सरल कारण पहचाने: पहला, कई मामलों में कोई स्पष्ट 'ground truth' (सही माप) नहीं होता। दूसरा, मॉडल असली दुनिया को बहुत साधारण बना देते हैं और जरूरी जानकारी छोड़ देते हैं। तीसरा, प्रणालियाँ तब पक्षपाती हो सकती हैं जब उन्हें मुख्य रूप से एक ही तरह के लोग बनाते हैं।
निष्कर्ष यह है कि सिर्फ मॉडल की सटीकता बढ़ाना काफी नहीं है; विकसित करने वालों को प्रणाली के काम करने के तरीके और विविध इनपुट पर विचार करना चाहिए।
कठिन शब्द
- पक्षपाती — कुछ समूह के पक्ष में अन्यायपूर्ण झुकाव या फैसला
- एल्गोरिद्म — समस्याएँ हल करने के क्रमिक निर्देशों का समूह
- प्रणाली — कुछ काम करने वाला व्यवस्थित तरीका या सिस्टमप्रणालियाँ
- सटीकता — नतीजे या जवाब का सही या निकट सही होना
- स्पष्ट — आसानी से समझ में आने वाला या साफ दिखने वाला
- विविध — कई तरह के अलग-अलग या भिन्न प्रकार
- इनपुट — सिस्टम या मॉडल में दिया गया डेटा
- जानकारी — किसी विषय या काम के बारे में तथ्य
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- आपके अनुसार 'सही माप' न होना क्यों समस्या हो सकता है?
- क्या एक ही तरह के लोगों की टीम बनाना पक्षपात बढ़ा सकता है? क्यों?
- विकसित करते समय आप किन प्रकार के विविध इनपुट जोड़ना चाहेंगे?
संबंधित लेख
लैटिन अमेरिका में कृत्रिम बुद्धिमत्ता से यौन और प्रजनन स्वास्थ्य पहुँचा
लैटिन अमेरिका के शोध समूह और गैर-सरकारी संगठन कृत्रिम बुद्धिमत्ता का उपयोग कर युवा और हाशिए पर रह रहे समूहों तक यौन और प्रजनन स्वास्थ्य जानकारी और सेवाएँ पहुँचाने की कोशिश कर रहे हैं। विशेषज्ञ बेहतर डेटा, विनियमन और समुदाय की भागीदारी की माँग करते हैं।