रिपोर्टों में कहा गया कि पक्षपाती AI से मरीजों और नौकरी के उम्मीदवारों को नुकसान हुआ। शोधकर्ताओं ने कई ऐसे एल्गोरिद्म देखे जिन्हें पक्षपाती माना गया था और उनकी समस्याएँ दर्ज कीं।
शोध ने तीन सरल कारण पहचाने: पहला, कई मामलों में कोई स्पष्ट 'ground truth' (सही माप) नहीं होता। दूसरा, मॉडल असली दुनिया को बहुत साधारण बना देते हैं और जरूरी जानकारी छोड़ देते हैं। तीसरा, प्रणालियाँ तब पक्षपाती हो सकती हैं जब उन्हें मुख्य रूप से एक ही तरह के लोग बनाते हैं।
निष्कर्ष यह है कि सिर्फ मॉडल की सटीकता बढ़ाना काफी नहीं है; विकसित करने वालों को प्रणाली के काम करने के तरीके और विविध इनपुट पर विचार करना चाहिए।
कठिन शब्द
- पक्षपाती — कुछ समूह के पक्ष में अन्यायपूर्ण झुकाव या फैसला
- एल्गोरिद्म — समस्याएँ हल करने के क्रमिक निर्देशों का समूह
- प्रणाली — कुछ काम करने वाला व्यवस्थित तरीका या सिस्टमप्रणालियाँ
- सटीकता — नतीजे या जवाब का सही या निकट सही होना
- स्पष्ट — आसानी से समझ में आने वाला या साफ दिखने वाला
- विविध — कई तरह के अलग-अलग या भिन्न प्रकार
- इनपुट — सिस्टम या मॉडल में दिया गया डेटा
- जानकारी — किसी विषय या काम के बारे में तथ्य
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- आपके अनुसार 'सही माप' न होना क्यों समस्या हो सकता है?
- क्या एक ही तरह के लोगों की टीम बनाना पक्षपात बढ़ा सकता है? क्यों?
- विकसित करते समय आप किन प्रकार के विविध इनपुट जोड़ना चाहेंगे?
संबंधित लेख
AI-सक्षम पहनने योग्य उपकरण और टाइप 2 मधुमेह
यूनिवर्सिटी एट बुफ़ालो के शोधकर्ताओं ने NPJ Digital Medicine में प्रकाशित मेटा-रिव्यु में AI-सक्षम पहनने योग्य उपकरणों के टाइप 2 मधुमेह और प्रीडायबिटीज में संभावित लाभ और सीमाएँ जाँचीं। अध्ययन में सकारात्मक परिणाम और महत्वपूर्ण चुनौतियाँ दोनों मिले।