ज़्यूरिख के शोधकर्ता Federico Germani और Giovanni Spitale ने चार आमतौर पर उपयोग किए जाने वाले बड़े भाषा मॉडल (OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2, और Mistral) का परीक्षण किया। उन्होंने हर मॉडल से 24 विवादित विषयों पर 50 कथात्मक बयान बनवाए।
शोध में इन बयानों का मूल्यांकन अलग-अलग परिस्थितियों में कराया गया: कभी स्रोत नहीं बताया गया, और कभी पाठ को किसी विशेष राष्ट्रीयता के मानव लेखक या किसी अन्य LLM के नाम से जोड़ा गया। कुल 192’000 आकलन एकत्रित किए गए। स्रोत न बताने पर मॉडल 90% से अधिक सहमत रहे।
परन्तु जब काल्पनिक लेखक जोड़ दिए गए तो सहमति तेज़ी से घट गई। सबसे बड़ा बदलाव तब आया जब लेखक के रूप में "a person from China" बताया गया; सभी मॉडलों में चीन-विरोधी झुकाव दिखा, जिसमें Deepseek भी शामिल था। शोधकर्ता चेतावनी देते हैं कि यह पक्षपात सामग्री मॉडरेशन, नियुक्ति, अकादमिक समीक्षा और पत्रकारिता को प्रभावित कर सकता है और कहते हैं कि पारदर्शिता और शासन आवश्यक हैं।
कठिन शब्द
- पक्षपात — एकतरफा राय या भावना होना।पक्षपातपूर्ण
- निर्णय — कोई समस्या या स्थिति का समाधान।
- चेतावनी — सावधानी या खतरे की सूचना।
- सहमति — सहमति या एकमत होना।
- शासन — व्यवस्था और नियंत्रण करने की प्रक्रिया।
- विशेष — कोई खास बात या विशेषता।
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- क्या आपको लगता है कि एआई का उपयोग निर्णयों में पक्षपात पैदा कर सकता है?
- आपके अनुसार, एआई को सही और निष्पक्ष बनाने के लिए क्या कदम उठाने चाहिए?
- क्या आपको लगता है कि भविष्य के एआई मॉडल में क्या सुधार होने चाहिए?