अप्रैल में Caleb Wohn ने CHI सम्मेलन में एक पेपर पेश किया जिसमें Virginia Tech की शोध टीम, जिनके नेतृत्व में Eugenia Rho हैं, ने यह परीक्षण प्रस्तुत किया कि ऑटिज़्म का खुलासा करने से AI सलाह कैसे बदलती है। शोधकर्ताओं ने 12 प्रचलित रूढ़ियों की पहचान की और सैंकड़ों निर्णय-निर्माण परिदृश्यों के आधार पर हजारों सामाजिक प्रॉम्प्ट बनाए।
टीम ने छह बड़े भाषा मॉडलों का परीक्षण किया, जिनमें GPT-4, Claude, Llama, Gemini और DeepSeek शामिल हैं, और कुल 345,000 प्रतिक्रियाएँ उत्पन्न कीं। कुछ स्पष्ट उदाहरणों में एक मॉडल ने खुलासे पर सामाजिक आमंत्रण ठुकराने की सलाह लगभग 75% बार दी, जबकि बिना खुलासे यह लगभग 15% था। दूसरे मामले में डेटिंग पर सलाह लगभग 70% बार रोमांस से बचने की आई, जबकि बिना खुलासे लगभग 50% थी।
शोध में 12 में से 11 रूढ़िगत संकेतों ने कम से कम 4 में से 6 सिस्टम पर निर्णयों को महत्वपूर्ण रूप से बदल दिया। टीम ने 11 ऑटिस्टिक उपयोगकर्ताओं का साक्षात्कार भी किया; कुछ ने उत्तरों को सीमित या उपेक्षापूर्ण बताया जबकि कुछ ने अधिक सावधानी भरे सुझावों को वैध कहा।
Wohn ने चेतावनी दी कि AI भरोसेमंद लग सकता है जबकि वह प्रणालीगत पक्षपात छिपा रहा होता है। टीम उम्मीद करती है कि डेवलपर्स अधिक पारदर्शी सिस्टम बनाकर उपयोगकर्ताओं को पहचान संबंधी जानकारी के प्रभाव नियंत्रित करने के साधन देंगे।
कठिन शब्द
- खुलासा — किसी निजी जानकारी को दूसरों के सामने बताना
- रूढ़ि — लोगों के बारे में साधारण और अक्सर गलत धारणारूढ़ियों
- प्रॉम्प्ट — किसी एआई से जवाब माँगने के लिए लिखा गया संदेश
- निर्णय-निर्माण — किसी स्थिति में फैसला लेने की प्रक्रिया
- पक्षपात — किसी समूह या व्यक्ति के प्रति अन्यायपूर्ण झुकाव
- पारदर्शी — जिसमें सिस्टम के फैसले आसानी से समझ में आएँ
- प्रतिक्रिया — किसी प्रश्न या घटना पर दिया गया उत्तरप्रतिक्रियाएँ
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- यदि AI सलाह किसी समूह के प्रति पक्षपात दिखाए, तो आप कैसे प्रतिक्रिया करेंगे?
- क्या आप अपनी ऑटिज़्म जैसी पहचान AI से साझा करना चुनेंगे? क्यों या क्यों नहीं?
- डेवलपर्स सिस्टम को अधिक पारदर्शी बनाने के लिए कौन से साधारण कदम उठा सकते हैं?