नया अध्ययन यह दर्शाता है कि जब उपयोगकर्ता अपने ऑटिज़्म का खुलासा करते हैं तो बड़े भाषा मॉडल की रोज़मर्रा की सामाजिक सलाह बदल सकती है। यह शोध अप्रैल में CHI सम्मेलन में Caleb Wohn द्वारा पेश किया गया था और Virginia Tech की सहायक प्रोफेसर Eugenia Rho की प्रयोगशाला ने अध्ययन का नेतृत्व किया। शोध टीम ने 12 अच्छी तरह से दस्तावेज़ की गई रूढ़ियों की पहचान की और सैंकड़ों निर्णय-निर्माण परिदृश्य तैयार किए।
अनुसंधान में छह प्रमुख बड़े भाषा मॉडलों का परीक्षण किया गया, जैसे कि:
- GPT-4
- Claude
- Llama
- Gemini
- DeepSeek
टीम ने हजारों "क्या मुझे A करूँ या B?" तरह के प्रॉम्प्ट पर कुल 345,000 प्रतिक्रियाएँ उत्पन्न कीं। कुछ स्पष्ट परिणामों में एक मॉडल ने ऑटिज़्म के खुलासे पर सामाजिक आमंत्रण ठुकराने की सलाह लगभग 75% समय दी, जबकि बिना खुलासे यह लगभग 15% था। डेटिंग परिदृश्यों में एक अन्य मॉडल ने खुलासे के बाद लगभग 70% समय रोमांस से बचने या अकेला रहने की सलाह दी, जबकि बिना खुलासे यह लगभग 50% थी।
शोध में पाया गया कि 12 में से 11 रूढ़िगत संकेतों ने कम से कम 4 में से 6 सिस्टम पर मॉडल के निर्णयों को महत्वपूर्ण रूप से बदल दिया। टीम ने 11 ऑटिज़्म वाले AI उपयोगकर्ताओं का साक्षात्कार भी लिया; कुछ प्रतिभागियों ने जवाबों को सीमित या उपेक्षापूर्ण बताया, और एक ने कहा, "क्या हम यहाँ स्पॉक के लिए सलाह स्तंभ लिख रहे हैं?" Rho ने कहा, "एक उपयोगकर्ता का पूर्वाग्रह किसी अन्य उपयोगकर्ता के निजीकरण हो सकता है।" शोधकर्ता इसे "सुरक्षा-अवसर विरोधाभास" कहते हैं।
Wohn ने चेतावनी दी कि AI भरोसेमंद दिख सकता है जबकि वह प्रणालीगत पक्षपात छिपा रहा होता है। टीम उम्मीद करती है कि ये निष्कर्ष डेवलपर्स को अधिक पारदर्शी सिस्टम बनाने और उपयोगकर्ताओं को यह नियंत्रित करने के साधन देने के लिए प्रेरित करेंगे। Source: Virginia Tech.
कठिन शब्द
- रूढ़ि — पुरानी या सामान्यीकृत सोच या मान्यतारूढ़ियों
- रूढ़िगत — किसी चीज़ के बारे में स्थापित और सीमित सोच
- प्रयोगशाला — अनुसंधान के लिए प्रयोग करने वाली जगह
- प्रॉम्प्ट — किसी कंप्यूटर सिस्टम को दिया जाने वाला निर्देश
- पक्षपात — निष्पक्ष न रहकर किसी पक्ष को देना वाला रुझान
- निजीकरण — किसी चीज़ को व्यक्तिगत जरूरत के अनुसार बदलना
- विरोधाभास — दो बातें एक साथ जिनका मेल न होना
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- यदि बड़े भाषा मॉडल में रूढ़िगत सलाह बार-बार मिले तो यह ऑटिज़्म वाले उपयोगकर्ताओं के सामाजिक निर्णयों पर किस तरह असर डाल सकता है? कारण बताइए।
- लेख में कहा गया है कि टीम चाहती है कि डेवलपर्स अधिक पारदर्शी सिस्टम बनाएं और उपयोगकर्ताओं को नियंत्रण दें। आप किन विशेष नियंत्रणों या पारदर्शिता उपायों को उपयोगी मानेंगे? उदाहरण दीजिए।
- आर्टिकल में एक प्रतिभागी ने जवाबों को सीमित या उपेक्षापूर्ण बताया। आप प्रयोगकर्ता के दृष्टिकोण से ऐसे जवाबों को कैसे बदलने का सुझाव देंगे? एक सरल उदाहरण दें।