ब्राउन यूनिवर्सिटी के शोधकर्ताओं ने यह परीक्षण किया कि क्या आधुनिक भाषा मॉडल वास्तविक‑दुनिया के कारणात्मक प्रतिबंध सीखते हैं। टीम ने वाक्यों का एक सेट बनाया जिनमें सामान्य घटनाएँ, असम्भावित‑सी पर संभव घटनाएँ, असम्भव घटनाएँ और पुरानी/तर्कहीन पंक्तियाँ थीं। उदाहरणों में "Someone cooled a drink with ice," "...with snow," "...with fire," और "...with yesterday" शामिल थे।
प्रत्येक वाक्य के लिए शोधकर्ताओं ने मॉडल द्वारा उत्पन्न आंतरिक गणितीय अवस्थाएँ परीक्षण कीं। इस पद्धति को mechanistic interpretability कहा गया, जिसका उद्देश्य मॉडल के आंतरिक 'ब्रेन स्टेट' समझना है। परीक्षा कई open‑source मॉडल पर की गई ताकि निष्कर्ष मॉडल‑निरपेक्ष हों।
परिणामों में कुछ प्रमाण मिले कि बड़े मॉडल संभाव्यता श्रेणियों के अनुरूप अलग आंतरिक वेक्टर विकसित करते हैं। इन वेक्टरों ने करीब की श्रेणियों को भी अलग किया और स्थानीय वेक्टर मानवीय अनिश्चितता को दर्शाते दिखे।
कठिन शब्द
- कारणात्मक — किसी घटना के कारण से जुड़ा होना
- प्रतिबंध — कुछ करने पर लगी सीमा या रोक
- आंतरिक — भीतर का भाग या स्तर, बाह्य नहींआंतरिक गणितीय अवस्थाएँ
- गणितीय — गणित से जुड़ा हुआ या संबंधितआंतरिक गणितीय अवस्थाएँ
- विकसित करना — धीरे‑धीरे बेहतर या नया बनानाविकसित करते हैं
- अनिश्चितता — किसी बात के निश्चय न होने की स्थिति
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- वास्तविक‑दुनिया के कारणात्मक प्रतिबंध सीखना भाषा मॉडल के व्यवहार पर कैसे असर कर सकता है?
- अगर मॉडल के वेक्टर अनिश्चितता दिखाएँ तो इसका मतलब आपके अनुसार क्या हो सकता है?
- अलग‑अलग मॉडल पर परीक्षण करना निष्कर्षों के लिए क्यों महत्वपूर्ण है?
संबंधित लेख
पंक्षियों के झुंड से प्रेरित तरीका घटाए एआई त्रुटियाँ
शोधकर्ताओं ने पंक्षियों के झुंड के व्यवहार से प्रेरित एक पूर्व-प्रसंस्करण तरीका बनाया है जो लंबी दस्तावेज़-संक्षेपण में एआई की गलत जानकारी (hallucinations) घटाने का लक्ष्य रखता है। इस दृष्टिकोण से सारों की तथ्यात्मक सटीकता बढ़ी है।