📖+20 XP
🎧+15 XP
✅+25 XP
स्तर A2 – प्राथमिक / एलिमेंटरीCEFR A2
2 मिनट
83 शब्द
North Carolina State University के शोधकर्ताओं ने बड़े भाषा मॉडल में सुरक्षा-संशोधन की जांच की। वे यह देखना चाहते थे कि सुरक्षा सुधार से मॉडल की योग्यता घटती है या नहीं।
उन्होंने पाया कि कुछ सुरक्षा जाँच सतही होती हैं और उपयोगकर्ता उन्हें बायपास कर सकते हैं। उदाहरण में उन्होंने दिखाया कि कभी-कभी अनुरोध के कारण मॉडल अलग प्रतिक्रिया दे देता है। टीम ने नए प्रशिक्षण तरीके पर काम किया ताकि असुरक्षित उत्तर कम हों और मॉडल अपना प्रदर्शन बनाए रखे।
कठिन शब्द
- सुरक्षा-संशोधन — मॉडल की सुरक्षा बढ़ाने के लिए किए बदलाव
- भाषा मॉडल — कंप्यूटर प्रोग्राम जो भाषा समझे और बनाए
- जाँच — किसी चीज़ को परखने की प्रक्रिया
- बायपास — किसी रोक या नियम को टालना या पार करना
- प्रशिक्षण — मॉडल को नया ज्ञान या कौशल देना
- असुरक्षित — जो नुकसान या जोखिम का कारण बने
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- आपको क्यों लगता है कि कुछ सुरक्षा जाँच सतही हो सकती हैं?
- अगर कोई मॉडल असुरक्षित उत्तर देता है, तो आप क्या करेंगे?
- क्या नए प्रशिक्षण तरीके से मॉडल का प्रदर्शन बेहतर रहेगा? क्यों या क्यों नहीं?