कृत्रिम बुद्धिमत्ता अब फोटो, वीडियो और ऑडियो से जालसाज़ी (डीपफेक) बनाना आसान कर देती है। ETH Zurich के शोधकर्ताओं ने ऐसी गलत सामग्री पहचानने के लिए एक सेंसर चिप बनाई है जो रिकॉर्ड होते ही सामग्री पर क्रिप्टोग्राफिक साइन कर देती है।
यह साइन बताता है कि डेटा किस रिकॉर्डर से आया है, कब कैप्चर हुआ और क्या बाद में बदला गया। सिग्नेचर सार्वजनिक और अपरिवर्तनीय खाता (उदाहरण के लिए ब्लॉकचेन) में रखा जा सकता है। प्लेटफॉर्म या पत्रकार सिग्नेचर की तुलना करके सामग्री की जाँच कर सकते हैं। अभी यह एक कार्यशील प्रोटोटाइप है और वाणिज्यिक उपयोग से पहले विकास की आवश्यकता है।
कठिन शब्द
- डीपफेक — फोटो या वीडियो से बनायी गयी झूठी सामग्री
- सेंसर चिप — छोटी इलेक्ट्रॉनिक डिवाइस जो रिकॉर्डिंग शुरू करती है
- क्रिप्टोग्राफिक — डेटा को सुरक्षित करने वाली गणितीय तकनीक से जुड़ा
- सिग्नेचर — डिजिटल तरीके से बनाई हुई पहचान की निशानी
- अपरिवर्तनीय — जिसे बदला या हटाया न जा सके
- प्रोटोटाइप — एक प्रारंभिक मॉडल परीक्षण के लिए बनाया गया
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- यदि आप कोई वीडियो देखते हैं तो आप कैसे जांचेंगे कि वह असली है या नहीं?
- क्या आपको लगता है कि सेंसर चिप झूठी सामग्री रोकने में मदद करेगा? क्यों या क्यों नहीं?
- आप इस तकनीक को बाजार में आने से पहले किस तरह और बेहतर देखना चाहेंगे?
संबंधित लेख
बड़े भाषा मॉडल में सुरक्षा-संशोधन
North Carolina State University के शोधकर्ताओं ने बड़े भाषा मॉडल (LLMs) में सुरक्षा-संशोधन कैसे काम करता है इसका अध्ययन किया। उन्होंने मॉडल में सुरक्षा-न्यूरॉन्स की पहचान कर फाइन‑ट्यूनिंग के समय उन्हें स्थिर रखकर सुरक्षित व्यवहार बनाए रखने के तरीके दिखाए।