ऑस्ट्रेलिया भर के कलाकारों, पत्रकारों और आदिवासी सांस्कृतिक कार्यकर्ताओं ने "Stop AI Theft" अभियान शुरू किया है। वे जनरेटिव आर्टिफिशियल इंटेलिजेंस के प्रसार के बीच अपने कामों के बिना अनुमति प्रयोग और उससे होने वाले आर्थिक नुकसान के खिलाफ मजबूत सुरक्षा और मुआवजा माँग रहे हैं। अभियान के अनुसार कुछ लोकप्रिय AI मॉडलों ने इंटरनेट सामग्री बिना अनुमति खींची और कभी-कभी लगभग समान कृतियाँ उत्पन्न कीं।
Tech Council of Australia ने अगस्त 2025 की रिपोर्ट में कार्यालयी नौकरियों में AI के व्यापक उपयोग की जानकारी दी। वॉइस एक्टर्स ने अपनी आवाज़ें क्लोन होने की शिकायत की और स्थानीय पत्रकारों ने बताया कि उनकी रिपोर्टें AI-जनित साइटों पर पुनःप्रकाशित हुईं। University of Sydney की जनवरी 2026 रिपोर्ट ने चेतावनी दी कि खोज परिणामों में पत्रकार दिन-ब-दिन अदृश्य होते जा रहे हैं। आदिवासी कार्यकर्ताओं ने बताया कि जनरेटिव AI का उपयोग नकली आदिवासी कला बनाने और बेचने में हुआ।
अभियानकारियों ने #PayUp हैशटैग के साथ यह रेखांकित किया कि बड़ी टेक कंपनियाँ रचनात्मक काम से लाभ कमा रही हैं जबकि कलाकारों का व्यापार घट रहा है। MEAA की मुख्य कार्यकारी Erin Madeley ने कहा कि कुछ टेक कंपनियों का व्यावसायिक मॉडल दूसरों के काम लेकर उसे बेचने पर निर्भर है। Australian Council of Trade Unions के सहायक सचिव Joseph Mitchell ने कहा, "हम पहले से जानते हैं कि बड़ी टेक कंपनियाँ ऑस्ट्रेलिया के रचनात्मक कार्यकर्ताओं और पत्रकारों के काम चुराकर लाभ कमा रही हैं, और इस चोरी को वैध करने की माँग असमझी है।"
जुलाई 2024 में MEAA ने सीनेट सुनवाई में कानून और अभ्यास में बदलाव की माँग की। प्रमुख माँगें इस प्रकार थीं:
- उपयोगकर्ताओं को AI प्रशिक्षण के लिए उनके काम का उपयोग न होने का विकल्प देना।
- उन रचनात्मक और मीडिया कर्मचारियों को मुआवजा देने के लिये विधेयक बनाना जिनके काम का उपयोग AI प्रशिक्षण में हुआ है।
- पारदर्शिता के नियम लागू करना ताकि कंपनियाँ सार्वजनिक रूप से बताएँ कि उन्होंने AI प्रशिक्षण के लिए किन सामग्रियों का उपयोग किया है।
अभियान ने Amazon, Google, Meta, Microsoft, OpenAI और X के CEOs को भुगतान और मुआवजे की माँग करते हुए खुले पत्र पर हस्ताक्षर करने के लिए प्रेरित किया। अभियानकारियों ने अगस्त 2025 में टेक कंपनियों के साथ संवाद किया और संघीय सरकार के अक्टूबर 2025 के कॉपीराइट सुरक्षा बनाए रखने के घोषणा का स्वागत किया। दिसंबर 2025 में जारी National AI Plan में कहा गया कि ऑस्ट्रेलिया AI जोखिमों के लिए मौजूदा क़ानूनों का आकलन करेगा। सरकार ने कॉपीराइट में टेक्स्ट और डेटा माइनिंग अपवाद को अस्वीकार कर दिया, और अभियानकारियों ने कहा कि इससे टेक कंपनियों को ऑस्ट्रेलियाई कृतियों तक मुफ्त पहुँच देने के प्रयास रोके गए।
कठिन शब्द
- जनरेटिव — ऐसा कृत्रिम बुद्धि जो नई सामग्री खुद बनाता हैजनरेटिव आर्टिफिशियल इंटेलिजेंस, जनरेटिव AI
- मुआवजा — नुकसान के बदले दिया जाने वाला आर्थिक भुगतानमुआवजे
- पारदर्शिता — कंपनियों द्वारा सार्वजनिक रूप से जानकारी देनापारदर्शिता के नियम
- प्रशिक्षण — किसी सिस्टम को सीखने के लिए सामग्री देनाAI प्रशिक्षण के लिए, AI प्रशिक्षण
- विधेयक — कानून बनाने के लिए संसद में प्रस्ताव
- कॉपीराइट — लेखन और कला पर अधिकार, नक़ल रोकने का अधिकारकॉपीराइट में टेक्स्ट और डेटा माइनिंग अपवाद
- क्लोन — किसी की आवाज़ या काम की नक़ल करनाक्लोन होने
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- बिना अनुमति रचनात्मक कामों का उपयोग होने से कलाकारों और पत्रकारों पर क्या प्रभाव पड़ सकते हैं? अपने विचार बताइए।
- पारदर्शिता के नियम लागू करने से रचनात्मक काम करने वालों को कैसे मदद मिल सकती है?
- सरकार का टेक्स्ट और डेटा माइनिंग अपवाद अस्वीकार करना किस तरह से campaign के लक्ष्यों को प्रभावित कर सकता है?
संबंधित लेख
बड़े भाषा मॉडल में सुरक्षा-संशोधन
North Carolina State University के शोधकर्ताओं ने बड़े भाषा मॉडल (LLMs) में सुरक्षा-संशोधन कैसे काम करता है इसका अध्ययन किया। उन्होंने मॉडल में सुरक्षा-न्यूरॉन्स की पहचान कर फाइन‑ट्यूनिंग के समय उन्हें स्थिर रखकर सुरक्षित व्यवहार बनाए रखने के तरीके दिखाए।