यह अध्ययन Science पत्रिका में प्रकाशित हुआ और बताता है कि उपयोगकर्ता भविष्य में उन एल्गोरिथम पर अधिक नियंत्रण रख सकते हैं जो ऑनलाइन ध्यान निर्धारित करते हैं। टीम ने एक वेब एक्सटेंशन बनाया जो एक बड़े भाषा मॉडल के साथ जुड़ा है और X फीड पर पोस्टों को स्कैन करता। यह विरोधी-लोकतांत्रिक रुख और हिंसा के आह्वान जैसी सामग्री पहचानकर उनकी रैंकिंग बदलता है।
उपकरण सेकंडों में काम करता है और किसी भी पोस्ट को हटाता नहीं; केवल फीड में उनकी स्थिति बदली जाती है। प्रयोगों में लगभग 1,200 स्वयंसेवकों ने 2024 के चुनाव के दौरान 10 दिनों तक इसका उपयोग किया। अलग सात-दिन के परीक्षणों में प्रतिभागी समूहों ने रैंकिंग परिवर्तन देखे, जबकि नियंत्रण समूह में कोई बदलाव नहीं हुआ।
शोधकर्ताओं ने प्रयोग से पहले और बाद में 1 से 100 के पैमाने पर सर्वे किया। जिन लोगों की फीड में नकारात्मक सामग्री को नीचे किया गया, उनकी औसत रुझान दो अंक बेहतर हुई। टीम ने अपना कोड जारी किया ताकि अन्य लोग स्वतंत्र रैंकिंग सिस्टम बना सकें।
कठिन शब्द
- अध्ययन — किसी विषय पर किया गया वैज्ञानिक काम
- एल्गोरिथम — कदम-दर-कदम नियमों की एक श्रृंखला
- वेब एक्सटेंशन — वेब ब्राउज़र में जोड़ने वाला छोटा प्रोग्राम
- रैंकिंग — सूची में चीजों की क्रमिक स्थिति
- नकारात्मक सामग्री — हानिकारक या न भाने वाली जानकारी
- स्वयंसेवक — जो बिना पैसे काम के लिए मदद करेस्वयंसेवकों
- नियंत्रण समूह — तुलना के लिए प्रयोग में न बदला गया समूह
- रुझान — लोगों या चीजों की सामान्य दिशा
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- आपको क्या लगता है — उपयोगकर्ताओं को एल्गोरिथम पर अधिक नियंत्रण देना अच्छा है या खराब? वजह बताइए।
- क्या किसी सोशल मीडिया फीड में नकारात्मक सामग्री को नीचे करने से आपकी ऑनलाइन अनुभव बदलता? अपने अनुभव साझा करें।
- स्वतंत्र रैंकिंग सिस्टम बनाने के क्या फायदे और खतरे हो सकते हैं, आपके हिसाब से?