YouTube पर इन दिनों सफाई का बवंडर चल रहा है। प्लेटफॉर्म ने आर्टिफिशियल इंटेलिजेंस तकनीक (डीपफेक) का इस्तेमाल कर बनाए गए 1000 से ज्यादा फर्जी सेलिब्रिटी ऐड को हटा दिया है। इन ऐड में टेलर स्विफ्ट, स्टीव हार्वे और जो रोगन जैसे जाने-माने हस्तियों को फर्जी वीडियो में घोटालों को प्रमोट करते हुए दिखाया गया था। इस घटना ने डीपफेक के दुरुपयोग और सोशल मीडिया पर भ्रामक सूचना प्रसार के बढ़ते खतरे को फिर से उजागर कर दिया है।
क्या थे ये फर्जी ऐड?
हटाये गए ऐड में डीपफेक तकनीक का इस्तेमाल कर सेलिब्रिटीज की आवाज और चेहरे को हूबहू कॉपी करके उन्हें यह कहते हुए दिखाया गया था कि वे फर्जी मेडिकेयर स्कीम का समर्थन करते हैं। ये ऐड बेहद असली लगते थे, जिससे अनजान दर्शक आसानी से धोखा खा सकते थे। ऐसे वीडियो ने इन सेलिब्रिटीज की प्रतिष्ठा को भी नुकसान पहुंचाया।
क्यों लिया YouTube ने यह कदम?
YouTube ने यह कदम अपने प्लेटफॉर्म पर भ्रामक और हानिकारक कंटेंट को रोकने के लिए उठाया है। कंपनी डीपफेक के दुरुपयोग को लेकर चिंतित है और उसने इसके इस्तेमाल को रोकने के लिए अपनी पॉलिसी को भी कड़ा कर दिया है। YouTube ने कहा है कि वह आगे भी ऐसे फर्जी वीडियो की पहचान करने और हटाने के लिए तकनीक में निवेश करेगा।
डीपफेक का खतरा
डीपफेक तकनीक में चेहरे, आवाज और हाव-भाव की नकल करके यथार्थवादी वीडियो बनाए जा सकते हैं। इसका इस्तेमाल मनोरंजन के लिए तो किया जा सकता है, लेकिन गलत हाथों में पड़ने पर गंभीर नुकसान पहुंचा सकता है। फर्जी वीडियो का इस्तेमाल राजनीतिक प्रचार से लेकर सामाजिक अशांति फैलाने तक, कई तरह के गलत कामों के लिए किया जा सकता है।
क्या कर सकते हैं यूजर्स?
YouTube की सफाई का प्रयास तारीफ के लायक है, लेकिन इस समस्या से निपटने के लिए सिर्फ प्लेटफॉर्म की कोशिशें ही काफी नहीं हैं। यूजर्स को भी सतर्क रहने और संदिग्ध कंटेंट की पहचान करने की जरूरत है। कुछ बातों का ध्यान रखकर आप फर्जी वीडियो की पहचान कर सकते हैं जैसे, चेहरे और आवाज के हाव-भाव में थोड़ा असंगति होना, अजीबो-गरीब लाइटिंग या एडिटिंग, और सेलिब्रिटी के बोलने के अंदाज में बेमेलपन। ऐसी कंटेंट को रिपोर्ट करना और दूसरों को सावधान करना भी जरूरी है।