लाइव हिंदी खबर :- जो आँख से देखा जाता है और जो कान से सुना जाता है, वह झूठ है। बहुत सारी सामग्री जेनरेटिव एआई द्वारा बनाई गई है और इंटरनेट पर रेंग रही है। टेक्नोलॉजी ने हमें इतना चकाचौंध कर दिया है कि हम यह अंतर नहीं बता पाते कि क्या असली है और क्या नकली। मशीन-जनित सामग्री ने हमें इतना अभिभूत कर दिया है। यह वीडियो, ऑडियो, फोटो के रूप में भिन्न होता है। 2022 में जेनरेटिव एआई की चर्चा वैश्विक होगी। एआई उपकरण/एप्लिकेशन जैसे जीबीटी, मिड जर्नी, ट्रांसफॉर्मर आदि इसमें मदद करते हैं।
जब ये पॉड्स जारी किए गए, तो ऐसे बहुत से लोग थे जिन्होंने सबसे पहले इसकी दौड़ लगाई और यह तय करने की कोशिश की कि अगर मार्वल और डीसी कॉमिक्स के सुपरहीरो हमारे गांवों में रहते तो कैसा होता। इसी तरह, कई लोगों ने खुद को विभिन्न एआई अवतारों में सुशोभित देखा है। टेक विशेषज्ञों ने इसे अपने कौशल के अनुरूप विकसित किया है। ‘कवला’ गाने के लिए तमन्ना की जगह सिमरन के वीडियो तैयार किए गए। इसे देखकर उन्होंने कहा, ‘हाय, ये तो अच्छा है!’ इस वीडियो को सोशल मीडिया यूजर्स ने भी खूब पसंद किया। इसे फेस स्वैपिंग द्वारा बनाया गया था।
इसी तरह, ऐसी सामग्री बनाई गई जहां प्रधान मंत्री नरेंद्र मोदी, जो तमिल नहीं जानते हैं, तमिल में रिलीज़ हुए विभिन्न गीतों को अपनी आवाज़ में गाते हैं। शो में उनके मन की आवाज एआई सपोर्ट के साथ-साथ तमिल में बोलकर बनाई गई थी। वॉयस क्लोनिंग के जरिए ये संभव है. ये डीपफेक कंटेंट के प्रकार हैं। उनके एक फर्जी वीडियो ने अमेरिकी राष्ट्रपति जो बिडेन को इस हद तक चौंका दिया कि उन्होंने कहा कि ‘मैं वह नहीं हूं’। उन्होंने इस बारे में अपनी राय भी जाहिर की. इसके पीछे जेनरेटिव एआई है।
एआई टूल्स के इस्तेमाल में दक्ष एआई मूर्तिकार इसे इस हद तक तराश रहे हैं। इस प्रकार की कुछ सामग्री मनोरंजन के साथ और कुछ जहर के साथ उत्पन्न होती हैं। ये दुर्भावनापूर्ण सामग्री बदनामी फैलाने या धोखाधड़ी करने के इरादे से बनाई गई हैं। ऐसे में, तकनीक की दुनिया में डीपफेक की संस्कृति बढ़ रही है।
इसकी पहचान करना मशीनों के लिए एक कठिन काम है। इसीलिए कुछ साइटों पर मशीन फोटो अपडेट करते समय आईरिस, आंखों की मूवमेंट आदि को स्कैन करती है। इस तकनीकी सुविधा के बिना फर्जी अवतारों को आधार कार्ड जैसा पहचान पत्र मिल जाना कोई आश्चर्य की बात नहीं है। ऐसे माहौल में आम यूजर्स के लिए इंटरनेट पर असली और नकली कंटेंट की पहचान करना चुनौती है। कृत्रिम बुद्धिमत्ता से उत्पन्न नकली सामग्री की प्रकृति ही ऐसी है।
सिमरन संस्करण #कावला @anirudhofficial @simranbaggaoffc @सनपिक्चर्स @तमन्नाहस्पीक्स #जनरेटिवएआई #मुओनियम pic.twitter.com/EHBCUaNZq9
– सेंथिल नयागम (@senthilnayagam) 11 जुलाई 2023
डीपफेक: किसी की छवि से छेड़छाड़ करना वर्षों से चला आ रहा है। प्रौद्योगिकी में प्रगति के कारण, नकली वीडियो के रूप में सामने आए हैं। 21वीं सदी में AI इसमें मदद करता है। एआई-सहायता प्राप्त हाइपर-यथार्थवादी सामग्री किसी व्यक्ति की छवि को विश्वसनीय रूप से चित्रित करने के लिए डिजिटल रूप से बनाई गई है। यह ऑडियो, वीडियो या फोटो फॉर्मेट में हो सकता है. इसे ही डीपफेक के रूप में जाना जाता है।
डीपफेक शिक्षा, फिल्म निर्माण, फोरेंसिक और कला में बहुत उपयोगी हो सकते हैं। साथ ही, राजनीतिक रूप से झूठे प्रचार का उपयोग मानहानि, धोखाधड़ी, फर्जी खबरें फैलाने, लोगों को धोखा देने और लोकतांत्रिक संस्थानों में विश्वास को नष्ट करने जैसे नकारात्मक उद्देश्यों के लिए किया जाता है।
हमने कुछ मशहूर हस्तियों को विवादास्पद सोशल मीडिया पोस्ट की व्याख्या करते हुए यह कहकर देखा है कि ‘मेरे एडमिन ने वह पोस्ट पोस्ट किया था।’ इसी तरह राजनीति समेत कई क्षेत्रों की मशहूर हस्तियों को डीपफेक कंटेंट के आधार पर स्पष्टीकरण देना होगा। वैलेंटाइन डे में प्रोफेसर जेक (गौंडामणि) और छात्र मैंडी (चिन्नी जयंत) के बीच के दृश्य सबसे मजेदार हैं। यह एक प्रकार का रोमांस घोटाला है। किसी पुरुष को महिला और महिला को पुरुष बताकर ऑनलाइन बात कर धोखाधड़ी करते हैं। इसमें AI बहुत मदद करता है. वॉयस क्लोनिंग, फेस स्वैपिंग आदि इन धोखाधड़ी की संख्या को बढ़ा रहे हैं। बताया गया है कि अकेले संयुक्त राज्य अमेरिका में 2022 में 50,000 से अधिक लोग रोमांस धोखाधड़ी के शिकार हुए हैं।
वैश्विक डीपफेक उपयोग: 2018 में अमेरिका के पूर्व राष्ट्रपति बराक ओबामा का एक फर्जी वीडियो जारी किया गया था. अमेरिकी एक्टर जॉर्डन पील ने इसके लिए बैकग्राउंड वॉयस का काम किया है. इसे फर्जी वीडियो के बारे में जागरूकता पैदा करने के लिए बनाया गया था। इसी तरह 2020 में बेल्जियम की तत्कालीन प्रधानमंत्री सोफी ने कोरोना और वनों की कटाई के बीच संबंध की बात कही थी. ये भी एक फेक वीडियो है. इसे एक पर्यावरण संगठन द्वारा बनाया गया था। <वीडियो लिंक>
भारत में 2020 के दिल्ली विधानसभा चुनाव के दौरान बीजेपी ने डीपफेक वीडियो का इस्तेमाल किया था. इसमें हरियाणवी भाषा में बीजेपी के मनोज तिवारी का हिंदी में बोलते हुए एक वीडियो जारी किया गया था. दिल्ली बीजेपी ने बताया है कि उसने प्रचार के लिए डिजिटल तकनीक का सकारात्मक इस्तेमाल किया है. फर्जी वीडियो के जाल में अमेरिकी उपराष्ट्रपति कमला हैरिस भी फंस गई थीं. जैसे ही उन्होंने एक अनकही टिप्पणी की, वीडियो वायरल हो गया। इसलिए, यह महत्वपूर्ण है कि उपयोगकर्ता इंटरनेट पर मौजूद सामग्री पर विश्वास न करें क्योंकि यह सच है। क्योंकि इसे जेनरेटिव एआई द्वारा बनाई गई सामग्री से बनाया जा सकता है।
देखिए बीजेपी ने कैसे किया इस्तेमाल #डीपफेक दिल्ली चुनाव में जहां मनोज तिवारी की नकल करने वाली आवाज का इस्तेमाल किया जाता है, जिससे ऐसा लगता है कि वह बोल रहे हैं।
वीडियो 1: अंग्रेजी में डीपफेक
Vid 2: हरियाणवी में डीपफेक
वीडियो 3: मूल वीडियोरिपोर्ट: https://t.co/8zcKwnSxbL
यह खतरनाक है, अवैध होना चाहिए! pic.twitter.com/WEXb0zaXdl
– गौरव पांधी (@GauravPandhi) 19 फरवरी 2020
एआई विशेषज्ञ विवरण: “हम एआई तकनीक को दो श्रेणियों में विभाजित कर सकते हैं, पारंपरिक एआई और जेनरेटिव एआई। जेनरेटिव AI की कई शाखाएँ हैं। यह भाषण, वीडियो, छवि, एनीमेशन आदि जैसी कई चीजें बना सकता है। मैंने मजेदार वॉयस क्लोनिंग और फेस स्वैपिंग सामग्री बनाई है। आज की तकनीकी दुनिया में कुछ भी असंभव नहीं है। लेकिन, हमें सावधान रहना होगा कि हम इसका उपयोग कैसे करें। क्योंकि कंटेंट बनाना आसान है. बड़ा काम इसकी विश्वसनीयता परखना है. यदि दो देशों के बीच युद्ध हो तो सोशल नेटवर्क पर पोस्ट की गई सामग्री की विश्वसनीयता निर्धारित करना आवश्यक है। अन्यथा वैश्विक स्तर पर इसका बड़ा असर पड़ेगा.
उदाहरण के लिए, अगर किसी चुनाव की पूर्व संध्या पर किसी सेलिब्रिटी के बारे में लैंगिक आरोप फैलाया जाए तो प्रतिक्रिया के बारे में सोचें। हम त्वरित सामग्री निर्माण के युग में रहते हैं। इसमें मीडिया घरानों और लोगों सहित सभी की बड़ी भूमिका है। कौन सा मूल है? नकली क्या है? ये कहना बहुत मुश्किल है. इस तरह से कम्यूटेशन का विकास हुआ है। आने वाले दिनों में सभी क्षेत्रों में एआई की भूमिका होगी।
AI हमारे द्वारा उपयोग किए जाने वाले सभी डिजिटल उपकरणों, उनके सॉफ़्टवेयर और एप्लिकेशन में मौजूद है। यदि ऐसा है तो यह असली और नकली सामग्री की पहचान कर लेगा। इतना बदलाव आ रहा है. जब ऐसा होता है तो हर कोई जेनेरिक एआई के साथ सुपरह्यूमन बन सकता है। हालाँकि, इसका गलत इस्तेमाल (मिस यूज़) करने से फिलहाल रोका नहीं जा सकता। लेकिन, इसे नैतिक बनाने का एक अवसर है। अगर किसी ने यह जानते हुए भी ऐसा किया है कि यह गलत है, तो सरकार सजा भी दे सकती है,” म्यूओनियम के संस्थापक और जेनरेटिव एआई के विशेषज्ञ सेंथिल नायक ने कहा।
पिछला अध्याय: एआई पर्यावरण विश्व 12 | चिकित्सा के क्षेत्र में कृत्रिम बुद्धिमत्ता की सहायता!