एआई यूनिवर्स सीरीज अध्याय 13 आप जो देखते और सुनते हैं वह झूठ है

लाइव हिंदी खबर :- जो आँख से देखा जाता है और जो कान से सुना जाता है, वह झूठ है। बहुत सारी सामग्री जेनरेटिव एआई द्वारा बनाई गई है और इंटरनेट पर रेंग रही है। टेक्नोलॉजी ने हमें इतना चकाचौंध कर दिया है कि हम यह अंतर नहीं बता पाते कि क्या असली है और क्या नकली। मशीन-जनित सामग्री ने हमें इतना अभिभूत कर दिया है। यह वीडियो, ऑडियो, फोटो के रूप में भिन्न होता है। 2022 में जेनरेटिव एआई की चर्चा वैश्विक होगी। एआई उपकरण/एप्लिकेशन जैसे जीबीटी, मिड जर्नी, ट्रांसफॉर्मर आदि इसमें मदद करते हैं।

जब ये पॉड्स जारी किए गए, तो ऐसे बहुत से लोग थे जिन्होंने सबसे पहले इसकी दौड़ लगाई और यह तय करने की कोशिश की कि अगर मार्वल और डीसी कॉमिक्स के सुपरहीरो हमारे गांवों में रहते तो कैसा होता। इसी तरह, कई लोगों ने खुद को विभिन्न एआई अवतारों में सुशोभित देखा है। टेक विशेषज्ञों ने इसे अपने कौशल के अनुरूप विकसित किया है। ‘कवला’ गाने के लिए तमन्ना की जगह सिमरन के वीडियो तैयार किए गए। इसे देखकर उन्होंने कहा, ‘हाय, ये तो अच्छा है!’ इस वीडियो को सोशल मीडिया यूजर्स ने भी खूब पसंद किया। इसे फेस स्वैपिंग द्वारा बनाया गया था।

एआई संदर्भ विश्व 13 |  डीपफेक: झूठ देखना और सुनना…सिमरन, मोदी, बिडेन 'सबूत'!  |  एआई यूनिवर्स सीरीज अध्याय 13 आप जो देखते और सुनते हैं वह झूठ है
उनमें से एक को छोड़कर सभी AI-जनित हैं।
 

इसी तरह, ऐसी सामग्री बनाई गई जहां प्रधान मंत्री नरेंद्र मोदी, जो तमिल नहीं जानते हैं, तमिल में रिलीज़ हुए विभिन्न गीतों को अपनी आवाज़ में गाते हैं। शो में उनके मन की आवाज एआई सपोर्ट के साथ-साथ तमिल में बोलकर बनाई गई थी। वॉयस क्लोनिंग के जरिए ये संभव है. ये डीपफेक कंटेंट के प्रकार हैं। उनके एक फर्जी वीडियो ने अमेरिकी राष्ट्रपति जो बिडेन को इस हद तक चौंका दिया कि उन्होंने कहा कि ‘मैं वह नहीं हूं’। उन्होंने इस बारे में अपनी राय भी जाहिर की. इसके पीछे जेनरेटिव एआई है।

एआई टूल्स के इस्तेमाल में दक्ष एआई मूर्तिकार इसे इस हद तक तराश रहे हैं। इस प्रकार की कुछ सामग्री मनोरंजन के साथ और कुछ जहर के साथ उत्पन्न होती हैं। ये दुर्भावनापूर्ण सामग्री बदनामी फैलाने या धोखाधड़ी करने के इरादे से बनाई गई हैं। ऐसे में, तकनीक की दुनिया में डीपफेक की संस्कृति बढ़ रही है।

इसकी पहचान करना मशीनों के लिए एक कठिन काम है। इसीलिए कुछ साइटों पर मशीन फोटो अपडेट करते समय आईरिस, आंखों की मूवमेंट आदि को स्कैन करती है। इस तकनीकी सुविधा के बिना फर्जी अवतारों को आधार कार्ड जैसा पहचान पत्र मिल जाना कोई आश्चर्य की बात नहीं है। ऐसे माहौल में आम यूजर्स के लिए इंटरनेट पर असली और नकली कंटेंट की पहचान करना चुनौती है। कृत्रिम बुद्धिमत्ता से उत्पन्न नकली सामग्री की प्रकृति ही ऐसी है।

– सेंथिल नयागम (@senthilnayagam) 11 जुलाई 2023

डीपफेक: किसी की छवि से छेड़छाड़ करना वर्षों से चला आ रहा है। प्रौद्योगिकी में प्रगति के कारण, नकली वीडियो के रूप में सामने आए हैं। 21वीं सदी में AI इसमें मदद करता है। एआई-सहायता प्राप्त हाइपर-यथार्थवादी सामग्री किसी व्यक्ति की छवि को विश्वसनीय रूप से चित्रित करने के लिए डिजिटल रूप से बनाई गई है। यह ऑडियो, वीडियो या फोटो फॉर्मेट में हो सकता है. इसे ही डीपफेक के रूप में जाना जाता है।

डीपफेक शिक्षा, फिल्म निर्माण, फोरेंसिक और कला में बहुत उपयोगी हो सकते हैं। साथ ही, राजनीतिक रूप से झूठे प्रचार का उपयोग मानहानि, धोखाधड़ी, फर्जी खबरें फैलाने, लोगों को धोखा देने और लोकतांत्रिक संस्थानों में विश्वास को नष्ट करने जैसे नकारात्मक उद्देश्यों के लिए किया जाता है।

हमने कुछ मशहूर हस्तियों को विवादास्पद सोशल मीडिया पोस्ट की व्याख्या करते हुए यह कहकर देखा है कि ‘मेरे एडमिन ने वह पोस्ट पोस्ट किया था।’ इसी तरह राजनीति समेत कई क्षेत्रों की मशहूर हस्तियों को डीपफेक कंटेंट के आधार पर स्पष्टीकरण देना होगा। वैलेंटाइन डे में प्रोफेसर जेक (गौंडामणि) और छात्र मैंडी (चिन्नी जयंत) के बीच के दृश्य सबसे मजेदार हैं। यह एक प्रकार का रोमांस घोटाला है। किसी पुरुष को महिला और महिला को पुरुष बताकर ऑनलाइन बात कर धोखाधड़ी करते हैं। इसमें AI बहुत मदद करता है. वॉयस क्लोनिंग, फेस स्वैपिंग आदि इन धोखाधड़ी की संख्या को बढ़ा रहे हैं। बताया गया है कि अकेले संयुक्त राज्य अमेरिका में 2022 में 50,000 से अधिक लोग रोमांस धोखाधड़ी के शिकार हुए हैं।

वैश्विक डीपफेक उपयोग: 2018 में अमेरिका के पूर्व राष्ट्रपति बराक ओबामा का एक फर्जी वीडियो जारी किया गया था. अमेरिकी एक्टर जॉर्डन पील ने इसके लिए बैकग्राउंड वॉयस का काम किया है. इसे फर्जी वीडियो के बारे में जागरूकता पैदा करने के लिए बनाया गया था। इसी तरह 2020 में बेल्जियम की तत्कालीन प्रधानमंत्री सोफी ने कोरोना और वनों की कटाई के बीच संबंध की बात कही थी. ये भी एक फेक वीडियो है. इसे एक पर्यावरण संगठन द्वारा बनाया गया था। <वीडियो लिंक>

भारत में 2020 के दिल्ली विधानसभा चुनाव के दौरान बीजेपी ने डीपफेक वीडियो का इस्तेमाल किया था. इसमें हरियाणवी भाषा में बीजेपी के मनोज तिवारी का हिंदी में बोलते हुए एक वीडियो जारी किया गया था. दिल्ली बीजेपी ने बताया है कि उसने प्रचार के लिए डिजिटल तकनीक का सकारात्मक इस्तेमाल किया है. फर्जी वीडियो के जाल में अमेरिकी उपराष्ट्रपति कमला हैरिस भी फंस गई थीं. जैसे ही उन्होंने एक अनकही टिप्पणी की, वीडियो वायरल हो गया। इसलिए, यह महत्वपूर्ण है कि उपयोगकर्ता इंटरनेट पर मौजूद सामग्री पर विश्वास न करें क्योंकि यह सच है। क्योंकि इसे जेनरेटिव एआई द्वारा बनाई गई सामग्री से बनाया जा सकता है।

एआई विशेषज्ञ विवरण: “हम एआई तकनीक को दो श्रेणियों में विभाजित कर सकते हैं, पारंपरिक एआई और जेनरेटिव एआई। जेनरेटिव AI की कई शाखाएँ हैं। यह भाषण, वीडियो, छवि, एनीमेशन आदि जैसी कई चीजें बना सकता है। मैंने मजेदार वॉयस क्लोनिंग और फेस स्वैपिंग सामग्री बनाई है। आज की तकनीकी दुनिया में कुछ भी असंभव नहीं है। लेकिन, हमें सावधान रहना होगा कि हम इसका उपयोग कैसे करें। क्योंकि कंटेंट बनाना आसान है. बड़ा काम इसकी विश्वसनीयता परखना है. यदि दो देशों के बीच युद्ध हो तो सोशल नेटवर्क पर पोस्ट की गई सामग्री की विश्वसनीयता निर्धारित करना आवश्यक है। अन्यथा वैश्विक स्तर पर इसका बड़ा असर पड़ेगा.

सेंथिल नयागम
 

उदाहरण के लिए, अगर किसी चुनाव की पूर्व संध्या पर किसी सेलिब्रिटी के बारे में लैंगिक आरोप फैलाया जाए तो प्रतिक्रिया के बारे में सोचें। हम त्वरित सामग्री निर्माण के युग में रहते हैं। इसमें मीडिया घरानों और लोगों सहित सभी की बड़ी भूमिका है। कौन सा मूल है? नकली क्या है? ये कहना बहुत मुश्किल है. इस तरह से कम्यूटेशन का विकास हुआ है। आने वाले दिनों में सभी क्षेत्रों में एआई की भूमिका होगी।

AI हमारे द्वारा उपयोग किए जाने वाले सभी डिजिटल उपकरणों, उनके सॉफ़्टवेयर और एप्लिकेशन में मौजूद है। यदि ऐसा है तो यह असली और नकली सामग्री की पहचान कर लेगा। इतना बदलाव आ रहा है. जब ऐसा होता है तो हर कोई जेनेरिक एआई के साथ सुपरह्यूमन बन सकता है। हालाँकि, इसका गलत इस्तेमाल (मिस यूज़) करने से फिलहाल रोका नहीं जा सकता। लेकिन, इसे नैतिक बनाने का एक अवसर है। अगर किसी ने यह जानते हुए भी ऐसा किया है कि यह गलत है, तो सरकार सजा भी दे सकती है,” म्यूओनियम के संस्थापक और जेनरेटिव एआई के विशेषज्ञ सेंथिल नायक ने कहा।

पिछला अध्याय: एआई पर्यावरण विश्व 12 | चिकित्सा के क्षेत्र में कृत्रिम बुद्धिमत्ता की सहायता!

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top