DNA अनन्य: कैसे AI- आधारित डीपफेक वीडियो संपादन एक खतरा पैदा करता है | भारत समाचार

0

[ad_1]

नई दिल्ली: डीएनए में बुधवार को ज़ी न्यूज़ के एडिटर-इन-चीफ सुधीर चौधरी ने आर्टिफिशियल-इंटेलिजेंस (एआई) आधारित डीपफेक वीडियो का विश्लेषण किया। इस तकनीक की मदद से कोई भी कुछ घंटों में एक नकली वीडियो बना सकता है जिसका इस्तेमाल किसी को धब्बा लगाने या किसी व्यक्ति को बदनाम करने के लिए किया जा सकता है।

सबसे लोकप्रिय नकली वीडियो प्रसिद्ध हॉलीवुड सुपरस्टार टॉम क्रूज के हैं जो सोशल मीडिया पर काफी वायरल हैं। ये वीडियो किसी को भी भ्रमित कर सकते हैं और यही कारण है कि अब इस तकनीक की दुनिया भर में चर्चा हो रही है।

यह डीपफेक तकनीक है, जिसका अर्थ है कि आर्टिफिशियल इंटेलिजेंस की मदद से वास्तविक फोटो या वीडियो को हेरफेर किया जाता है, जो उन्हें एक विशिष्ट उद्देश्य के लिए नकली फोटो और वीडियो में बदल देता है। चित्र इतने अच्छे हैं कि असली और नकली में अंतर करना मुश्किल हो जाता है। यही कारण है कि इसे ‘डीपफेक तकनीक’ कहा जाता है।

यह तकनीक ‘परमाणु बम’ की तरह बहुत खतरनाक है क्योंकि अगर टॉम क्रूज को इस तरह से टैग किया जा सकता है तो संभव है कि इस तरह का वीडियो किसी और पर भी बनाया जा सकता है।

हो सकता है कि प्रधानमंत्री नरेंद्र मोदी पर यह दावा किया जाए कि उन्होंने इस्तीफा दे दिया है और लोग इस पर विश्वास भी कर सकते हैं। यह बड़ी हस्तियों और किसी भी देश के अन्य मंत्रियों के साथ भी हो सकता है, बड़े उद्योगपतियों और आम लोगों के साथ भी।

इस तरह के डीपफेक वीडियो अक्सर सोशल मीडिया की मदद से फैलाए जाते हैं और सबसे आगे फेसबुक है, लेकिन विडंबना यह है कि फेसबुक के संस्थापक मार्क जुकरबर्ग खुद डीपफेक का शिकार हुए हैं।

कुछ समय पहले उनका एक नकली वीडियो वायरल हुआ था, यही नहीं पूर्व अमेरिकी राष्ट्रपति बराक ओबामा के साथ भी ऐसा हो चुका है।

यह तकनीक दुनिया के लिए आतंकवाद से भी बड़ी चुनौती बन सकती है और इसे समझने के लिए कुछ आंकड़ों पर नजर डालनी चाहिए।

दुनिया भर में हर दिन सोशल मीडिया पर लगभग 180 करोड़ तस्वीरें अपलोड की जाती हैं यानी एक हफ्ते में इंटरनेट पर अपलोड की जाने वाली तस्वीरों की संख्या इस समय दुनिया की आबादी के बराबर है।

इन तस्वीरों में से कई करोड़ों सेल्फी के रूप में हैं और महिलाओं की तस्वीरों की संख्या पुरुषों की तुलना में अधिक है। यदि साइबर अपराधियों को गहरी नकली तहानोलॉजी की मदद से अपने हाथ मिलते हैं, तो इन चित्रों को आसानी से अश्लील चित्रों में बदला जा सकता है।

एक कंपनी द्वारा 2020 में किए गए अध्ययन के अनुसार, जो इंटरनेट पर फर्जी कंटेंट पाया गया, महिलाओं द्वारा सोशल मीडिया पर डाली गई लगभग 1 लाख तस्वीरों को इस डीपफेक तकनीक की मदद से अश्लील चित्रों में बदल दिया गया है।

वैश्विक स्तर पर, 466 करोड़ लोग इंटरनेट का उपयोग करते हैं और उनमें से 260 करोड़ किसी न किसी सॉफ्टवेयर से जुड़े हैं। यही है, आप कह सकते हैं कि यह तकनीक वास्तव में एक खतरनाक मिसाइल की तरह है, और इसका लक्ष्य इंटरनेट का उपयोग करने वाले लोग हैं।



[ad_2]

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here