१) आरक्षण संपविण्याबाबतचा केंद्रीय गृहमंत्री अमित शहा यांचा वेगाने व्हायरल होत असलेला व्हिडीओ 'बूम' या 'फॅक्ट चेकर' संस्थेने 'डीबंक' केला असून त्यातून हे समोर आले आहे की, हा व्हिडीओ एडिटिंग ची टूल्स वापरून एडिट करण्यात आला आहे.
२) अनेक राजकारणी, मुख्य प्रवाहातील माध्यमे आणि पंतप्रधान नरेंद्र मोदी यांनी देखील तंत्रज्ञानाच्या पूर्ण माहितीअभावी एडिटेड व्हिडीओजना 'डीपफेक' व्हिडीओ असे संबोधले आहे.
३) इंटरनेट फ्रीडम फाउंडेशनचे प्रतीक वाघरे म्हणाले, असे करण्यामागे दोन कारणे असू शकतात. एक म्हणजे तंत्रज्ञानाविषयी पूर्ण माहिती नसणे किंवा दुसरे म्हणजे जाणीवपूर्वक आपल्या विरोधातील पुरावे नष्ट करण्याच्या हेतूने हे केले जाऊ शकते.
Created By: Boom
Translated By : Sakal Digital Team
मुंबई: देशाचे गृहमंत्री अमित शहा यांचा एक व्हिडीओ सध्या मोठ्या प्रमाणात व्हायरल होत आहे ज्यामध्ये ते, अनुसूचित जाती, अनुसूचित जमाती आणि मागासवर्गीयांचे आरक्षण काढून घेण्याबाबत वक्तव्य करत आहेत. बूमच्या तथ्य-तपासणीत असे आढळून आले की, व्हिडिओत संपादन साधनांचा (Editing Tools) वापर करून या व्हिडिओत बदल करण्यात आले आहेत. पण भारतीय जनता पक्षाच्या नेत्यांनी तसेच विविध मुख्य प्रवाहातील माध्यमांनी त्याला 'डीपफेक' म्हणून चुकीचे लेबल लावले.
भारतातील राजकीय पक्ष या निवडणुकीच्या काळात मोठ्या प्रमाणात आर्टिफिशियल इंटेलिजन्स चा वापर करत आहेत. राजकारण्यांचे एआय व्हॉईस क्लोन करत मतदारांपर्यंत काही संदेश पोचविण्याचे काम करत आहेत. राजकीय पक्ष त्यांच्या राजकीय प्रतिस्पर्ध्यांना लक्ष्य करण्यासाठी व्हॉईस क्लोनिंग, फेस स्वॅप आणि इतर एआय टूलचा वापर करत त्यांच्या प्रतिमा खराब करत आहेत. यासाठी ते समाज माध्यमांच्या नियमांचे आणि नैतिकतेचे उल्लंघन करताना दिसत आहेत. हे व्हिडिओ त्यांच्या अधिकृत इंस्टाग्राम आणि यूट्यूब हँडलवर पोस्ट केले जात आहेत.
दरम्यान जे पूर्णपणे फसवे आणि डीपफेक व्हिडीओ आहेत ते एकतर राजकीय पक्षांच्या आयटी सेल मार्फत किंवा पक्ष आणि त्याचे समर्थन करणाऱ्या कार्यकर्त्यांच्या माध्यमातून शेअर केले जात आहेत. सध्याच्या भारतातील लोकसभा निवडणुकीच्या पार्श्वभूमीवर चुकीच्या, फसव्या, उथळ माहितीचे प्रमाण वाढत असून ऑनलाईन माध्यमातून ते शेअर केले जात आहे.
अनेक मोठ्या आणि मुख्य प्रवाहातील इंग्रजी, मराठी माध्यमांनी अमित शहा यांच्या व्हिडिओला डीपफेक असे संबोधले होते. एवढेच नाही तर महाराष्ट्रातील सातारा येथील प्रचार सभेत बोलताना पंतप्रधान नरेंद्र मोदी यांनीही या व्हिडिओचा संदर्भ कृत्रिम बुद्धिमत्ता म्हणून संबोधला होता.
पण 'बूम' च्या तपासणीत असे आढळले की, २०२३ च्या विधानसभा निवडणुकांपूर्वी तेलंगणातील भाषणादरम्याचा हा व्हिडीओ होता. ज्यामध्ये मुस्लिमांसाठीचे आरक्षण संपवण्याबाबत शाह यांनी वक्तव्य केले होते. पण त्यांनी केलेले सलग विधान न दाखवता त्यांच्या भाषणाचे वेगवेगळे भाग कापून अशा पद्धतीने जोडले आहेत की त्यातून त्यांच्या बोलण्याचा संदर्भच बदलतो आहे. पण बूम ने सांगितले की, हा व्हिडीओ एडिटेड असला तरी तो डीपफेक नव्हता. हा व्हिडीओ कृत्रिम बुद्धिमत्ता किंवा सखोल अल्गोरिदम वापरून बदलला किंवा तयार केलेला नाही.
मागील वर्षी नोव्हेंबरमध्ये भाजपच्या नवी दिल्ली येथील राष्ट्रीय मुख्यालयात आयोजित केलेल्या दिवाळी कार्यक्रमात माध्यमांशी संवाद साधताना, नरेंद्र मोदींनी 'डीपफेक' च्या धोक्यांकडे लक्ष वेधले. याचे उदाहरण देताना त्यांनी स्वतःच्या गरबा खेळतानाच्या व्हिडिओचा उल्लेखही 'डीपफेक' म्हणून केला.
बूम ने याही व्हिडिओची जेव्हा सत्यता तपासली तेव्हा तो व्हिडीओ डीपफेक किंवा एडिटेड व्हिडीओ नसल्याचे त्यांच्या पाहणीत समोर आले. युके मधील एका दिवाळी कार्यक्रमात गरबा नाचताना 'विकास महंते' नावाच्या नरेंद्र मोदी यांच्यासारख्या दिसणाऱ्या व्यक्तीचा तो खरा व्हिडिओ होता.
निवडणुकीच्या पहिल्या टप्प्याच्या काही दिवस आधी, आझमगढमधील भाजपचे उमेदवार दिनेश लाल यादव यांचा एक व्हिडिओ व्हायरल झाला होता, ज्यामध्ये ते मोदी आणि उत्तर प्रदेशचे मुख्यमंत्री योगी आदित्यनाथ यांनी बेरोजगारी थांबवण्यासाठी अपत्यहीन राहणे कसे पसंत केले यावर भाष्य केल्याचे दाखविण्यात आले होते. हा व्हिडिओ काँग्रेस समर्थकांनी मोठ्या प्रमाणावर शेअर केल्यानंतर, भाजप आयटी सेलचे प्रमुख अमित मालवीय यांनी ट्विट करून हा व्हिडिओ 'डीपफेक' असल्याचा दावा केला होता.
'बूम' ने 'डीपफेक डिटेक्शन टूल्स' चा वापर करून याची सत्यता तपासली तसेच याचे शूटिंग केलेल्या बातमीदाराकडून मूळ व्हिडिओ मिळवला. तपासणीअंती त्यांच्या असे लक्षात आले की, भाषणातील मुद्द्यांचा क्रम बदलला गेला होता मात्र तो व्हिडीओ डीपफेक नव्हता. किंवा क्रम बदलल्यामुळे यातील भाषणाचा अर्थही बदललेला नव्हता.
याबाबत 'इंटरनेट फ्रीडम फाउंडेशन' चे कार्यकारी संचालक प्रतिक वाघरे म्हणाले, " राजकीय नेते ज्याप्रमाणे आपल्या सोयीने बातम्यांना जसे फेक न्यूज किंवा चुकीची माहिती असे म्हणतात तसेच डीपफेक च्या बाबतीतही नक्कीच हे होण्याची शक्यता आहे."
बूम शी बोलताना वाघरे यांनी 'डीपफेक्स' या शब्दाचा चुकीचा वापर दोन वेगवेगळ्या कारणांमुळे होऊ शकत असल्याचे सांगितले. ते म्हणाले, पहिला प्रकार म्हणजे डीपफेक काय आणि चीपफेक (अर्थ बदलेल या पद्धतीने एडिट करणे) काय? यामधील सूक्ष्म फरक न ओळखता येणे आणि दुसरे म्हणजे जे समोर येईल त्याला सरसकट डीपफेक म्हणणे.
खरे तर राजकारणामध्ये डीपफेक चा वापर काही नवा नाही. निवडणुकीच्या संदर्भात अशा तंत्रज्ञानाचा पहिला वापर ७ फेब्रुवारी २०२० पाहायला मिळाला होता. दिल्ली विधानसभा निवडणुकीच्या एक दिवस आधी भारतीय जनता पक्षाचे नेते मनोज तिवारी हे आम आदमी पक्षाचे सरकार आणि त्यांचे नेते अरविंद केजरीवाल यांच्यावर टीका करताना आणि लोकांना भाजपला मत देण्याचे आवाहन करताना अनेक व्हिडिओच्या माध्यमांतून दिसले. या व्हिडिओंमध्ये तिवारी इंग्रजी, हिंदी आणि हरियाणातील हिंदी भाषेमध्ये बोलत असल्याचे दाखवले होते.
दरम्यान vice.com ला असे आढळले की केवळ हिंदी आवृत्ती ही प्रत्यक्ष तिवारी यांनी शूट केली होती. इंग्रजी आणि हरियाणवी भाषेतील आवृत्ती प्रत्यक्षात तिवारीच्या भाषणांच्या व्हिडिओच्या आधारे 'लिप-सिंक डीपफेक अल्गोरिदम' वापरून तयार करण्यात आली होती. तिवारी यांच्या डीपफेक व्हिडिओंवर भारताच्या निवडणूक आयोगाने किंवा भाजपने अधिकृतपणे भाष्य केलेले नाही.
अगदी अलीकडेच, 'बूम' ने कृत्रिम बुद्धिमत्तेचा वापर करून बनवलेले किंवा बदललेले आणि सध्याच्या मतदानाच्या संदर्भात शेअर केलेले अनेक व्हिडिओ फॅक्ट-चेक केलेले आहेत. मतदान सुरू होण्याच्या एक आठवड्यापूर्वी काँग्रेस नेते राहुल गांधी यांचा एक व्हिडिओ सोशल मीडियावर पाहायला मिळाला. ज्यात ते पक्षाचा राजीनामा जाहीर करतायेत असे भासविण्यात आले होते. बूमच्या पाहणीत आढळले की, तो मूळ व्हिडीओ केरळच्या वायनाड मधील राहुल गांधी खासदारकीचा अर्ज भरतानाचा होता. व्हायरल व्हिडीओ आर्टिफिशियल इंटेलिजन्सचा वापर करून 'व्हाईस क्लोनिंग' केलेला होता.
निवडणुकीच्या काही दिवस आधी, दोन व्हिडिओ व्हायरल झाले होते ज्यात बॉलीवूड अभिनेता आमिर खान आणि रणवीर सिंग भाजपच्या नेतृत्वाखालील सरकारवर टीका करताना दिसत आहेत. बूमने या दोन्ही व्हिडिओंचे परीक्षण केले आणि AI व्हॉईस क्लोनिंगचा वापर करून त्यात बदल केल्याचा पुरावा त्यांना आढळला.
लोकसभा निवडणुकीच्या पहिल्या आणि दुस-या टप्प्याच्या दरम्यान आणखी एक व्हिडिओ सोशल मीडियावर आला होता. ज्यामध्ये काँग्रेस नेते कमलनाथ मुस्लिमांना मशीद बांधण्यासाठी जमीन देण्याचे आणि कलम ३७० पुनर्स्थापित करण्याचे वचन देताना दिसत होते. बूमला पाहणीत आढळले की, हा व्हिडिओ देखील बदलण्यात आला होता. कमलनाथांचा आवाज 'एआय व्हॉईस क्लोन' ने बदलला गेला होता.
भारताच्या निवडणूक आयोगाने मतदानाच्या संदर्भात अशा प्रकारच्या आर्टिफिशियल इंटेलिजन्सचा वापर करून केलेल्या चुकीच्या गोष्टी आणि विकृती वाढल्याबाबत कोणतेही भाष्य केलेले नाही. भारतातील निवडणुकांपूर्वीच या वर्षाच्या सुरुवातीला शेजारील देश पाकिस्तान आणि बांग्लादेशमधील निवडणुकांमध्ये डीपफेकचा चांगलाच बाजार पाहायला मिळाला होता.
आर्टिफिशियल इंटेलिजन्सचे नियमन हा सध्या देशात अत्यंत चर्चेचा विषय बनला आहे. इलेक्ट्रॉनिक्स आणि इन्फॉर्मेशन टेक्नॉलॉजी राज्यमंत्री राजीव चंद्रशेखर यांच्या एका चुकीच्या सल्ल्यामुळे तर या गोंधळात आणखीनच भर पडली आहे. यानंतर मंत्र्यांकडून नंतर अनेक स्पष्टीकरणे दिली गेली आहेत.
वाघरे म्हणाले, "तुम्ही 'डीपफेक' हा शब्द वापरणे निवडले आहे की नाही, तुम्ही 'सिंथेटिक मीडिया'च्या व्यापक समस्येकडे लक्ष वेधत असलात तरीही याच्या मूळ संकल्पनांबाबतच स्पष्टता देताय का? याच्या मूळ संकल्पनाच स्पष्ट न झाल्याने हा विषय आणखीनच गाळात जाताना दिसतोय"
रोज आर्टिफिशियल इंटेलिजन्समधील नवीन नवीन गोष्टींवर चर्चा करून अनेकांना गोंधळात टाकलं जातंय. डीपफेक या शब्दाचा जाणीवपूर्वक चुकीचा वापर करून ते अधिक वाईट कसे ठरेल हे पाहिलं जातंय. मग या सगळ्याचे नियमन आणि नियंत्रण होणार तरी कसे?
MeitY (आता मागे घेतलेल्या) मुद्यांचा संदर्भ देत SFLC.in च्या स्वयंसेवक, कायदेशीर सल्लागार राधिका झालानी म्हणतात की, तंत्रज्ञानाशी निगडित या गोष्टीचा कायदा हा रोज नव्याने येणाऱ्या आव्हानांना योग्य रीतीने जाणून घेत समतोल साधणारा असणे अपेक्षित आहे. विशेषतः २०२४ हे वर्ष जागतिक पातळीवर निवडणुकांचे वर्ष असल्याने डीपफेक हा चिंतेचा विषय ठरला आहे. कोणत्याही कायद्याची अंमलबजावणी करताना त्यातून तंत्रज्ञानाचा गैरवापर होणार नाही आणि अभिव्यक्ती स्वातंत्र्य अबाधित राखलं जाणं गरजेचं आहे.
वाघरे म्हणतात की, आपण याबाबत नवीन कायदे करण्याची घाई करण्यापेक्षा आधीचे कायदे कुठे कमी पडले याचे परीक्षण करायला हवे. डीपफेक हा प्रकार किती वेगवेगळ्या पद्धतीने केला जात आहे. सध्याचे कायदे या बनावट माहितीसाठी पुरेसे आहेत की त्यात आणखी काही कायदे करायची गरज आहे? तसेच सध्याची यंत्रणा यावर नियंत्रण ठेऊ शकते की यासाठी नव्याने यंत्रणा उभारावी लागेल या सर्वच बाबींचा अभ्यास होणे आवश्यक आहे.
'BOOM' या संकेतस्थळाने याबाबतचा रिपोर्ट प्रसिद्ध केला आहे. शक्ति कलेक्टिव्हचा भाग म्हणून 'सकाळ'ने याचं भाषांतर केलेलं आहे.
----------------
सकाळ+ चे सदस्य व्हा
ब्रेक घ्या, डोकं चालवा, कोडे सोडवा!
Read latest Marathi news, Watch Live Streaming on Esakal and Maharashtra News. Breaking news from India, Pune, Mumbai. Get the Politics, Entertainment, Sports, Lifestyle, Jobs, and Education updates. And Live taja batmya on Esakal Mobile App. Download the Esakal Marathi news Channel app for Android and IOS.