Fake Deepfake's : खऱ्या किंवा एडिटेड व्हिडीओजना लावलं जातंय 'डीपफेक' चं लेबल

खऱ्या माध्यमांना खोटे ठरवून 'डीपफेक' बाबत वैयक्तिक हिताचे आणि मानवी उल्लंघन करणारे कायदे बनविले जाऊ शकतात अशी भीती तज्ज्ञ का व्यक्त करतायेत?
Fake Deepfake's
Fake Deepfake's Esakal
Updated on

ठळक मुद्दे:

१) आरक्षण संपविण्याबाबतचा केंद्रीय गृहमंत्री अमित शहा यांचा वेगाने व्हायरल होत असलेला व्हिडीओ 'बूम' या 'फॅक्ट चेकर' संस्थेने 'डीबंक' केला असून त्यातून हे समोर आले आहे की, हा व्हिडीओ एडिटिंग ची टूल्स वापरून एडिट करण्यात आला आहे.

२) अनेक राजकारणी, मुख्य प्रवाहातील माध्यमे आणि पंतप्रधान नरेंद्र मोदी यांनी देखील तंत्रज्ञानाच्या पूर्ण माहितीअभावी एडिटेड व्हिडीओजना 'डीपफेक' व्हिडीओ असे संबोधले आहे.

३) इंटरनेट फ्रीडम फाउंडेशनचे प्रतीक वाघरे म्हणाले, असे करण्यामागे दोन कारणे असू शकतात. एक म्हणजे तंत्रज्ञानाविषयी पूर्ण माहिती नसणे किंवा दुसरे म्हणजे जाणीवपूर्वक आपल्या विरोधातील पुरावे नष्ट करण्याच्या हेतूने हे केले जाऊ शकते.

Created By: Boom

Translated By : Sakal Digital Team

मुंबई: देशाचे गृहमंत्री अमित शहा यांचा एक व्हिडीओ सध्या मोठ्या प्रमाणात व्हायरल होत आहे ज्यामध्ये ते, अनुसूचित जाती, अनुसूचित जमाती आणि मागासवर्गीयांचे आरक्षण काढून घेण्याबाबत वक्तव्य करत आहेत. बूमच्या तथ्य-तपासणीत असे आढळून आले की, व्हिडिओत संपादन साधनांचा (Editing Tools) वापर करून या व्हिडिओत बदल करण्यात आले आहेत. पण भारतीय जनता पक्षाच्या नेत्यांनी तसेच विविध मुख्य प्रवाहातील माध्यमांनी त्याला 'डीपफेक' म्हणून चुकीचे लेबल लावले.

राजकीय प्रतिस्पर्ध्यांना लक्ष्य करण्यासाठी मोठ्या प्रमाणात चुकीचे व्हिडीओ

भारतातील राजकीय पक्ष या निवडणुकीच्या काळात मोठ्या प्रमाणात आर्टिफिशियल इंटेलिजन्स चा वापर करत आहेत. राजकारण्यांचे एआय व्हॉईस क्लोन करत मतदारांपर्यंत काही संदेश पोचविण्याचे काम करत आहेत. राजकीय पक्ष त्यांच्या राजकीय प्रतिस्पर्ध्यांना लक्ष्य करण्यासाठी व्हॉईस क्लोनिंग, फेस स्वॅप आणि इतर एआय टूलचा वापर करत त्यांच्या प्रतिमा खराब करत आहेत. यासाठी ते समाज माध्यमांच्या नियमांचे आणि नैतिकतेचे उल्लंघन करताना दिसत आहेत. हे व्हिडिओ त्यांच्या अधिकृत इंस्टाग्राम आणि यूट्यूब हँडलवर पोस्ट केले जात आहेत.

दरम्यान जे पूर्णपणे फसवे आणि डीपफेक व्हिडीओ आहेत ते एकतर राजकीय पक्षांच्या आयटी सेल मार्फत किंवा पक्ष आणि त्याचे समर्थन करणाऱ्या कार्यकर्त्यांच्या माध्यमातून शेअर केले जात आहेत. सध्याच्या भारतातील लोकसभा निवडणुकीच्या पार्श्वभूमीवर चुकीच्या, फसव्या, उथळ माहितीचे प्रमाण वाढत असून ऑनलाईन माध्यमातून ते शेअर केले जात आहे.

मुख्य प्रवाहातील माध्यमांची देखील होतेय फसगत

अनेक मोठ्या आणि मुख्य प्रवाहातील इंग्रजी, मराठी माध्यमांनी अमित शहा यांच्या व्हिडिओला डीपफेक असे संबोधले होते. एवढेच नाही तर महाराष्ट्रातील सातारा येथील प्रचार सभेत बोलताना पंतप्रधान नरेंद्र मोदी यांनीही या व्हिडिओचा संदर्भ कृत्रिम बुद्धिमत्ता म्हणून संबोधला होता.

आरक्षणाबाबतचा अमित शहा यांचा तो व्हिडीओ 'डीपफेक' नाही पण 'एडिटेड' आहे

पण 'बूम' च्या तपासणीत असे आढळले की, २०२३ च्या विधानसभा निवडणुकांपूर्वी तेलंगणातील भाषणादरम्याचा हा व्हिडीओ होता. ज्यामध्ये मुस्लिमांसाठीचे आरक्षण संपवण्याबाबत शाह यांनी वक्तव्य केले होते. पण त्यांनी केलेले सलग विधान न दाखवता त्यांच्या भाषणाचे वेगवेगळे भाग कापून अशा पद्धतीने जोडले आहेत की त्यातून त्यांच्या बोलण्याचा संदर्भच बदलतो आहे. पण बूम ने सांगितले की, हा व्हिडीओ एडिटेड असला तरी तो डीपफेक नव्हता. हा व्हिडीओ कृत्रिम बुद्धिमत्ता किंवा सखोल अल्गोरिदम वापरून बदलला किंवा तयार केलेला नाही.

गरबा खेळतानाचा नरेंद्र मोदी यांचा तो व्हिडीओ डीपफेक नसून 'विकास महंते नावाच्या व्यक्तीचा

मागील वर्षी नोव्हेंबरमध्ये भाजपच्या नवी दिल्ली येथील राष्ट्रीय मुख्यालयात आयोजित केलेल्या दिवाळी कार्यक्रमात माध्यमांशी संवाद साधताना, नरेंद्र मोदींनी 'डीपफेक' च्या धोक्यांकडे लक्ष वेधले. याचे उदाहरण देताना त्यांनी स्वतःच्या गरबा खेळतानाच्या व्हिडिओचा उल्लेखही 'डीपफेक' म्हणून केला.

बूम ने याही व्हिडिओची जेव्हा सत्यता तपासली तेव्हा तो व्हिडीओ डीपफेक किंवा एडिटेड व्हिडीओ नसल्याचे त्यांच्या पाहणीत समोर आले. युके मधील एका दिवाळी कार्यक्रमात गरबा नाचताना 'विकास महंते' नावाच्या नरेंद्र मोदी यांच्यासारख्या दिसणाऱ्या व्यक्तीचा तो खरा व्हिडिओ होता.

भाजपचे उमेदवार दिनेश लाल यादव यांचाही व्हिडीओ डीपफेक नसून एडिटेड होता

निवडणुकीच्या पहिल्या टप्प्याच्या काही दिवस आधी, आझमगढमधील भाजपचे उमेदवार दिनेश लाल यादव यांचा एक व्हिडिओ व्हायरल झाला होता, ज्यामध्ये ते मोदी आणि उत्तर प्रदेशचे मुख्यमंत्री योगी आदित्यनाथ यांनी बेरोजगारी थांबवण्यासाठी अपत्यहीन राहणे कसे पसंत केले यावर भाष्य केल्याचे दाखविण्यात आले होते. हा व्हिडिओ काँग्रेस समर्थकांनी मोठ्या प्रमाणावर शेअर केल्यानंतर, भाजप आयटी सेलचे प्रमुख अमित मालवीय यांनी ट्विट करून हा व्हिडिओ 'डीपफेक' असल्याचा दावा केला होता.

'बूम' ने 'डीपफेक डिटेक्शन टूल्स' चा वापर करून याची सत्यता तपासली तसेच याचे शूटिंग केलेल्या बातमीदाराकडून मूळ व्हिडिओ मिळवला. तपासणीअंती त्यांच्या असे लक्षात आले की, भाषणातील मुद्द्यांचा क्रम बदलला गेला होता मात्र तो व्हिडीओ डीपफेक नव्हता. किंवा क्रम बदलल्यामुळे यातील भाषणाचा अर्थही बदललेला नव्हता.

आपल्या सोयीने अनेक गोष्टींना डीपफेक म्हणण्याची वृत्ती वाढतेय का?

याबाबत 'इंटरनेट फ्रीडम फाउंडेशन' चे कार्यकारी संचालक प्रतिक वाघरे म्हणाले, " राजकीय नेते ज्याप्रमाणे आपल्या सोयीने बातम्यांना जसे फेक न्यूज किंवा चुकीची माहिती असे म्हणतात तसेच डीपफेक च्या बाबतीतही नक्कीच हे होण्याची शक्यता आहे."

बूम शी बोलताना वाघरे यांनी 'डीपफेक्स' या शब्दाचा चुकीचा वापर दोन वेगवेगळ्या कारणांमुळे होऊ शकत असल्याचे सांगितले. ते म्हणाले, पहिला प्रकार म्हणजे डीपफेक काय आणि चीपफेक (अर्थ बदलेल या पद्धतीने एडिट करणे) काय? यामधील सूक्ष्म फरक न ओळखता येणे आणि दुसरे म्हणजे जे समोर येईल त्याला सरसकट डीपफेक म्हणणे.

Fake Deepfake's
Fake Deepfake's Esakal

२०२० च्या निवडणुकांपासून होतोय 'डीपफेक' चा वापर

मनोज तिवारी यांचा तो व्हिडीओ 'लिप-सिंक डीपफेक अल्गोरिदम' वापरून केलेला

खरे तर राजकारणामध्ये डीपफेक चा वापर काही नवा नाही. निवडणुकीच्या संदर्भात अशा तंत्रज्ञानाचा पहिला वापर ७ फेब्रुवारी २०२० पाहायला मिळाला होता. दिल्ली विधानसभा निवडणुकीच्या एक दिवस आधी भारतीय जनता पक्षाचे नेते मनोज तिवारी हे आम आदमी पक्षाचे सरकार आणि त्यांचे नेते अरविंद केजरीवाल यांच्यावर टीका करताना आणि लोकांना भाजपला मत देण्याचे आवाहन करताना अनेक व्हिडिओच्या माध्यमांतून दिसले. या व्हिडिओंमध्ये तिवारी इंग्रजी, हिंदी आणि हरियाणातील हिंदी भाषेमध्ये बोलत असल्याचे दाखवले होते.

दरम्यान vice.com ला असे आढळले की केवळ हिंदी आवृत्ती ही प्रत्यक्ष तिवारी यांनी शूट केली होती. इंग्रजी आणि हरियाणवी भाषेतील आवृत्ती प्रत्यक्षात तिवारीच्या भाषणांच्या व्हिडिओच्या आधारे 'लिप-सिंक डीपफेक अल्गोरिदम' वापरून तयार करण्यात आली होती. तिवारी यांच्या डीपफेक व्हिडिओंवर भारताच्या निवडणूक आयोगाने किंवा भाजपने अधिकृतपणे भाष्य केलेले नाही.

राहुल गांधींच्या राजीनाम्याचा तो व्हिडीओ देखील 'व्हाईस क्लोनिंग' (डीपफेक) वापरून केलेला

अगदी अलीकडेच, 'बूम' ने कृत्रिम बुद्धिमत्तेचा वापर करून बनवलेले किंवा बदललेले आणि सध्याच्या मतदानाच्या संदर्भात शेअर केलेले अनेक व्हिडिओ फॅक्ट-चेक केलेले आहेत. मतदान सुरू होण्याच्या एक आठवड्यापूर्वी काँग्रेस नेते राहुल गांधी यांचा एक व्हिडिओ सोशल मीडियावर पाहायला मिळाला. ज्यात ते पक्षाचा राजीनामा जाहीर करतायेत असे भासविण्यात आले होते. बूमच्या पाहणीत आढळले की, तो मूळ व्हिडीओ केरळच्या वायनाड मधील राहुल गांधी खासदारकीचा अर्ज भरतानाचा होता. व्हायरल व्हिडीओ आर्टिफिशियल इंटेलिजन्सचा वापर करून 'व्हाईस क्लोनिंग' केलेला होता.

अभिनेता आमिर खान आणि रणवीर सिंग यांचे व्हिडीओ देखील व्हॉईस क्लोनिंगचा वापर करून

निवडणुकीच्या काही दिवस आधी, दोन व्हिडिओ व्हायरल झाले होते ज्यात बॉलीवूड अभिनेता आमिर खान आणि रणवीर सिंग भाजपच्या नेतृत्वाखालील सरकारवर टीका करताना दिसत आहेत. बूमने या दोन्ही व्हिडिओंचे परीक्षण केले आणि AI व्हॉईस क्लोनिंगचा वापर करून त्यात बदल केल्याचा पुरावा त्यांना आढळला.

काँग्रेस नेते कमलनाथ यांचा व्हिडीओ देखील 'एआय व्हॉईस क्लोन' ने बदललेला

लोकसभा निवडणुकीच्या पहिल्या आणि दुस-या टप्प्याच्या दरम्यान आणखी एक व्हिडिओ सोशल मीडियावर आला होता. ज्यामध्ये काँग्रेस नेते कमलनाथ मुस्लिमांना मशीद बांधण्यासाठी जमीन देण्याचे आणि कलम ३७० पुनर्स्थापित करण्याचे वचन देताना दिसत होते. बूमला पाहणीत आढळले की, हा व्हिडिओ देखील बदलण्यात आला होता. कमलनाथांचा आवाज 'एआय व्हॉईस क्लोन' ने बदलला गेला होता.

भारताच्या निवडणूक आयोगाकडून मात्र डीपफेक प्रकरणाबाबत कोणतेच भाष्य नाही

भारताच्या निवडणूक आयोगाने मतदानाच्या संदर्भात अशा प्रकारच्या आर्टिफिशियल इंटेलिजन्सचा वापर करून केलेल्या चुकीच्या गोष्टी आणि विकृती वाढल्याबाबत कोणतेही भाष्य केलेले नाही. भारतातील निवडणुकांपूर्वीच या वर्षाच्या सुरुवातीला शेजारील देश पाकिस्तान आणि बांग्लादेशमधील निवडणुकांमध्ये डीपफेकचा चांगलाच बाजार पाहायला मिळाला होता.

Fake Deepfake's : voice cloning
Fake Deepfake's : voice cloning Esakal

तज्ज्ञांच्या मते...

डीपफेक वर कसे नियंत्रण ठेवता येईल?

आर्टिफिशियल इंटेलिजन्सचे नियमन हा सध्या देशात अत्यंत चर्चेचा विषय बनला आहे. इलेक्ट्रॉनिक्स आणि इन्फॉर्मेशन टेक्नॉलॉजी राज्यमंत्री राजीव चंद्रशेखर यांच्या एका चुकीच्या सल्ल्यामुळे तर या गोंधळात आणखीनच भर पडली आहे. यानंतर मंत्र्यांकडून नंतर अनेक स्पष्टीकरणे दिली गेली आहेत.

वाघरे म्हणाले, "तुम्ही 'डीपफेक' हा शब्द वापरणे निवडले आहे की नाही, तुम्ही 'सिंथेटिक मीडिया'च्या व्यापक समस्येकडे लक्ष वेधत असलात तरीही याच्या मूळ संकल्पनांबाबतच स्पष्टता देताय का? याच्या मूळ संकल्पनाच स्पष्ट न झाल्याने हा विषय आणखीनच गाळात जाताना दिसतोय"

रोज आर्टिफिशियल इंटेलिजन्समधील नवीन नवीन गोष्टींवर चर्चा करून अनेकांना गोंधळात टाकलं जातंय. डीपफेक या शब्दाचा जाणीवपूर्वक चुकीचा वापर करून ते अधिक वाईट कसे ठरेल हे पाहिलं जातंय. मग या सगळ्याचे नियमन आणि नियंत्रण होणार तरी कसे?

MeitY (आता मागे घेतलेल्या) मुद्यांचा संदर्भ देत SFLC.in च्या स्वयंसेवक, कायदेशीर सल्लागार राधिका झालानी म्हणतात की, तंत्रज्ञानाशी निगडित या गोष्टीचा कायदा हा रोज नव्याने येणाऱ्या आव्हानांना योग्य रीतीने जाणून घेत समतोल साधणारा असणे अपेक्षित आहे. विशेषतः २०२४ हे वर्ष जागतिक पातळीवर निवडणुकांचे वर्ष असल्याने डीपफेक हा चिंतेचा विषय ठरला आहे. कोणत्याही कायद्याची अंमलबजावणी करताना त्यातून तंत्रज्ञानाचा गैरवापर होणार नाही आणि अभिव्यक्ती स्वातंत्र्य अबाधित राखलं जाणं गरजेचं आहे.

वाघरे म्हणतात की, आपण याबाबत नवीन कायदे करण्याची घाई करण्यापेक्षा आधीचे कायदे कुठे कमी पडले याचे परीक्षण करायला हवे. डीपफेक हा प्रकार किती वेगवेगळ्या पद्धतीने केला जात आहे. सध्याचे कायदे या बनावट माहितीसाठी पुरेसे आहेत की त्यात आणखी काही कायदे करायची गरज आहे? तसेच सध्याची यंत्रणा यावर नियंत्रण ठेऊ शकते की यासाठी नव्याने यंत्रणा उभारावी लागेल या सर्वच बाबींचा अभ्यास होणे आवश्यक आहे.

'BOOM' या संकेतस्थळाने याबाबतचा रिपोर्ट प्रसिद्ध केला आहे. शक्ति कलेक्टिव्हचा भाग म्हणून 'सकाळ'ने याचं भाषांतर केलेलं आहे.


----------------

सकाळ+ चे सदस्य व्हा

ब्रेक घ्या, डोकं चालवा, कोडे सोडवा!

Read latest Marathi news, Watch Live Streaming on Esakal and Maharashtra News. Breaking news from India, Pune, Mumbai. Get the Politics, Entertainment, Sports, Lifestyle, Jobs, and Education updates. And Live taja batmya on Esakal Mobile App. Download the Esakal Marathi news Channel app for Android and IOS.

Related Stories

No stories found.