सध्या सर्व क्षेत्रांमध्ये एआय - म्हणजेच आर्टिफिशिअल इंटिलिजन्सने आपले पाय पसरले आहेत. मग निवडणूक प्रक्रिया तरी त्यापासून कशी दूर राहील? तुर्की देशातील निवडणुकांमध्ये याच AI मुळे बराच गदारोळ झाला होता. आता भारतातही पुढच्या वर्षी सार्वत्रिक निवडणुका होणार आहेत. तेव्हा, या निवडणुका आणि त्याच्या प्रचारामध्ये एआयचा वापर केला जाण्याची शक्यता नाकारता येत नाही.
२०१४ साली झालेल्या निवडणुकीपूर्वी भाजपाने मोठ्या प्रमाणात हायटेक प्रचार केला होता. सोशल मीडियाचा देखील अभूतपूर्व असा वापर करून भारतीय जनता पक्षाने या निवडणुकीत विजय प्राप्त केला होता. यावेळी प्रचारादरम्यान पंतप्रधान मोदींचा 3D अवतार चांगलाच चर्चेत आला होता. पंतप्रधानांच्या प्री-रेकॉर्डेड भाषणाला होलोग्रामचं स्वरुप देऊन, ते भाषण कित्येक ठिकाणी दाखवण्यात आलं होतं.
पंतप्रधान मोदींचा चॅटबॉट शक्य
आता दहा वर्षांनंतर तंत्रज्ञान आणखी पुढे गेलं आहे. त्यामुळे २०२४ साली होणाऱ्या निवडणुकांमध्ये पंतप्रधान मोदींचं आणखी एक 3D रुप समोर आलं तर? एआयच्या मदतीने तयार केलेलं पंतप्रधान मोदींचं एक प्रतिरूप तुमच्याशी गप्पा मारण्यासाठी उपलब्ध असेल तर? तुमच्या सर्व प्रश्नांची उत्तरं देणारा एक असा चॅटबॉट, जो अगदी मोदींप्रमाणेच बोलत आहे आणि त्यांच्याप्रमाणेच हावभाव करत आहे - हे एआयच्या मदतीने नक्कीच शक्य आहे.
एआय आहे फ्युचर
प्राईसवॉटरहाऊस कूपर्स नावाच्या कंपनीने केलेल्या एका रिसर्चनुसार, एआयच्या मदतीने २०३० पर्यंत जगभरात एआयची अर्थव्यवस्था १२४ कोटी रुपयांपेक्षा अधिक होऊ शकते. भारतात गेल्या दोन सार्वत्रिक निवडणुकांमध्ये सोशल मीडिया आणि टीव्ही जाहिरातींचा वापर केला गेला होता. आता पुढच्या निवडणुकांमध्ये चॅटजीपीटी, गुगल बार्ड आणि अशाच इतर एआय टूल्सचा वापर केला जाऊ शकतो असं या रिपोर्टमध्ये म्हटलं आहे.
तुर्की निवडणुकांमधून धडा
तुर्कीमध्ये यावर्षी झालेल्या निवडणुकांमध्ये एआयमुळे मोठा गदारोळ झाला. राष्ट्रपती रजब तैयब एर्दोआन यांचे विरोधी कॅमल किलिकडारोग्लू यांच्या इंग्रजीमधील एक डीपफेक व्हिडिओ व्हायरल झाला होता. यासोबतच होमलँड पक्षाचे नेते मुहर्रम इन्स यांची एका अज्ञात महिलेसोबतची सेक्स टेप लीक झाली होती. ही टेप खोटी आहे, आणि डीपफेकच्या मदतीने तयार केली आहे असा आरोप करत, निवडणुकीतून माघार घेतली होती.
काय आहे डीपफेक?
आपण मीम किंवा फोटो एडिट करताना एखाद्या व्यक्तीचा चेहरा दुसऱ्या व्यक्तीवर लावल्याचे पाहिले असेल. मात्र, डीपफेक हे त्याच्या कितीतरी पट प्रगत तंत्रज्ञान आहे. या माध्यमातून तुम्ही एखाद्या व्यक्तीचे अगदी खरे वाटतील असे फेक व्हिडिओ तयार करू शकता. या व्यक्तीचा चेहरा, आवाज, हावभाव अशा सगळ्या गोष्टींची अगदी हुबेहुब नक्कल यात शक्य असते. त्यामुळे हे तंत्रज्ञान अगदी धोकादायक असते.
सकाळ+ चे सदस्य व्हा
ब्रेक घ्या, डोकं चालवा, कोडे सोडवा!
Read latest Marathi news, Watch Live Streaming on Esakal and Maharashtra News. Breaking news from India, Pune, Mumbai. Get the Politics, Entertainment, Sports, Lifestyle, Jobs, and Education updates. And Live taja batmya on Esakal Mobile App. Download the Esakal Marathi news Channel app for Android and IOS.