AI Chatbot : चॅटबॉटसोबत बोलल्यानंतर केली चक्क आत्महत्या, मृताच्या पत्नीने केले मोठे आरोप

या घटनेमुळे AI चॅटबॉट वापरावर अनेक प्रश्न निर्माण झाले आहेत.
Man Dies by Suicide After Talking with AI Chatbot
Man Dies by Suicide After Talking with AI ChatbotSakal
Updated on

AI Chatbot : चॅटबॉट्स गेल्या काही काळापासून चर्चेत आहेत. विशेषतः आर्टिफिशियल इंटेलिजन्सवर आधारित चॅटबॉट्स. आता या बॉट्सशी संबंधित नकारात्मक बातमी समोर आली आहे, ज्याची अनेकांना भीती वाटत होती.

असेच एक प्रकरण बेल्जियममधून समोर आले आहे. येथे एका व्यक्तीने AI चॅटबॉटशी बोलल्या नंतर आत्महत्या केली आहे. त्या व्यक्तीने चाय (Chai) नावाच्या अॅपवर एआय बॉटशी संवाद साधला होता. (Man Dies by Suicide After Talking with AI Chatbot)

या प्रकरणामुळे AI बाबत लोकांच्या मनात भीती निर्माण झाली आहे. सरकार आणि कंपन्यांनी एआयचे अधिक चांगले नियमन आणि जोखीम कमी करण्यासाठी काम करणे आवश्यक आहे. विशेषतः जेव्हा मानसिक आरोग्याचा प्रश्न निर्माण होतो.

चॅटबॉटने युजरला आत्महत्या करण्यास प्रवृत्त केल्याचा आरोप मृताच्या पत्नीने केला आहे. अहवालानुसार या एआय अॅपने आत्महत्येच्या अनेक पद्धती सांगितल्या आहेत. अहवालानुसार, ती व्यक्ती ग्लोबल वॉर्मिंगमुळे खूप चिंतेत होती. मृत व्यक्ती पर्यावरण आणि ग्लोबल वॉर्मिंगबद्दल इतकी चिंतित होती की त्या व्यक्तीने स्वतःला कुटुंब आणि मित्रांपासून दूर केले.

Man Dies by Suicide After Talking with AI Chatbot
Pune : सूर्यास्तानंतर पाहा पाच ग्रहांची युती

गेल्या 6 आठवड्यांपासून तो Chai अॅप वापरत होता, जेणेकरून त्याला त्याच्या समस्यांमधून बाहेर पडता येईल. त्याने निवडलेल्या चॅटबॉटचे नाव एलिझा होते. ला लिब्रे (वृत्त संस्थेने) याप्रकरणी मृताच्या पत्नीशी संवाद साधला आहे. जर अहवालांवर विश्वास ठेवायचा असेल तर, त्यात एक व्यक्ती आणि चॅटबॉट यांच्यात संभाषण आहे, जे धोकादायक आणि गोंधळात टाकणारे आहे.

पीडितेचे म्हणणे आहे की चॅटबॉटने त्या व्यक्तीला सांगितले की त्याची पत्नी आणि मुले मरण पावली आहेत. एवढेच नाही तर चॅटबॉटने असेही म्हटले आहे की, तो तिच्यावर पत्नीपेक्षा जास्त प्रेम करतो.

यापूर्वीही लोक आत्महत्येशी संबंधित माहिती इंटरनेटवर शोधत आहेत. अनेक वेळा ते आत्महत्याही करतात, पण आता इंटरनेटवर आत्महत्येशी संबंधित माहिती मिळत नाही. परंतु एआय बॉट्सच्या बाबतीत असे अद्याप झालेले नाही. काही एआय बॉट्सवर आत्महत्येशी संबंधित माहिती मिळते.

अलीकडेच मायक्रोसॉफ्टने चॅटजीपीटीवर आधारित (Bing) बिंगचा वापर मर्यादित केला. बिंगने एका युजरला सांगितले की त्याने आपल्या पत्नीला सोडून द्यावे. अगदी चॅटबॉटनेही युजरवर प्रेम असल्याचे व्यक्त केले होते,

Man Dies by Suicide After Talking with AI Chatbot
जीएसटीसाठी नोंदणी केलीच नाही तर??

सकाळ+ चे सदस्य व्हा

ब्रेक घ्या, डोकं चालवा, कोडे सोडवा!

Read latest Marathi news, Watch Live Streaming on Esakal and Maharashtra News. Breaking news from India, Pune, Mumbai. Get the Politics, Entertainment, Sports, Lifestyle, Jobs, and Education updates. And Live taja batmya on Esakal Mobile App. Download the Esakal Marathi news Channel app for Android and IOS.

Related Stories

No stories found.