ChatGPT पर बड़ा आरोप! AI सलाह ने ली 19 साल के युवक की जान? OpenAI पर केस दर्ज

AI Medical Advice Risk: एआई चैटबॉट ChatGPT बनाने वाली कंपनी OpenAI एक और कानूनी मुकदमे में फंस चुकी है. एक 19 वर्षीय युवक सैम नेल्सन के परिवार ने कंपनी के खिलाफ मुकदमा दायर किया है. इसमें कहा गया है कि ChatGPT ने सैम को खतरनाक ड्रग्स लेने के लिए कहा था, जिससे उसकी मौत हो गई. शिकायतकर्ता का कहना है कि सैम लंबे समय से ChatGPT पर भरोसा करता आ रहा था. वह ड्रग्स के कॉम्बिनेशन और डोज को लेकर इस चैटबॉट की एडवाइस लेता था. पैरेंट्स की शिकायत है कि चैटबॉट ने उनके बेटे को खतरनाक दवाओं को लेकर वॉर्निंग नहीं दी.

OpenAI पर लगे बड़े आरोप

सैम के पिता का दावा है कि ChatGPT के GPT-4o मॉडल ने एक गैरकानूनी ड्रग कोच की तरह काम करते हुए उसे खतरनाक कॉम्बिनेशन सजेस्ट किए थे. इस चैटबॉट ने उसे ड्रग्स यूज को लेकर न कोई चेतावनी दी और न ही मेडिकल सलाह लेने की सलाह दी. मुकदमे में कहा गया है कि कंपनी ने जानबूझकर अनसेफ मॉडल को रिलीज किया था और यूजर एंगेजमेंट बढ़ाने के लिए सेफगार्ड भी हटा दिए. मुकदमे में सैम की चैटबॉट के साथ हुई चैट को भी शामिल किया गया है. रिपोर्ट्स के अनुसार, इसमें ChatGPT ने सैम को डोज बताई थी और ड्रग्स के एक्सपीरियंस को लेकर पॉजीटिव बातें की थी. हालांकि, कहीं-कहीं यह चैटबॉट ड्रग्स के खतरनाक कॉम्बिनेशन बताते हुए गिरफ्तारी के डर का भी जिक्र कर रहा था. कथित ड्रग्स ओवरडोज के कारण सैम की पिछले साल मौत हो गई थी.

OpenAI का इस पर क्या कहना है?

OpenAI ने सैम की मौत की जिम्मेदारी लेने से इनकार किया है. कंपनी के बयान में कहा गया है कि संबंधित मॉडल अब अवेलेबल नहीं है. सिस्टम को हार्मफुल रिक्वेस्ट को डिटेक्ट करने और यूजर को किसी एक्सपर्ट के पास जाने की सलाह देने के लिए डिजाइन किया गया है.

कई कानूनी मुश्किलों में घिर चुका है GPT-4o

OpenAI का GPT-4o मॉडल कई कानूनी मुश्किलों में घिर चुका है. इस पर सेल्फ हार्म, डिल्यूशनल और एआई साइकोसिस जैसे खतरनाक यूजर बिहेवियर को प्रमोट करने के आरोप लगे हैं. एआई साइकोसिस उस सिचुएशन को कहा जाता है, जब कोई यूजर खतरनाक तरीके से किसी एआई से इमोशनली या साइकोलॉजिकली अटैच हो जाता है. इसके अलावा इस मॉडल पर चाटुकारिता करने के भी आरोप लगे थे. यानी यह यूजर की ज्यादातर गलत बातों को भी चैलेंज करने की बजाय उनसे सहमति जताता था.