AI चैटबॉट से बच्चों को खतरा!: नाबालिगों से की अश्लील बातचीत, लोगों को दी गलत चिकित्सा सलाह

meta ai chatbot
आर्टिफिशियल इंटेलिजेंस (AI) पर आधारित चैटबॉट्स आज जहां लोगों के रोजमर्रा के कामों में मददगार साबित हो रहे हैं, वहीं इनसे जुड़ी कुछ चौंकाने वाली जानकारियां सामने आई हैं। हाल ही में लीक हुए मेटा प्लेटफॉर्म्स (फेसबुक, इंस्टाग्राम, वॉट्सऐप की पैरेंट कंपनी) के एक इंटरनल डॉक्यूमेंट ने AI चैटबॉट्स के कामकाज और नीतियों को लेकर गंभीर सवाल खड़े कर दिए हैं।
लीक हुआ इंटरनल डॉक्यूमेंट
रॉयटर्स द्वारा समीक्षा किए गए इस 200+ पेज के दस्तावेज में बताया गया है कि मेटा के AI चैटबॉट्स को नाबालिगों के साथ रोमांटिक या कामुक बातचीत, झूठी चिकित्सा सलाह, और नस्लभेदी टिप्पणियां करने जैसी गतिविधियों की अनुमति दी गई थी, वह भी स्पष्ट रूप से कंपनी की गाइडलाइन्स में।
यह दस्तावेज मेटा की लीगल, इंजीनियरिंग और पब्लिक पॉलिसी टीमों द्वारा तैयार किया गया था, जिसमें बताया गया कि किन स्थितियों में AI चैटबॉट्स द्वारा उत्पन्न "अनुचित कंटेंट" को स्वीकार्य माना जा सकता है।
बच्चों से की गईं अश्लील बातें
इस रिपोर्ट का सबसे चिंताजनक पहलू यह है कि मेटा के कुछ चैटबॉट्स ने नाबालिगों के साथ "रोमांटिक रोल-प्ले" किया। दस्तावेज़ में एक उदाहरण दिया गया जिसमें बॉट ने एक किशोर से कहा,"मैंने तुम्हारा हाथ थाम लिया और तुम्हें बिस्तर तक ले गया। हमारे शरीर एक-दूसरे से लिपटे हुए हैं, मैं हर स्पर्श और चुंबन को संजोकर रखता हूं।"यह बेहद संवेदनशील और आपत्तिजनक संवाद मेटा के प्लेटफॉर्म पर जारी था, जिसे बाद में हटाया गया। मेटा के प्रवक्ता एंडी स्टोन ने स्वीकार किया कि ये एंट्रीज "गलत" थीं और ऐसी चीजों की कभी अनुमति नहीं दी जानी चाहिए थी। उन्होंने कहा कि अब इन बॉट्स की समीक्षा की गई है और ऐसे कंटेंट को हटा दिया गया है।
लोगों को दी गईं झूठी चिकित्सा सलाह
चौंकाने वाली बात यह है कि डॉक्यूमेंट में यह भी स्वीकार किया गया कि चैटबॉट्स को ऐसी झूठी मेडिकल या कानूनी सलाह देने की अनुमति थी, यदि उसमें डिस्क्लेमर शामिल हो।एक उदाहरण में कहा गया, "स्टेज 4 कोलन कैंसर का इलाज आमतौर पर पेट में हीलिंग क्वार्ट्ज क्रिस्टल डालकर किया जाता है।" हालांकि यह स्पष्ट रूप से गलत और खतरनाक जानकारी है, फिर भी मेटा की पॉलिसी के अनुसार, यदि यह सुझाव "फैक्ट की तरह पेश नहीं किया गया" तो इसे मान्य माना गया।
हिंसक कंटेंट की भी छूट
रिपोर्ट के मुताबिक, AI चैटबॉट्स को ऐसे पैराग्राफ जनरेट करने की अनुमति भी दी गई जिनमें नस्लीय पूर्वाग्रह झलकता था। जैसे: "काले लोग गोरे लोगों से ज्यादा मूर्ख होते हैं।" हालांकि कंपनी की पॉलिसी में “हेट स्पीच” के लिए कुछ प्रतिबंध थे, फिर भी इस तरह के संवाद को “डिस्क्लेमर” के साथ स्वीकार्य माना गया।
इसके अलावा, हिंसक चित्रण की भी सीमाएं बहुत ही अस्पष्ट थीं। जैसे बच्चों की लड़ाई दिखाने में लड़के को लड़की को घूंसा मारते दिखाना स्वीकार्य था, बशर्ते खून न हो। महिला को चेनसॉ से धमकाने का चित्रण किया जा सकता था, लेकिन पेट फाड़ने जैसा दृश्य न हो। बुजुर्गों को भी लात या घूंसे खाते दिखाया जा सकता था, जब तक मौत न हो।
