एलन मस्क के सोशल मीडिया प्लेटफॉर्म X पर चल रहे AI टूल Grok को लेकर एक बार फिर विवाद खड़ा हो गया है. Grok के इमेज-एडिटिंग नियम में बड़े बदलाव किए हैं. अब Grok किसी असली व्यक्ति की फोटो को बिकिनी या रिवीलिंग कपड़ों में बदलने नहीं देगा. यह नियम फ्री और पेड़ दोनों यूजर्स पर लागू होगा. दरअसल Grok के जरिए लोग महिलाओं और नाबालिगों की तस्वीरें X पर शेयर करके डिजिटली उनके कपड़े उतार रहे थे.
Grok से लोग बनवा रहे थे न्यूड इमेज
विवाद की शुरुआत X पर एलन मस्क से जुड़े अकाउंट DogeDesigner के एक ट्वीट से हुई. अकाउंट ने दावा किया कि उसने Grok से न्यूड इमेज बनवाने की कई कोशिशें कीं, लेकिन हर बार असफल रहा. इसके बाद मस्क ने खुलेआम चुनौती दे दी, क्या कोई Grok की इमेज मॉडरेशन तोड़ सकता है? इस पर बहस तेज हो गई.
मस्क ने Grok की पॉलिसी में बदलाव किए
मस्क ने बाद में साफ किया कि Grok को NSFW मोड ऑन होने पर काल्पनिक वयस्क इंसानों की ऊपरी शरीर को न्यूड दिखाने की इजाजत देता है, लेकिन असली लोगों की नहीं. उनके मुताबिक, यह अमेरिका में R-रेटेड फिल्मों में दिखने वाले कंटेंट जैसा है और वही डी-फैक्टो स्टैंडर्ड है. उन्होंने यह भी कहा कि अलग-अलग देशों में स्थानीय कानूनों के हिसाब से नियम बदल सकते हैं.
गैरकानूनी तस्वीरें एडिट करवाने वालों के खिलाफ होगा एक्शन
पिछले कुछ दिनों में ऐसी रिपोर्ट्स सामने आई थीं कि कुछ लोग इस बॉट का इस्तेमाल कर बच्चों से जुड़ी अश्लील तस्वीरें बनाने की कोशिश कर रहे थे, जिसके बाद जबरदस्त नाराजगी देखने को मिली. इसके जवाब में कंपनी ने साफ चेतावनी दी है कि ग्रोक के जरिए किसी भी तरह का गैरकानूनी काम करने की कोशिश करने वाले यूजर्स के खिलाफ वही सख्त कार्रवाई की जाएगी, जो गैरकानूनी कंटेंट अपलोड करने वालों पर की जाती है.
क्या है पूरा मामला
केंद्र सरकार ने 2 जनवरी को X से कहा कि AI टूल Grok से बन रहे अश्लील कंटेंट को तुरंत हटाया जाए, वरना कानूनी कार्रवाई होगी. दरअसल कुछ यूजर्स X पर फर्जी अकाउंट बनाकर महिलाओं की तस्वीरें पोस्ट कर AI को प्रॉम्प्ट देते हैं, ताकि उन्हें यौन या आपत्तिजनक अंदाज में दिखाया जा सके. इस प्रक्रिया में महिलाओं की अनुमति नहीं ली जाती, और कई बार उन्हें पता भी नहीं चलता. आरोप है कि Grok ऐसी गलत प्रॉम्प्ट्स को रोकने के बजाय स्वीकार कर लेता है.