AI deepfakes
AI deepfakes
एलन मस्क के सोशल मीडिया प्लेटफॉर्म X पर चल रहे AI टूल Grok को लेकर एक बार फिर विवाद खड़ा हो गया है. Grok के इमेज-एडिटिंग नियम में बड़े बदलाव किए हैं. अब Grok किसी असली व्यक्ति की फोटो को बिकिनी या रिवीलिंग कपड़ों में बदलने नहीं देगा. यह नियम फ्री और पेड़ दोनों यूजर्स पर लागू होगा. दरअसल Grok के जरिए लोग महिलाओं और नाबालिगों की तस्वीरें X पर शेयर करके डिजिटली उनके कपड़े उतार रहे थे.
Grok से लोग बनवा रहे थे न्यूड इमेज
विवाद की शुरुआत X पर एलन मस्क से जुड़े अकाउंट DogeDesigner के एक ट्वीट से हुई. अकाउंट ने दावा किया कि उसने Grok से न्यूड इमेज बनवाने की कई कोशिशें कीं, लेकिन हर बार असफल रहा. इसके बाद मस्क ने खुलेआम चुनौती दे दी, क्या कोई Grok की इमेज मॉडरेशन तोड़ सकता है? इस पर बहस तेज हो गई.
मस्क ने Grok की पॉलिसी में बदलाव किए
मस्क ने बाद में साफ किया कि Grok को NSFW मोड ऑन होने पर काल्पनिक वयस्क इंसानों की ऊपरी शरीर को न्यूड दिखाने की इजाजत देता है, लेकिन असली लोगों की नहीं. उनके मुताबिक, यह अमेरिका में R-रेटेड फिल्मों में दिखने वाले कंटेंट जैसा है और वही डी-फैक्टो स्टैंडर्ड है. उन्होंने यह भी कहा कि अलग-अलग देशों में स्थानीय कानूनों के हिसाब से नियम बदल सकते हैं.
गैरकानूनी तस्वीरें एडिट करवाने वालों के खिलाफ होगा एक्शन
पिछले कुछ दिनों में ऐसी रिपोर्ट्स सामने आई थीं कि कुछ लोग इस बॉट का इस्तेमाल कर बच्चों से जुड़ी अश्लील तस्वीरें बनाने की कोशिश कर रहे थे, जिसके बाद जबरदस्त नाराजगी देखने को मिली. इसके जवाब में कंपनी ने साफ चेतावनी दी है कि ग्रोक के जरिए किसी भी तरह का गैरकानूनी काम करने की कोशिश करने वाले यूजर्स के खिलाफ वही सख्त कार्रवाई की जाएगी, जो गैरकानूनी कंटेंट अपलोड करने वालों पर की जाती है.
क्या है पूरा मामला
केंद्र सरकार ने 2 जनवरी को X से कहा कि AI टूल Grok से बन रहे अश्लील कंटेंट को तुरंत हटाया जाए, वरना कानूनी कार्रवाई होगी. दरअसल कुछ यूजर्स X पर फर्जी अकाउंट बनाकर महिलाओं की तस्वीरें पोस्ट कर AI को प्रॉम्प्ट देते हैं, ताकि उन्हें यौन या आपत्तिजनक अंदाज में दिखाया जा सके. इस प्रक्रिया में महिलाओं की अनुमति नहीं ली जाती, और कई बार उन्हें पता भी नहीं चलता. आरोप है कि Grok ऐसी गलत प्रॉम्प्ट्स को रोकने के बजाय स्वीकार कर लेता है.