Nude Photos From AI: महिलाएं रहें सावधान! 24 मिलियन लोगों ने बनाई न्यूड तस्वीरें, AI पर ये डेटा कर देगा हैरान
Nude Photos From AI: टेक्नोलॉजी के युग में महिलाओं के लिए एक खतरनाक खबर है. एक शोध में खुलासा हुआ है कि एआई की मदद से बड़े पैमाने पर महिलाओं की तस्वीरों के साथ छेड़छाड़ की जा रही है. मामले लगातार बढ़ते जा रहे हैं. रिपोर्ट्स के मुताबिक, सोशल नेटवर्क एनालिसिस कंपनी ग्राफिका ने पाया कि अकेले सितंबर में 24 मिलियन लोगों ने स्ट्रिपिंग वेबसाइट्स का इस्तेमाल किया. जिसके चलते महिलाओं की नग्न तस्वीरें वायरल की जा रही हैं.
ग्राफिका का चौंकाने वाला खुलासा
ग्राफ़िका के अनुसार, स्ट्रिप सुविधा का इस्तेमाल तस्वीरों को “नग्न” करने के लिए इस्तेमाल किया जा रहा है. उदाहरण के लिए, शोधकर्ताओं ने कहा कि इस साल की शुरुआत से फेसबुक और रेडिट सहित सोशल मीडिया पर कपड़े उतारने वाले ऐप्स का विज्ञापन करने वाले लिंक की संख्या में 24% से अधिक की वृद्धि हुई है. सेवाएँ किसी फ़ोटो को फिर से बनाने के लिए AI का उपयोग करती हैं ताकि विषय नग्न हो. इनमें से कई ऐप सिर्फ महिलाओं पर काम करते हैं.
डीपफेक से भी ज्यादा शार्प ये एप
एआई में प्रगति खतरनाक प्रवृत्ति को जन्म दे रही है. जिससे डीपफेक पोर्नोग्राफ़ी को बढ़ावा मिल रहा है. ग्राफिका ने बताया कि एक विश्लेषक सैंटियागो लाकाटोस ने कहा कि आप इसे कैसे भी अपने मतलब के हिसाब से इस्तेमाल कर सकते हैं. ये डीपफेक से भी ज्यादा शार्प है.
ये भी पढ़ें- Rashmika को पीछे छोड़ Tripti Dimri बनीं National Crush, जानें किन-किन एक्ट्रेस पर फैंस हुए ऐसे फिदा
गूगल, रेडिट के प्रवक्ता ने क्या कहा?
इस पर गूगल और रेडिट के प्रवक्ता ने बयान जारी किया. गूगल ने कहा कि कंपनी उन विज्ञापनों को अनुमति नहीं देती जिनमें कुछ भी नग्न होता है या जो समाज में गलत संदेश भेजता है. इसके साथ ही रेडिट के प्रवक्ता ने कहा कि साइट सहमति के बिना किसी भी तरह की नकली यौन सामग्री साझा करने पर रोक लगाती है.
ये भी पढ़ें- Akbaruddin Owaisi बने तेलंगाना विधानसभा के प्रोटेम स्पीकर, राजभवन में राज्यपाल ने दिलाई शपथ
देश और दुनिया की तमाम खबरों के लिए हमारा YouTube Channel ‘Saugandh TV’ को अभी subscribe करें. आप हमें FACEBOOK,और INSTAGRAM पर भी फॉलो कर सकते हैं.