देश

दिल्ली हाईकोर्ट ने केंद्र सरकार से Deepfake के घातक मुद्दे से निपटने के लिए कदम उठाने को लेकर मांगा जवाब

दिल्ली हाईकोर्ट ने केंद्र सरकार से पूछा कि क्या डीपफेक के घातक मुद्दे से निपटने के लिए कोई कदम उठाए गए हैं. अदालत ने केन्द्र के वकील से पूछा कि क्या डीपफेक बनाने के लिए इस्तेमाल की जाने वाली कृत्रिम बुद्धिमत्ता को विनियमित करने के लिए कोई कदम उठाए गए हैं. 19 नवंबर को कोर्ट इस मामले में अगली सुनवाई करेगा.

मुख्य न्यायाधीश मनमोहन और न्यायमूर्ति तुषार राव गेडेला की खंडपीठ ने कहा कि डीपफेक बढ़ रहे हैं. पीठ ने कहा इस मुद्दे पर गंभीरता से विचार करने की आवश्यकता है. पीठ ने केन्द्र की ओर से पेश अतिरिक्त सॉलिसिटर जनरल (एएसजी) चेतन शर्मा से पूछा कि क्या सरकार ने इस मुद्दे से निपटने के तरीके की जांच करने के लिए कोई आंतरिक तंत्र या समिति गठित की है.

मुख्य न्यायाधीश ने कहा यदि ऐसा नहीं है, तो हम एक समिति गठित करेंगे जो इस पर विचार करेगी. मुख्य न्यायाधीश ने हाल ही में भारत में हवाई जहाजों को इस सप्ताह प्राप्त हुए फर्जी बम धमकियों का भी संदर्भ दिया और कहा कि इस तरह के तकनीक-सक्षम खतरों से निपटने के लिए जवाबी उपायों की आवश्यकता है. मुख्य न्यायाधीश ने एएसजी से कहा आपको बुनियादी ढांचे को बढ़ाना होगा.

अदालत ने कहा कि जनता को यह जानने की आवश्यकता है कि क्या किया जा रहा है और क्या सरकार द्वारा गठित किसी समिति के सदस्यों के पास इस मुद्दे की जांच करने के लिए साधन हैं. एएसजी ने कहा कि केंद्रीय इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (एमईआईटीवाई) इस मामले को देख रहा है और इसके लिए लोग मौजूद हैं. उन्होंने कहा कि इस मुद्दे की संवेदनशीलता के कारण, सभी विवरणों को सार्वजनिक रूप से साझा करना संभव नहीं हो सकता है.

मुख्य न्यायाधीश ने जवाब दिया कि समिति के विवरण का खुलासा करने की आवश्यकता नहीं है और अदालत केवल इस बारे में जानकारी मांग रही है कि क्या कोई कदम उठाए जा रहे हैं.अदालत ने एएसजी को तीन सप्ताह के भीतर स्थिति रिपोर्ट दाखिल करने का निर्देश दिया है.

अदालत पत्रकार रजत शर्मा और अधिवक्ता चैतन्य रोहिल्ला द्वारा दायर दो याचिकाओं पर विचार कर रही थी, जिसमें डीपफेक के विनियमन की मांग की गई थी. याचिका में डीपफेक तक पहुंच प्रदान करने वाली वेबसाइटों की पहचान करने और उन्हें ब्लॉक करने का आदेश देने का भी आग्रह किया गया.

ये भी पढ़ें- दिल्ली हाईकोर्ट ने कॉन्सर्ट टिकटों की पुनर्बिक्री को विनियमित करने और अवैध बिक्री वाली याचिका पर केंद्र से मांगा जवाब

इस मामले की पिछली सुनवाई में न्यायालय ने कहा था कि आज लोग इस बात को लेकर आश्वस्त नहीं हो सकते कि वे अपनी आंखों और कानों से जो देख और सुन रहे हैं, वह सच है या नहीं, क्योंकि इस तरह की तकनीक का दुरुपयोग हो रहा है.

पीठ ने टिप्पणी की यह वास्तव में चौंकाने वाली बात है. आप जो कुछ भी देख या सुन रहे हैं, वह सब नकली है. ऐसा नहीं हो सकता. वरिष्ठ अधिवक्ता दर्पण वाधवा आज पत्रकार रजत शर्मा की ओर से पेश हुए. उन्होंने कहा कि आंकड़े बताते हैं कि अधिकांश डीपफेक नग्नता या यौन कृत्यों के रूप में नकली सामग्री प्रसारित करके महिलाओं को लक्षित करते हैं. मुख्य न्यायाधीश मनमोहन ने कहा कि चुनौती यह निर्धारित करने में है कि नकारात्मक उद्देश्यों के लिए कृत्रिम बुद्धिमत्ता (एआई) तकनीक के उपयोग को कैसे रोका जाए.

-भारत एक्सप्रेस

Prashant Rai

Recent Posts

राजयोगी ब्रह्माकुमार ओमप्रकाश ‘भाईजी’ की 9वीं पुण्यतिथि कल, इंदौर में मीडिया सेमिनार का होगा आयोजन, भारत एक्सप्रेस के सीएमडी उपेन्द्र राय होंगे मुख्य अतिथि

राजयोगी ब्रह्माकुमार ओमप्रकाश 'भाईजी' ब्रह्माकुमारीज संस्था के मीडिया प्रभाग के पूर्व राष्ट्रीय अध्यक्ष एवं इंदौर…

4 mins ago

Sunny Leone बनी ‘महतारी वंदन योजना’ की लाभार्थी! जानें, बस्तर से जुड़ी इस हैरान कर देने वाली खबर का सच

छत्तीसगढ़ के बस्तर जिले में ‘महतारी वंदन योजना’ के तहत सनी लियोनी को हर महीने…

12 mins ago

सर्दियों के मौसम में गर्भवती महिलाओं को सतर्क रहने की जरूरत

winter care for pregnant women: सर्दी में प्रेग्नेंसी के दौरान विटामिन डी की कमी हो…

51 mins ago

ICC CT 2025: भारत और पाकिस्तान के बीच इस तारीख और स्थान पर होगा महामुकाबला, चैंपियंस ट्रॉफी का टेंटेटिव शेड्यूल आया सामने!

चैंपियंस ट्रॉफी 2025 की मेजबानी पाकिस्तान को करनी है लेकिन BCCI ने टीम को सुरक्षा…

53 mins ago

Stock Market: शेयर बाजार हरे निशान के साथ खुला, 600 अंक उछला Sensex

बाजार का रुख सकारात्मक रहा. नेशनल स्टॉक एक्सचेंज (एनएसई) पर 1,223 शेयर हरे निशान में…

1 hour ago

खाड़ी के कई देश पाकिस्तानी नागरिकों को वीजा देने से क्यों कर रहे इनकार?

पिछले कुछ वर्षों में, पाकिस्तान से बड़ी संख्या में संदिग्ध यात्री विदेश गए हैं जो…

2 hours ago