एआई के दुरुपयोग पर सीजेआई ने कहा, “हमने अपनी मॉर्फ्ड तस्वीरें भी देखी हैं।”

भारत के मुख्य न्यायाधीश (सीजेआई) भूषण आर गवई ने सोमवार को स्वीकार किया कि न्यायाधीश आर्टिफिशियल इंटेलिजेंस (एआई) उपकरणों के दुरुपयोग के बारे में जानते हैं, जिसमें न्यायपालिका के सदस्यों को लक्षित करने वाली विकृत छवियों का प्रसार भी शामिल है, लेकिन उन्होंने कहा कि ऐसी प्रौद्योगिकियों को विनियमित करने के लिए कोई भी कदम कार्यपालिका की ओर से आना चाहिए, न कि अदालतों की ओर से।

मामले को दो सप्ताह के लिए स्थगित कर दिया गया. (एचटी फाइल फोटो)
मामले को दो सप्ताह के लिए स्थगित कर दिया गया. (एचटी फाइल फोटो)

न्यायिक और अर्ध-न्यायिक निकायों में जेनरेटिव एआई (जेनएआई) के उपयोग को नियंत्रित करने के लिए कानूनी या नीतिगत ढांचे के निर्माण की मांग करने वाली एक जनहित याचिका (पीआईएल) पर सुनवाई करते हुए सीजेआई ने टिप्पणी की, “हमने अपनी विकृत तस्वीरें भी देखी हैं।” उन्होंने कहा, “…यह अनिवार्य रूप से एक नीतिगत मामला है। इस पर निर्णय लेना कार्यपालिका का काम है।”

पीठ, जिसमें न्यायमूर्ति के विनोद चंद्रन भी शामिल थे, ने हस्तक्षेप करने में अपनी अनिच्छा का संकेत देते हुए कहा कि उभरती प्रौद्योगिकी के प्रशासन से संबंधित प्रश्न पूरी तरह से नीति निर्धारण क्षेत्र के अंतर्गत आते हैं। हालाँकि, वकील के अनुरोध पर मामले को दो सप्ताह के लिए स्थगित कर दिया गया।

अधिवक्ता कार्तिकेय रावल द्वारा दायर और एडवोकेट-ऑन-रिकॉर्ड अभिनव श्रीवास्तव की सहायता से बहस की गई जनहित याचिका में न्यायिक प्रणालियों के भीतर GenAI के “विनियमित और समान” उपयोग को सुनिश्चित करने के लिए एक कानून बनाने या एक व्यापक नीति तैयार करने के लिए केंद्र को निर्देश देने की मांग की गई है।

यह भी पढ़ें: ‘समानता और प्रतिनिधित्व साथ-साथ चलते हैं’: सीजेआई भूषण आर गवई

याचिका में जेनएआई को पारंपरिक एआई से अलग करते हुए तर्क दिया गया कि नए पाठ, डेटा और तर्क पैटर्न को स्वायत्त रूप से उत्पन्न करने की इसकी क्षमता मतिभ्रम का जोखिम पैदा करती है – ऐसे उदाहरण जहां सिस्टम गैर-मौजूद कानूनी सिद्धांतों या मनगढ़ंत केस उद्धरणों का उत्पादन करता है।

याचिका में कहा गया है, “जेनएआई की विशेषता एक ब्लैक बॉक्स होना और अपारदर्शिता होने से कानूनी प्रणाली में अस्पष्टता पैदा होने की संभावना है।” इसमें कहा गया है कि इस तरह के आउटपुट से फर्जी केस कानून, पक्षपातपूर्ण व्याख्याएं और मनमाने तर्क हो सकते हैं, जो संभावित रूप से अनुच्छेद 14 (समानता का अधिकार) का उल्लंघन कर सकते हैं।

याचिकाकर्ता के अनुसार, न्यायिक प्रणालियाँ मिसाल और पता लगाने योग्य तर्क पर बहुत अधिक निर्भर करती हैं। जेनएआई मॉडल की अस्पष्टता, जिसे अक्सर प्रौद्योगिकी में “ब्लैक बॉक्स” के रूप में संदर्भित किया जाता है, का अर्थ है कि डेवलपर्स भी पूरी तरह से समझ नहीं पाते हैं कि निष्कर्ष कैसे पहुंचाए जाते हैं, जिससे निरीक्षण करना मुश्किल हो जाता है।

याचिका में आगे आगाह किया गया कि वास्तविक दुनिया के डेटा पर प्रशिक्षित GenAI मॉडल हाशिए पर रहने वाले समुदायों के खिलाफ मौजूदा सामाजिक पूर्वाग्रहों की नकल करने या यहां तक ​​कि बढ़ाने की संभावना रखते हैं। इसने तर्क दिया कि डेटा तटस्थता और स्वामित्व पर स्पष्ट मानकों के बिना, एआई-सहायता प्राप्त न्यायिक प्रक्रियाएं अनुच्छेद 19(1)(ए) के तहत नागरिकों के जानने के अधिकार से समझौता करने का जोखिम उठाती हैं।

याचिका में एआई-संचालित प्रणालियों को लक्षित करने वाले साइबर हमलों के बढ़ते जोखिम को भी दर्शाया गया है, खासकर अगर अदालती प्रक्रियाओं या दस्तावेजों को स्वचालित प्लेटफार्मों में एकीकृत किया जाता है।

Leave a Comment