कार्यकारी की एआई नौकरी को विनियमित करने के लिए नीतियां: सीजेआई

भारत के मुख्य न्यायाधीश (सीजेआई) भूषण आर गवई ने सोमवार को कहा कि न्यायाधीश कृत्रिम बुद्धिमत्ता (एआई) उपकरणों के दुरुपयोग से अवगत हैं, जिनमें न्यायपालिका के सदस्यों को लक्षित करने वाली विकृत छवियां बनाने और प्रसारित करने के लिए उपयोग किए जाने वाले उपकरण भी शामिल हैं, लेकिन उन्होंने कहा कि ऐसी तकनीकों को विनियमित करने के लिए कोई भी कदम कार्यपालिका की ओर से आना चाहिए, न कि अदालतों की ओर से।

सीजेआई बीआर गवई (एचटी)
सीजेआई बीआर गवई (एचटी)

न्यायिक और अर्ध-न्यायिक निकायों में जेनेरिक एआई (जेनएआई) के उपयोग को नियंत्रित करने के लिए कानूनी या नीतिगत ढांचे के निर्माण की मांग करने वाली एक जनहित याचिका (पीआईएल) पर सुनवाई करते हुए सीजेआई ने टिप्पणी की, “हमने अपनी विकृत तस्वीरें भी देखी हैं।” उन्होंने कहा, “…यह अनिवार्य रूप से एक नीतिगत मामला है। इस पर निर्णय लेना कार्यपालिका का काम है।”

पीठ, जिसमें न्यायमूर्ति के विनोद चंद्रन भी शामिल थे, ने हस्तक्षेप करने में अपनी अनिच्छा का संकेत देते हुए कहा कि उभरती प्रौद्योगिकी के प्रशासन से संबंधित प्रश्न पूरी तरह से नीति निर्धारण क्षेत्र के अंतर्गत आते हैं। हालाँकि, वकील के अनुरोध पर मामले को दो सप्ताह के लिए स्थगित कर दिया गया।

अधिवक्ता कार्तिकेय रावल द्वारा दायर और एडवोकेट-ऑन-रिकॉर्ड अभिनव श्रीवास्तव की सहायता से बहस की गई जनहित याचिका में न्यायिक प्रणालियों के भीतर GenAI के “विनियमित और समान” उपयोग को सुनिश्चित करने के लिए एक कानून बनाने या एक व्यापक नीति तैयार करने के लिए केंद्र को निर्देश देने की मांग की गई है।

याचिका में जेनएआई को पारंपरिक एआई से अलग करते हुए तर्क दिया गया कि नए पाठ, डेटा और तर्क पैटर्न को स्वायत्त रूप से उत्पन्न करने की इसकी क्षमता मतिभ्रम का जोखिम पैदा करती है – ऐसे उदाहरण जहां सिस्टम गैर-मौजूद कानूनी सिद्धांतों या मनगढ़ंत केस उद्धरणों का उत्पादन करता है।

याचिका में कहा गया है, “जेनएआई की विशेषता एक ब्लैक बॉक्स होना और अपारदर्शिता होने से कानूनी प्रणाली में अस्पष्टता पैदा होने की संभावना है।” इसमें कहा गया है कि इस तरह के आउटपुट से फर्जी केस कानून, पक्षपातपूर्ण व्याख्याएं और मनमाने तर्क हो सकते हैं, जो संभावित रूप से अनुच्छेद 14 (समानता का अधिकार) का उल्लंघन कर सकते हैं।

याचिकाकर्ता के अनुसार, न्यायिक प्रणालियाँ मिसाल और पता लगाने योग्य तर्क पर बहुत अधिक निर्भर करती हैं। जेनएआई मॉडल की अस्पष्टता, जिसे अक्सर प्रौद्योगिकी में “ब्लैक बॉक्स” के रूप में संदर्भित किया जाता है, का अर्थ है कि डेवलपर्स भी पूरी तरह से समझ नहीं पाते हैं कि निष्कर्ष कैसे पहुंचाए जाते हैं, जिससे निरीक्षण करना मुश्किल हो जाता है।

याचिका में आगे आगाह किया गया कि वास्तविक दुनिया के डेटा पर प्रशिक्षित GenAI मॉडल हाशिए पर रहने वाले समुदायों के खिलाफ मौजूदा सामाजिक पूर्वाग्रहों की नकल करने या यहां तक ​​कि बढ़ाने की संभावना रखते हैं। इसने तर्क दिया कि डेटा तटस्थता और स्वामित्व पर स्पष्ट मानकों के बिना, एआई-सहायता प्राप्त न्यायिक प्रक्रियाएं अनुच्छेद 19(1)(ए) के तहत नागरिकों के जानने के अधिकार से समझौता करने का जोखिम उठाती हैं।

याचिका में एआई-संचालित प्रणालियों को लक्षित करने वाले साइबर हमलों के बढ़ते जोखिम को भी दर्शाया गया है, खासकर अगर अदालती प्रक्रियाओं या दस्तावेजों को स्वचालित प्लेटफार्मों में एकीकृत किया जाता है।

Leave a Comment