सरकार द्वारा नियुक्त एक समिति ने भारत में आर्टिफिशियल इंटेलिजेंस के उपयोग से उत्पन्न होने वाले जोखिमों को दूर करने के लिए मौजूदा विनियमन का उपयोग करने की वकालत की है, लेकिन मंत्रालयों में नीति समन्वय के लिए एक नई शीर्ष एजेंसी के साथ एक नियामक ढांचा तैयार करते समय, विशेष रूप से तथाकथित मध्यस्थों के मामले में अंतराल को ठीक करने के लिए कानूनों और नियमों की समीक्षा करने की आवश्यकता भी बताई है।

बुधवार को इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (एमईआईटीवाई) को सौंपी गई अपनी भारत एआई गवर्नेंस दिशानिर्देश रिपोर्ट में, आईआईटी मद्रास के प्रोफेसर बलरामन रवींद्रन की अध्यक्षता वाले पैनल ने कहा कि एआई गवर्नेंस ग्रुप को देश में एआई गवर्नेंस प्रयासों को चलाने के लिए एक स्थायी अंतर-मंत्रालयी निकाय के रूप में काम करना चाहिए। एआईजीजी की अध्यक्षता भारत सरकार के प्रधान वैज्ञानिक सलाहकार करेंगे और इसमें सरकारी एजेंसियां, नियामक और सलाहकार निकाय सदस्य होंगे। रिपोर्ट में कहा गया है कि एआई गवर्नेंस के लिए एमईआईटीवाई को नोडल मंत्रालय होना चाहिए, जबकि संबंधित मंत्रालय और नियामक अपने-अपने क्षेत्रों में गवर्नेंस के लिए जिम्मेदार होंगे।
एआईजीजी को एक नोडल एजेंसी के रूप में स्थापित करना समिति की कार्य योजना में एक अल्पकालिक प्राथमिकता के रूप में पहचाना गया है, साथ ही “नियामक अंतर विश्लेषण और उचित कानूनी संशोधन और नियमों का सुझाव देना” भी शामिल है।
मध्यम अवधि में, समिति ने सिफारिश की, सरकार को “नियामक अंतराल को दूर करने के लिए, आवश्यकतानुसार कानूनों में संशोधन करना चाहिए।” दीर्घावधि में, इसने “उभरते जोखिमों और क्षमताओं को ध्यान में रखते हुए नए कानूनों” को अपनाने की सलाह दी। हालाँकि, जैसा कि आज स्थिति है, अधिकारियों ने कहा, सरकार का विचार है कि एआई को विनियमित करने के लिए कोई नया कानून लाने की आवश्यकता नहीं है, मौजूदा कानून उभरते जोखिमों को कम करने के लिए पर्याप्त हैं।
फिर भी, समिति ने सूचना प्रौद्योगिकी (आईटी) अधिनियम, विशेष रूप से मध्यस्थों के वर्गीकरण जैसे कुछ कानूनों को अद्यतन करने की आवश्यकता पर प्रकाश डाला। रिपोर्ट में कहा गया है, “स्पष्टता प्रदान करने की आवश्यकता है, विशेष रूप से इस संबंध में कि यह परिभाषा आधुनिक एआई सिस्टम पर कैसे लागू होगी, जिनमें से कुछ उपयोगकर्ता के संकेतों के आधार पर या स्वायत्त रूप से भी डेटा उत्पन्न करते हैं, और जो निरंतर सीखने के माध्यम से अपने आउटपुट को परिष्कृत करते हैं।”
रिपोर्ट में कहा गया है कि आईटी अधिनियम के तहत, यह स्पष्ट रूप से परिभाषित किया जाना चाहिए कि एआई सिस्टम पर दायित्व कैसे लागू होगा। इसमें कहा गया है कि अधिनियम की धारा 79 बिचौलियों को तीसरे पक्ष की सामग्री के लिए कानूनी सुरक्षा देती है, जब तक कि वे उस सामग्री का निर्माण, संशोधन या चयन नहीं करते हैं। हालाँकि, कई आधुनिक AI सिस्टम स्वायत्त रूप से सामग्री उत्पन्न या परिवर्तित करते हैं, जिसका अर्थ है कि यह सुरक्षा लागू नहीं हो सकती है। समिति ने यह स्पष्ट करने का सुझाव दिया कि ऐसी प्रणालियों को कैसे वर्गीकृत किया जाता है, उनके दायित्व क्या हैं, और एआई मूल्य श्रृंखला में डेवलपर्स, तैनातीकर्ताओं और अन्य संस्थाओं के बीच जिम्मेदारी कैसे साझा की जानी चाहिए।
रिपोर्ट में उभरते एआई जोखिमों से निपटने के लिए डिजिटल पर्सनल डेटा प्रोटेक्शन (डीपीडीपी) अधिनियम की समीक्षा का भी आह्वान किया गया है। इसने “सार्वजनिक रूप से उपलब्ध व्यक्तिगत डेटा पर एआई मॉडल के प्रशिक्षण के लिए उपलब्ध छूट के दायरे और प्रयोज्यता” को स्पष्ट करने और यह जांचने की आवश्यकता पर प्रकाश डाला कि क्या कानून के मौजूदा डेटा संग्रह और सहमति नियम एआई सिस्टम के संचालन के साथ संरेखित हैं। समिति प्रस्तावित एआईजीजी द्वारा विस्तृत समीक्षा की सिफारिश करती है।
कॉपीराइट पर, रिपोर्ट में उद्योग और आंतरिक व्यापार संवर्धन विभाग (डीपीआईआईटी) द्वारा एक अलग समिति के तहत चल रहे काम की ओर इशारा किया गया है, जो एआई मॉडल को प्रशिक्षित करने के लिए कॉपीराइट सामग्री के उपयोग की जांच कर रही है। समिति ने कहा, “एआई-जनरेटेड कार्यों और मॉडल प्रशिक्षण के लिए टेक्स्ट-एंड-डेटा माइनिंग के लिए मौजूदा कॉपीराइट प्रावधानों की प्रयोज्यता” के लिए स्पष्टीकरण की आवश्यकता हो सकती है। एचटी को पता चला है कि सात सदस्यीय डीपीआईआईटी समिति ने पहले ही समीक्षा के लिए विभाग के सचिव को अपनी रिपोर्ट सौंप दी है।
समिति ने यह भी सिफारिश की कि प्रौद्योगिकी और नीति विशेषज्ञ समिति (टीपीईसी) द्वारा समर्थित प्रस्तावित एआईजीजी, सामग्री प्रमाणीकरण के लिए भारत के नियामक ढांचे की समीक्षा करे और “एआई-जनित डीपफेक की समस्या से निपटने के लिए यदि आवश्यक हो तो उचित तकनीकी-कानूनी समाधान और अतिरिक्त कानूनी उपाय सुझाए।”
इस बीच, हाल ही में स्थापित एआई सेफ्टी इंस्टीट्यूट (एआईएसआई) संभावित जोखिमों के लिए एआई सिस्टम के परीक्षण और मूल्यांकन में शामिल होगा, एआई सुरक्षा पर नीति निर्माताओं और उद्योग को सलाह देगा, और मशीन अनलर्निंग, पूर्वाग्रह शमन, गोपनीयता बढ़ाने वाले टूल और समझाने योग्य एआई जैसे तकनीकी समाधानों पर इंडियाएआई मिशन के तहत चल रहे काम का समर्थन करेगा, रिपोर्ट की सिफारिश की गई है।
सरकार के रुख को दोहराते हुए, MeitY सचिव एस कृष्णन ने कहा, “यदि संभव हो तो हम मौजूदा कानून और मौजूदा उपायों पर भरोसा करेंगे। हमने विभिन्न समय पर बार-बार यही किया है।” उन्होंने कहा कि रिपोर्ट को अंतिम रूप देने से पहले ही, मंत्रालय ने सिंथेटिक सामग्री पर कार्रवाई की थी, आईटी नियमों में संशोधन के माध्यम से लाइट-टच विनियमन की शुरुआत की थी, जिसके लिए एआई-जनित सामग्री को लेबल करने के लिए एआई टूल और सोशल मीडिया प्लेटफार्मों की आवश्यकता होती है। कृष्णन ने कहा, “लोगों को यह जानने का अधिकार है कि सामग्री कृत्रिम रूप से तैयार की गई है।”
समिति के अध्यक्ष रवींद्रन ने कहा, “इन दिशानिर्देशों से हमें एक अधिक अनुकूली पारिस्थितिकी तंत्र और एक नियामक वातावरण बनाने में सक्षम होना चाहिए जो जिम्मेदार एआई को सक्षम करते हुए नवाचार को पनपने की अनुमति देता है।” एआई का उपयोग करने में अधिक लोगों को शामिल करने के लिए, उन्होंने कहा, “बेहतर प्रशासन के लिए डिजिटल पब्लिक इंफ्रास्ट्रक्चर के साथ एआई को एकीकृत करना और एआई प्रौद्योगिकियों में एमएसएमई को अपनाने और नवाचार को प्रोत्साहित करना है ताकि एआई बड़ी कंपनियों की कैद में न रहे।”
