प्रिंस हैरी और मेघन, ससेक्स के ड्यूक और डचेस, वैज्ञानिकों, राजनीतिक नेताओं, कलाकारों और तकनीकी अग्रदूतों के एक विविध गठबंधन में शामिल हो गए हैं, जिन्होंने कृत्रिम “सुपरइंटेलिजेंस” के विकास पर वैश्विक प्रतिबंध लगाने का आह्वान किया है – एआई सिस्टम जो अधिकांश संज्ञानात्मक कार्यों में मनुष्यों से बेहतर प्रदर्शन करने में सक्षम है – जब तक कि स्पष्ट वैज्ञानिक सहमति न हो कि ऐसी तकनीक को सुरक्षित रूप से तैनात किया जा सकता है।
फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) द्वारा आयोजित बयान बुधवार को जारी किया गया और यह एआई विकास में संयम के लिए अब तक की सबसे व्यापक क्रॉस-सेक्टर अपीलों में से एक का प्रतिनिधित्व करता है। हस्ताक्षरकर्ताओं में एआई के अग्रणी जेफ्री हिंटन और योशुआ बेंगियो, एप्पल के सह-संस्थापक स्टीव वोज्नियाक, अर्थशास्त्री डारोन एसेमोग्लू, पूर्व अमेरिकी राष्ट्रीय सुरक्षा सलाहकार सुसान राइस, पूर्व संयुक्त चीफ ऑफ स्टाफ चेयर माइक मुलेन, पूर्व आयरिश राष्ट्रपति मैरी रॉबिन्सन, अरबपति रिचर्ड ब्रैनसन और यहां तक कि स्टीव बैनन और ग्लेन बेक जैसे रूढ़िवादी आंकड़े भी शामिल हैं।
बयान के 30 शब्दों के मुख्य संदेश में लिखा है: “हम सुपरइंटेलिजेंस के विकास पर प्रतिबंध का आह्वान करते हैं, जिसे व्यापक वैज्ञानिक सहमति होने से पहले नहीं हटाया जाएगा कि यह सुरक्षित और नियंत्रणीय रूप से किया जाएगा, और मजबूत सार्वजनिक खरीद-इन होगी।”
राजनीतिक और व्यावसायिक विभाजनों के पार संयुक्त मोर्चा
जबकि एआई सुरक्षा विनियमन के लिए कॉल पहले भी सामने आई हैं – जिसमें 2023 में एफएलआई का पिछला खुला पत्र भी शामिल है, जिसमें उन्नत एआई प्रशिक्षण पर अस्थायी रोक लगाने का आग्रह किया गया है – यह नवीनतम अपील अपनी व्यापक वैचारिक और व्यावसायिक विविधता के लिए उल्लेखनीय है।
एमआईटी प्रोफेसर और एफएलआई के अध्यक्ष मैक्स टेगमार्क ने कहा, “राजनीतिक स्पेक्ट्रम के इन सभी लोगों को एकजुट करने वाली बात यह है कि वे वास्तव में सभी इंसान हैं, मशीनें नहीं।” “वे इस बात की गहराई से परवाह करते हैं कि भविष्य ऐसा होना चाहिए जहां मशीनें हमारे लिए काम करें – नए डिजिटल अधिपतियों के रूप में नहीं।”
टेगमार्क ने कहा कि उन्हें सुपरइंटेलिजेंस के बारे में बातचीत को “बेवकूफ बुलबुले से बाहर निकलने” और राजनीति, मनोरंजन, धर्म और कला से हस्ताक्षरकर्ताओं को आकर्षित करने के लिए प्रोत्साहित किया गया था।
प्रिंस हैरी: “प्रगति की सच्ची परीक्षा यह होगी कि हम कितनी बुद्धिमानी से आगे बढ़ते हैं”
पत्र के साथ एक व्यक्तिगत नोट में, प्रिंस हैरी ने लिखा, “एआई का भविष्य मानवता की सेवा करना चाहिए, न कि इसे प्रतिस्थापित करना। प्रगति की सच्ची परीक्षा यह नहीं होगी कि हम कितनी तेजी से आगे बढ़ते हैं, बल्कि हम कितनी बुद्धिमानी से चलते हैं। कोई दूसरा मौका नहीं है।”
उनके साथ ससेक्स की डचेस मेघन भी शामिल हुईं, जो पहले डिजिटल नैतिकता और प्रौद्योगिकी के मानसिक स्वास्थ्य प्रभावों के बारे में बात कर चुकी हैं।
वैज्ञानिकों ने अस्तित्वगत खतरों की चेतावनी दी है
यूसी बर्कले में कंप्यूटर विज्ञान के प्रोफेसर स्टुअर्ट रसेल जैसे एआई दिग्गजों ने कहा कि बयान प्रौद्योगिकी विरोधी नहीं है बल्कि जिम्मेदारी की मांग है।
रसेल ने कहा, “यह सामान्य अर्थों में प्रतिबंध नहीं है।” “यह बस एक ऐसी तकनीक के लिए पर्याप्त सुरक्षा उपायों की आवश्यकता का प्रस्ताव है, जिसके डेवलपर्स के अनुसार, मानव विलुप्त होने का एक महत्वपूर्ण मौका है। क्या यह पूछने के लिए बहुत अधिक है?”
जेफ्री हिंटन, जिन्होंने एआई के लिए मौलिक काम के लिए 2018 ट्यूरिंग अवार्ड और पिछले साल भौतिकी में नोबेल पुरस्कार जीता था, और उनके साथी पुरस्कार विजेता योशुआ बेंगियो ने भी प्रतिबंध का समर्थन किया। दोनों ने उन प्रणालियों के खतरों के बारे में चेतावनी दी है जो मानव नियंत्रण से परे विकसित हो सकती हैं।
द्विदलीय और वैश्विक चिंता
एफएलआई के हालिया मतदान से पता चलता है कि 73% अमेरिकी उन्नत एआई के मजबूत विनियमन का समर्थन करते हैं। एक अलग गैलप सर्वेक्षण में पाया गया कि 88% डेमोक्रेट और 79% रिपब्लिकन और निर्दलीय सुरक्षा और सुरक्षा कारणों से निरीक्षण का समर्थन करते हैं – जो दुर्लभ द्विदलीय एकता को रेखांकित करता है।
फिर भी, सभी रूढ़िवादी समान चिंता साझा नहीं करते हैं। कुछ लोग, जैसे ट्रम्प-युग के एआई सम्राट डेविड सैक्स, बोझिल विनियमन के खिलाफ तर्क देते हैं जो नवाचार को धीमा कर सकता है। टेगमार्क ने कहा कि वह सैक्स के संपर्क में हैं, उन्होंने आगे कहा, “वह चाहते हैं कि बड़े डेटा सेंटर बेहतरीन शोध करें, लेकिन मैंने कभी महसूस नहीं किया कि वह एक डिजिटल अधिपति बनाने के लिए उत्सुक हैं।”
नवाचार और सुरक्षा को संतुलित करना
प्रतिबंध का आह्वान सीधे तौर पर ओपनएआई, गूगल और मेटा जैसे तकनीकी दिग्गजों को चुनौती देता है, जो अधिक शक्तिशाली सिस्टम विकसित करने की दौड़ में हैं, जिन्हें अक्सर “कृत्रिम सामान्य बुद्धिमत्ता” (एजीआई) के रूप में वर्णित किया जाता है।
पत्र की प्रस्तावना में चेतावनी दी गई है कि ऐसी महत्वाकांक्षाएं “मानव आर्थिक अप्रचलन और अशक्तता, स्वतंत्रता और गरिमा की हानि, राष्ट्रीय सुरक्षा जोखिम और यहां तक कि संभावित मानव विलुप्त होने” तक के खतरे पैदा करती हैं।
एक अन्य हस्ताक्षरकर्ता, अभिनेता जोसेफ गॉर्डन-लेविट ने लिखा है कि हालांकि एआई अत्यधिक लाभ ला सकता है, लेकिन इसे एक उपकरण नहीं बनना चाहिए जो लोगों को हेरफेर करता है या रचनात्मकता को नष्ट करता है। उन्होंने कहा, “ज्यादातर लोग नहीं चाहते कि एआई इंसानों की नकल करे, हमारे बच्चों को तैयार करे या विज्ञापन दिखाकर अरबों डॉलर कमाए।”
एआई का प्रचार चक्र जारी है
यह पत्र एआई समुदाय के भीतर इस बहस को भी जन्म देता है कि क्या “अधीक्षकता” वास्तव में आसन्न है या बस अतिरंजित है। कुछ आलोचकों का तर्क है कि एआई के भाग जाने का डर आसानी से वर्तमान प्रौद्योगिकियों में निवेश और सार्वजनिक रुचि को बढ़ावा देता है।
फिर भी, टेगमार्क ने आगाह किया कि पिछले कुछ वर्षों में एआई क्षमताओं में तेजी से प्रगति गंभीर चिंता को उचित ठहराती है: “बहुत अधिक प्रचार है – लेकिन यह इस तथ्य को नहीं बदलता है कि एआई प्रगति लगभग किसी भी भविष्यवाणी की तुलना में तेज़ हो गई है।”
अतीत में इसी तरह की चेतावनियों के बावजूद, प्रमुख एआई कंपनियों ने निरंतर विकास जारी रखा है। एलोन मस्क द्वारा हस्ताक्षरित 2023 एफएलआई पत्र, हथियारों की दौड़ को रोकने में विफल रहा – यहां तक कि मस्क ने एक साथ अपना प्रतिस्पर्धी एआई उद्यम भी लॉन्च किया।