प्रिंस हैरी, मेघन मार्कल ने मानवता को बचाने के लिए सुपरइंटेलिजेंस एआई पर प्रतिबंध लगाने का आह्वान किया

प्रिंस हैरी और मेघन, ससेक्स के ड्यूक और डचेस, वैज्ञानिकों, राजनीतिक नेताओं, कलाकारों और तकनीकी अग्रदूतों के एक विविध गठबंधन में शामिल हो गए हैं, जिन्होंने कृत्रिम “सुपरइंटेलिजेंस” के विकास पर वैश्विक प्रतिबंध लगाने का आह्वान किया है – एआई सिस्टम जो अधिकांश संज्ञानात्मक कार्यों में मनुष्यों से बेहतर प्रदर्शन करने में सक्षम है – जब तक कि स्पष्ट वैज्ञानिक सहमति न हो कि ऐसी तकनीक को सुरक्षित रूप से तैनात किया जा सकता है।

मेघन, डचेस ऑफ ससेक्स और प्रिंस हैरी, ड्यूक ऑफ ससेक्स न्यूयॉर्क शहर के स्प्रिंग स्टूडियो में प्रोजेक्ट हेल्दी माइंड्स के तीसरे वार्षिक समारोह में शामिल हुए।(एएफपी)
मेघन, डचेस ऑफ ससेक्स और प्रिंस हैरी, ड्यूक ऑफ ससेक्स न्यूयॉर्क शहर के स्प्रिंग स्टूडियो में प्रोजेक्ट हेल्दी माइंड्स के तीसरे वार्षिक समारोह में शामिल हुए।(एएफपी)

फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) द्वारा आयोजित बयान बुधवार को जारी किया गया और यह एआई विकास में संयम के लिए अब तक की सबसे व्यापक क्रॉस-सेक्टर अपीलों में से एक का प्रतिनिधित्व करता है। हस्ताक्षरकर्ताओं में एआई के अग्रणी जेफ्री हिंटन और योशुआ बेंगियो, एप्पल के सह-संस्थापक स्टीव वोज्नियाक, अर्थशास्त्री डारोन एसेमोग्लू, पूर्व अमेरिकी राष्ट्रीय सुरक्षा सलाहकार सुसान राइस, पूर्व संयुक्त चीफ ऑफ स्टाफ चेयर माइक मुलेन, पूर्व आयरिश राष्ट्रपति मैरी रॉबिन्सन, अरबपति रिचर्ड ब्रैनसन और यहां तक ​​कि स्टीव बैनन और ग्लेन बेक जैसे रूढ़िवादी आंकड़े भी शामिल हैं।

बयान के 30 शब्दों के मुख्य संदेश में लिखा है: “हम सुपरइंटेलिजेंस के विकास पर प्रतिबंध का आह्वान करते हैं, जिसे व्यापक वैज्ञानिक सहमति होने से पहले नहीं हटाया जाएगा कि यह सुरक्षित और नियंत्रणीय रूप से किया जाएगा, और मजबूत सार्वजनिक खरीद-इन होगी।”

राजनीतिक और व्यावसायिक विभाजनों के पार संयुक्त मोर्चा

जबकि एआई सुरक्षा विनियमन के लिए कॉल पहले भी सामने आई हैं – जिसमें 2023 में एफएलआई का पिछला खुला पत्र भी शामिल है, जिसमें उन्नत एआई प्रशिक्षण पर अस्थायी रोक लगाने का आग्रह किया गया है – यह नवीनतम अपील अपनी व्यापक वैचारिक और व्यावसायिक विविधता के लिए उल्लेखनीय है।

एमआईटी प्रोफेसर और एफएलआई के अध्यक्ष मैक्स टेगमार्क ने कहा, “राजनीतिक स्पेक्ट्रम के इन सभी लोगों को एकजुट करने वाली बात यह है कि वे वास्तव में सभी इंसान हैं, मशीनें नहीं।” “वे इस बात की गहराई से परवाह करते हैं कि भविष्य ऐसा होना चाहिए जहां मशीनें हमारे लिए काम करें – नए डिजिटल अधिपतियों के रूप में नहीं।”

टेगमार्क ने कहा कि उन्हें सुपरइंटेलिजेंस के बारे में बातचीत को “बेवकूफ बुलबुले से बाहर निकलने” और राजनीति, मनोरंजन, धर्म और कला से हस्ताक्षरकर्ताओं को आकर्षित करने के लिए प्रोत्साहित किया गया था।

प्रिंस हैरी: “प्रगति की सच्ची परीक्षा यह होगी कि हम कितनी बुद्धिमानी से आगे बढ़ते हैं”

पत्र के साथ एक व्यक्तिगत नोट में, प्रिंस हैरी ने लिखा, “एआई का भविष्य मानवता की सेवा करना चाहिए, न कि इसे प्रतिस्थापित करना। प्रगति की सच्ची परीक्षा यह नहीं होगी कि हम कितनी तेजी से आगे बढ़ते हैं, बल्कि हम कितनी बुद्धिमानी से चलते हैं। कोई दूसरा मौका नहीं है।”

उनके साथ ससेक्स की डचेस मेघन भी शामिल हुईं, जो पहले डिजिटल नैतिकता और प्रौद्योगिकी के मानसिक स्वास्थ्य प्रभावों के बारे में बात कर चुकी हैं।

वैज्ञानिकों ने अस्तित्वगत खतरों की चेतावनी दी है

यूसी बर्कले में कंप्यूटर विज्ञान के प्रोफेसर स्टुअर्ट रसेल जैसे एआई दिग्गजों ने कहा कि बयान प्रौद्योगिकी विरोधी नहीं है बल्कि जिम्मेदारी की मांग है।

रसेल ने कहा, “यह सामान्य अर्थों में प्रतिबंध नहीं है।” “यह बस एक ऐसी तकनीक के लिए पर्याप्त सुरक्षा उपायों की आवश्यकता का प्रस्ताव है, जिसके डेवलपर्स के अनुसार, मानव विलुप्त होने का एक महत्वपूर्ण मौका है। क्या यह पूछने के लिए बहुत अधिक है?”

जेफ्री हिंटन, जिन्होंने एआई के लिए मौलिक काम के लिए 2018 ट्यूरिंग अवार्ड और पिछले साल भौतिकी में नोबेल पुरस्कार जीता था, और उनके साथी पुरस्कार विजेता योशुआ बेंगियो ने भी प्रतिबंध का समर्थन किया। दोनों ने उन प्रणालियों के खतरों के बारे में चेतावनी दी है जो मानव नियंत्रण से परे विकसित हो सकती हैं।

द्विदलीय और वैश्विक चिंता

एफएलआई के हालिया मतदान से पता चलता है कि 73% अमेरिकी उन्नत एआई के मजबूत विनियमन का समर्थन करते हैं। एक अलग गैलप सर्वेक्षण में पाया गया कि 88% डेमोक्रेट और 79% रिपब्लिकन और निर्दलीय सुरक्षा और सुरक्षा कारणों से निरीक्षण का समर्थन करते हैं – जो दुर्लभ द्विदलीय एकता को रेखांकित करता है।

फिर भी, सभी रूढ़िवादी समान चिंता साझा नहीं करते हैं। कुछ लोग, जैसे ट्रम्प-युग के एआई सम्राट डेविड सैक्स, बोझिल विनियमन के खिलाफ तर्क देते हैं जो नवाचार को धीमा कर सकता है। टेगमार्क ने कहा कि वह सैक्स के संपर्क में हैं, उन्होंने आगे कहा, “वह चाहते हैं कि बड़े डेटा सेंटर बेहतरीन शोध करें, लेकिन मैंने कभी महसूस नहीं किया कि वह एक डिजिटल अधिपति बनाने के लिए उत्सुक हैं।”

नवाचार और सुरक्षा को संतुलित करना

प्रतिबंध का आह्वान सीधे तौर पर ओपनएआई, गूगल और मेटा जैसे तकनीकी दिग्गजों को चुनौती देता है, जो अधिक शक्तिशाली सिस्टम विकसित करने की दौड़ में हैं, जिन्हें अक्सर “कृत्रिम सामान्य बुद्धिमत्ता” (एजीआई) के रूप में वर्णित किया जाता है।

पत्र की प्रस्तावना में चेतावनी दी गई है कि ऐसी महत्वाकांक्षाएं “मानव आर्थिक अप्रचलन और अशक्तता, स्वतंत्रता और गरिमा की हानि, राष्ट्रीय सुरक्षा जोखिम और यहां तक ​​​​कि संभावित मानव विलुप्त होने” तक के खतरे पैदा करती हैं।

एक अन्य हस्ताक्षरकर्ता, अभिनेता जोसेफ गॉर्डन-लेविट ने लिखा है कि हालांकि एआई अत्यधिक लाभ ला सकता है, लेकिन इसे एक उपकरण नहीं बनना चाहिए जो लोगों को हेरफेर करता है या रचनात्मकता को नष्ट करता है। उन्होंने कहा, “ज्यादातर लोग नहीं चाहते कि एआई इंसानों की नकल करे, हमारे बच्चों को तैयार करे या विज्ञापन दिखाकर अरबों डॉलर कमाए।”

एआई का प्रचार चक्र जारी है

यह पत्र एआई समुदाय के भीतर इस बहस को भी जन्म देता है कि क्या “अधीक्षकता” वास्तव में आसन्न है या बस अतिरंजित है। कुछ आलोचकों का तर्क है कि एआई के भाग जाने का डर आसानी से वर्तमान प्रौद्योगिकियों में निवेश और सार्वजनिक रुचि को बढ़ावा देता है।

फिर भी, टेगमार्क ने आगाह किया कि पिछले कुछ वर्षों में एआई क्षमताओं में तेजी से प्रगति गंभीर चिंता को उचित ठहराती है: “बहुत अधिक प्रचार है – लेकिन यह इस तथ्य को नहीं बदलता है कि एआई प्रगति लगभग किसी भी भविष्यवाणी की तुलना में तेज़ हो गई है।”

अतीत में इसी तरह की चेतावनियों के बावजूद, प्रमुख एआई कंपनियों ने निरंतर विकास जारी रखा है। एलोन मस्क द्वारा हस्ताक्षरित 2023 एफएलआई पत्र, हथियारों की दौड़ को रोकने में विफल रहा – यहां तक ​​​​कि मस्क ने एक साथ अपना प्रतिस्पर्धी एआई उद्यम भी लॉन्च किया।

Leave a Comment