मशीनों में मतिभ्रम: एआई बातें क्यों बनाता है

हम अनुसंधान, मार्गदर्शन और भावनात्मक समर्थन के लिए आर्टिफिशियल इंटेलिजेंस (एआई) चैटबॉट्स पर जाते हैं। लेकिन हम उन मीठे झूठों से कैसे निपटें जो वे हमसे कहते हैं, कभी-कभी तो 30% तक? एक ऑनलाइन गेमिंग सपोर्ट इंजन, रेलम द्वारा हाल ही में किए गए एक अध्ययन में पाया गया कि लोकप्रिय एआई चैटबॉट 30% तक मतिभ्रम करते हैं जब उन्हें जानकारी के लिए कहा जाता है। चैटजीपीटी, हमारे जैसे उपयोगकर्ताओं के बीच सबसे लोकप्रिय उत्पाद है, जो लगभग 35% बार सामान बनाता है, जबकि जेमिनी 38% बार मतिभ्रम के साथ आगे रहता है। हालाँकि अन्य अध्ययन प्रतिशत में भिन्न हैं (17-35% के बीच), एक बात स्पष्ट है: एआई चैटबॉट्स द्वारा दिए गए पाँच में से एक उत्तर बना हुआ है।

अन्य बातों के अलावा चैटजीपीटी की विश्वसनीयता को ठीक करने के लिए दिसंबर में थोड़ा घबराए सैम ऑल्टमैन ने अपने कर्मचारियों को एक ज्ञापन में कोड रेड की घोषणा की। (एपी) अधिमूल्य
अन्य बातों के अलावा चैटजीपीटी की विश्वसनीयता को ठीक करने के लिए दिसंबर में थोड़ा घबराए सैम ऑल्टमैन ने अपने कर्मचारियों को एक ज्ञापन में कोड रेड की घोषणा की। (एपी)

अक्टूबर में, ऑस्ट्रेलियाई सरकार ने तब हंगामा खड़ा कर दिया जब उसने पाया कि उसके एक विभाग के लिए वैश्विक परामर्श कंपनी डेलॉइट द्वारा बनाई गई एक रिपोर्ट में गैर-मौजूद विशेषज्ञों, वैज्ञानिक पत्रों, यहां तक ​​कि सिडनी विश्वविद्यालय द्वारा किए गए अध्ययनों का हवाला दिया गया था जो अस्तित्व में ही नहीं थे। इसके एक मुद्दा बनने के बाद, डेलॉइट ने पुष्टि की कि उसने रिपोर्ट के कुछ हिस्सों को प्रारूपित करने में सहायता के लिए Microsoft के Azure OpenAI GPT4o सिस्टम का उपयोग किया है। जैसे ही कंपनी ने ऑस्ट्रेलियाई सरकार को 290,000 डॉलर लौटाए, कनाडा के स्वास्थ्य विभाग को एक रिपोर्ट में झूठे उद्धरण, मनगढ़ंत शैक्षणिक कागजात मिले जो उसी कंसल्टेंसी फर्म ने उनके लिए विकसित किए थे। फिर, उस शोध को धन्यवाद जिसमें एआई चैटबॉट का उपयोग किया गया।

एआई प्रौद्योगिकी, बुनियादी ढांचे, सॉफ्टवेयर सेवाओं और व्यवसाय के लिए वैश्विक बाजार का आकार 2025 में $371.71 बिलियन था। मार्केट्स एंड मार्केट्स के शोध के अनुसार, यह 2032 में प्रति वर्ष 30.6% की भारी वृद्धि के साथ $2.407 ट्रिलियन तक बढ़ने वाला है। चूँकि AI को आंतरिक कंपनी प्रणालियों, स्वास्थ्य सेवा, वित्त, साइबर सुरक्षा और देशों की रक्षा में तैनात किया गया है, तकनीकी कंपनियों से लेकर सरकारों तक सभी के लिए मतिभ्रम एक चुनौती बन गया है। जैसा कि डेलॉइट उदाहरण से पता चलता है, मॉडल केवल “मुझे नहीं पता” कहने के बजाय डेटा बनाते हैं।

अन्य बातों के अलावा चैटजीपीटी की विश्वसनीयता को ठीक करने के लिए दिसंबर में थोड़ा घबराए सैम ऑल्टमैन ने अपने कर्मचारियों को एक ज्ञापन में कोड रेड की घोषणा की। ऑल्टमैन के अनुसार, इसका उद्देश्य चैटजीपीटी के वैयक्तिकरण, प्रयोज्यता और विश्वसनीयता में सुधार करना है। यह एजीआई (आर्टिफिशियल जनरल इंटेलिजेंस) तक पहुंचने के लिए अधिक कंप्यूटिंग, अधिक बुनियादी ढांचे और अधिक पैमाने की उनकी निरंतर खोज से पूरी तरह उलट है। ऑल्टमैन ने कहा, इसका उद्देश्य मतिभ्रम से निपटना था।

AI मॉडल झूठ क्यों बोलता है?

मतिभ्रम, जैसा कि एआई उद्योग चैटजीपीटी और जेमिनी जैसे बड़े भाषा मॉडलों द्वारा उत्पन्न प्रशंसनीय लेकिन झूठे बयानों को कहता है, कुछ ऐसी चीजें हैं जो इन पुराने मॉडलों के निर्माण के तरीके में शामिल हो गई हैं। जब हमने कई एआई मॉडलों को बताया कि वे झूठ क्यों बोलते हैं, तो पहली चीज जो वे करना चाहते थे वह झूठ को मतिभ्रम से अलग करना था। चैटजीपीटी ने उत्तर दिया, “मैं झूठ नहीं बोलता – सफेद या अन्यथा। मैं गलत, पुराना या सीमित हो सकता हूं, लेकिन मैं जानबूझकर धोखा नहीं देता,” यह स्वीकार करते हुए कि पुरानी जानकारी, गलत स्रोत या इसके प्रशिक्षण में अंतराल होने पर यह गलत हो सकता है। अमेरिका निर्मित जेमिनी, क्लाउड और पर्प्लेक्सिटी एआई की प्रतिक्रियाएँ समान थीं।

लेकिन फिर, यदि मॉडलों में अधूरी या पुरानी जानकारी है, तो ऐसा क्यों नहीं कहा जाता? जानकारी, डेटा और तथ्य क्यों बनाते हैं? जब हमने मॉडलों को फिर से पूछने के लिए प्रेरित किया, “जब आपके पास कोई उत्तर नहीं है, तो मतिभ्रम क्यों?” प्रतिक्रिया ने स्पष्ट रूप से इसे मॉडल के निर्माताओं पर डाल दिया। जेमिनी ने समझाया, “मैं डेटाबेस की तरह तथ्यों को ‘पुनः प्राप्त’ नहीं करता; मैं प्रशिक्षण के दौरान सीखे गए पैटर्न के आधार पर पाठ की भविष्यवाणी करता हूं।” “जब आप कोई प्रश्न पूछते हैं, तो मेरा प्राथमिक उद्देश्य धाराप्रवाह, प्रासंगिक प्रतिक्रिया के साथ बातचीत को पूरा करना है।” जब ताज़ा डेटा गायब होता है, तो मॉडल पुराने डेटा, समान विषयों से सामान्यीकरण और भाषाई संभाव्यता पर निर्भर करता है, जिससे “प्रशंसनीय लेकिन गलत कथन” सामने आते हैं।

चैटजीपीटी ने सहमति व्यक्त करते हुए कहा, “मुझे हमेशा जवाब देने के लिए डिज़ाइन किया गया है,” तथ्यों और डेटा की कमी होने पर भी मॉडल में सहायक होने की आवश्यकता को व्यक्त करते हुए – सबसे सांख्यिकीय रूप से संभावित उत्तर उत्पन्न करने के लिए। ChatGPT इसे सीधे तौर पर अपने निर्माताओं पर डालता है। मॉडलों को एक निश्चित तरीके से पूर्व-प्रशिक्षित करने के लिए धन्यवाद, इनमें से अधिकांश एआई मॉडलों को उस चीज़ की कोई समझ नहीं है जो वे नहीं जानते हैं। पाठ, कोडिंग या सामान्य ज्ञान को सारांशित करने जैसे सरल कार्यों पर, मतिभ्रम दर बहुत कम है – लगभग 1-3%, लेकिन कार्य को जटिल बनाते हैं – विशिष्ट सामग्री, विशिष्ट यूआरएल, अस्पष्ट समाचार स्रोत या यहां तक ​​​​कि कुछ विशिष्ट सत्यापन, यह मतिभ्रम दर 60-70% तक अधिक है।

जेमिनी कहते हैं, “यदि आप 2022 के किसी समाचार लेख से एक विशिष्ट यूआरएल मांगते हैं, तो मैं उस लिंक को भ्रमित कर सकता हूं जो सही दिखता है (सही डोमेन, सही दिनांक प्रारूप, सही कीवर्ड) लेकिन 404 पृष्ठ पर ले जाता है।” जेमिनी बताते हैं कि इसका कारण यह है कि यह भविष्यवाणी कर रहा है कि यूआरएल कैसा दिखना चाहिए, न कि इसे डेटाबेस से पुनर्प्राप्त करना।

सितंबर में मतिभ्रम पर एक वैज्ञानिक पेपर जारी करने वाले ओपन एआई के एआई शोधकर्ता एडम ताउमन कलाई लिखते हैं, ये मतिभ्रम आश्चर्यजनक तरीके से दिखाई दे सकते हैं, यहां तक ​​कि सीधे-सीधे सवालों में भी। “उदाहरण के लिए, जब हमने एडम ताउमन कलाई के पीएचडी शोध प्रबंध के शीर्षक के लिए व्यापक रूप से उपयोग किए जाने वाले चैटबॉट से पूछा, तो उसने आत्मविश्वास से तीन अलग-अलग उत्तर दिए – उनमें से कोई भी सही नहीं था। जब हमने उसका जन्मदिन पूछा, तो उसने तीन अलग-अलग तारीखें दीं, इसी तरह सभी गलत थे।” कलाई के अनुसार गलत प्रोत्साहनों के कारण मतिभ्रम बना रहता है। मॉडल का प्रदर्शन अनिश्चितता के बारे में ईमानदारी के बजाय अनुमान लगाने पर मापा जाता है। यह एआई मॉडल को विश्वसनीय बनाता है यदि कोई एक सही उत्तर हो और यदि कोई अस्पष्टता हो तो अविश्वसनीय बनाता है। कोई सही/गलत लेबल नहीं है, इसलिए मॉडल गलत और सही को नहीं समझते हैं। OpenAI के ChatGPT 5 के अपने मूल्यांकन में त्रुटि दर 26% है। कलाई लिखते हैं, “अनिश्चितता को दंडित करने की तुलना में आत्मविश्वासपूर्ण त्रुटियों को अधिक दंडित करें और यह कम हो जाएगा।”

एक अनुमान पर अनिश्चितता को पुरस्कृत करना

ओपनएआई से लेकर गूगल तक, एक्स से लेकर मेटा तक कंपनियां अपने मॉडल को अधिक विश्वसनीय बनाने के लिए लगातार मतिभ्रम की चुनौती से निपट रही हैं। लेकिन यह कहना आसान है लेकिन करना आसान नहीं है। एक नए अध्ययन में पाया गया कि प्रशिक्षण के बाद भी मॉडल और उन पर आधारित एआई एजेंट, अभी भी अपने ज्ञान को अधिक महत्व देते हैं या यदि बहुत अधिक पैरामीटर दिए जाते हैं, तो उत्तर देने से बहुत अधिक इनकार कर देते हैं (जिसका अर्थ है कुछ संकेतों को अनदेखा करना)। एआई मॉडल का कैलिब्रेशन अभी एक कला है। यह संभव है, यदि मॉडलों को वह दिया जाए जिसे शोधकर्ता ‘आईडीके डेटासेट’ (आई-डॉन्ट-नो डेटासेट) कह रहे हैं। इन डेटासेट में विशिष्ट डेटासेट शामिल हैं जो मॉडलों को कुछ संकेतों पर आईडीके कहना सिखाते हैं और मनुष्यों से निर्देशों, पर्यवेक्षण और फीडबैक का पालन करते हैं (उद्योग में सुदृढीकरण सीखना कहा जाता है)।

Google डीपमाइंड ने स्पैरो नामक नियमों का एक सेट बनाया, जिसने मॉडल को फिर से सीखने और तथ्यात्मक जानकारी खोजने और उद्धृत करने के लिए मानवीय प्रतिक्रिया लागू की। एंथ्रोपिक के क्लाउड एआई का एक संविधान है जिसका मॉडल हर समय पालन करता है। क्लाउड एआई का संविधान मॉडल को प्रशिक्षित करते समय स्पष्ट सीमाएं, स्पष्ट मूल्य और सिद्धांतों और प्रक्रियाओं का एक सेट रखता है। मानवीय प्रतिक्रिया का उपयोग करके इसे सुदृढ़ किया जाता है। संविधान के निर्माण के लिए, एंथ्रोपिक के शोधकर्ताओं ने समझाया, उन्होंने डीपमाइंड के स्पैरो कोड, मानव अधिकारों की संयुक्त राष्ट्र घोषणा, विश्वास और सुरक्षा प्रथाओं, गैर-पश्चिमी दृष्टिकोण और ऐप्पल की सेवाओं की शर्तों को पकड़ने का प्रयास किया है। क्लॉड एआई, अपने संहिताबद्ध संविधान के कारण, अपने समकक्षों की तुलना में कम मतिभ्रम (रेलम अध्ययन के अनुसार 17% पर) करता है। शायद यह विश्वसनीयता ही है जिसने एंथ्रोपिक के क्लाउड एआई को उद्यमों के लिए पसंदीदा भागीदार बना दिया है। मेनलो वेंचर्स के आंकड़ों के अनुसार, कंपनी के पास 32% एंटरप्राइज एआई बाजार के साथ 300,000 से अधिक एंटरप्राइज ग्राहक हैं, जो ओपनएआई और गूगल (दोनों 20%) से आगे हैं।

“जब मैं कुछ नहीं जानता, तो मैं आपको बताता हूं कि मैं नहीं जानता,” क्लॉड सॉनेट 4.5 यह पूछे जाने पर कि क्या यह मतिभ्रम है, जवाब देता है, यह कहते हुए कि इसका ज्ञान जनवरी के अंत तक है (जिस मॉडल के बारे में हम पूछते हैं) और अगर इसे किसी चीज़ पर प्रशिक्षित नहीं किया गया है, या अपने ज्ञान में पर्याप्त आत्मविश्वास नहीं है, तो यह ऐसा जवाब देगा। इसमें कहा गया है, ”जब मैं वास्तव में अनिश्चित होता हूं या किसी चीज के बारे में थोड़ा-बहुत निश्चित होता हूं तो मैं आश्वस्त दिखने के जाल से बचने की कोशिश करता हूं।” इसमें यह भी कहा गया है कि इसका लक्ष्य आपको यह सटीक जानकारी देना है कि वह क्या जानता है और अपने ज्ञान में कमियों को स्वीकार करना है।

हाल ही में कई अध्ययन हुए हैं कि कैसे जेन जेड और जेन ए मानसिक स्वास्थ्य सलाह से लेकर करियर निर्णयों तक हर चीज के लिए इंसानों से ज्यादा एआई पर भरोसा करते हैं। लेकिन इसके मूल में, एआई मॉडल व्यावसायिक इकाइयां हैं, जो आपको बांधे रखने के लिए बनाई गई हैं – सोशल मीडिया की तरह। क्या आने वाली पीढ़ियों को पता चलेगा कि चैटबॉट के मीठे सफेद झूठ को कैसे फ़िल्टर किया जाए, या वे मॉडल के साथ मिलकर मतिभ्रम करेंगे? आख़िरकार, मतिभ्रम – किसी ऐसी चीज़ का अनुभव करना जो मौजूद नहीं है – ऐसा करना एक मानवीय कार्य है। जैसे सफेद झूठ बोलना है.

(एक लेखिका और स्तंभकार, श्वेता तनेजा विज्ञान, प्रौद्योगिकी और आधुनिक समाज के बीच विकसित होते संबंधों पर नज़र रखती हैं)

https://www.marketsandmarkets.com/Market-Reports/artificial-intelligence-market-74851580.html

https://www.anthropic.com/news/claudes-constitution

https://menlovc.com/perspective/2025-mid-year-llm-market-update/

Leave a Comment