भारतीय शोधकर्ताओं की एक टीम ने एआई फोटो संपादन के दौरान पहचान लीक को रोकने के लिए एक पेटेंट-लंबित तकनीक विकसित की है। इस प्रणाली का नेतृत्व दीपेश तंबोली, वनीत अग्रवाल और पर्ड्यू विश्वविद्यालय के विनीत पुण्यमूर्ति ने किया, जिन्होंने मुख्य वास्तुकला विकसित की। शोध के सह-लेखक के रूप में उनके साथ मिशिगन विश्वविद्यालय के तकनीकी सहयोगी अथर्व पवार भी शामिल हुए, जिससे एक पाइपलाइन बनाई गई जो व्यक्तिगत छवियों को तीसरे पक्ष के एआई प्लेटफार्मों पर अपलोड करने से पहले सुरक्षित करती है।

हिंदुस्तानटाइम्स.कॉम से बातचीत में शोधकर्ताओं ने इस प्रोजेक्ट के बारे में खुलकर बात की। परियोजना के पीछे की प्रेरणा के बारे में बोलते हुए, दीपेश ने बताया कि यह “2025 की शुरुआत में एक विशिष्ट क्षण से आया था जब एआई “घिबली-शैली” फिल्टर वायरल हो गया।”
का वायरल ट्रेंड घिबली-शैली के चित्र पिछले सप्ताह सोशल मीडिया पर तूफान आ गया, जब नेटिज़न्स ने एआई से उनकी तस्वीरों को एक विशिष्ट एनीमे शैली में संशोधित करने के लिए कहा। जबकि बहुतों ने प्यार किया OpenAI की नई सुविधाकुछ लोगों ने इस प्रवृत्ति को स्टूडियो घिबली के सह-संस्थापक के लिए “अपमानजनक” बताया हयाओ मियाज़ाकीजिन्होंने पहले एआई-जनित एनीमेशन की “जीवन का अपमान” के रूप में आलोचना की थी और कहा था कि वह “इस तकनीक को अपने काम में कभी भी शामिल नहीं करना चाहेंगे।”
प्रौद्योगिकी के पीछे की प्रेरणा और यह अद्वितीय क्यों है
डॉक्टरेट के पूर्व छात्र दीपेश ने हिंदुस्तानटाइम्स.कॉम को बताया, “लाखों लोग खुद को कार्टून में बदलने के लिए व्यक्तिगत तस्वीरें अपलोड कर रहे थे, लेकिन साथ ही, भारत सरकार सहित सरकारें – बायोमेट्रिक डेटा को तीसरे पक्ष के सर्वर पर अपलोड करने के जोखिमों के बारे में तत्काल चेतावनी जारी कर रही थीं।” “यह एक बड़ा “गोपनीयता कर” था: इन रचनात्मक उपकरणों का उपयोग करने के लिए, आपको अपना चेहरा छोड़ना होगा। मुझे एहसास हुआ कि एक बार उच्च-रिज़ॉल्यूशन बायोमेट्रिक डेटा अपलोड होने के बाद, उपयोगकर्ता इस पर सभी नियंत्रण खो देते हैं। मैंने सोचना शुरू कर दिया: हम व्यक्तिगत जानकारी लीक के बिना इन अद्भुत एआई परिणामों को कैसे प्राप्त कर सकते हैं? उस प्रश्न ने PrivateEdit को जन्म दिया।
नई तकनीक के आगमन के साथ, किसी को आश्चर्य हो सकता है कि इसमें ऐसा क्या है जो पहले नहीं देखा गया है। दीपेश के पास इसका जवाब था.
और पढ़ें | चीन में AI मॉडल की नकल का मुकाबला करने के लिए OpenAI, एंथ्रोपिक, Google एकजुट हुए
“अधिकांश गोपनीयता उपकरण आज “प्रतिक्रियाशील” हैं – वे आपके डेटा भेजे जाने के बाद समस्या को ठीक करने का प्रयास करते हैं। प्राइवेटएडिट “डिज़ाइन द्वारा गोपनीयता” है। हमने छवि के बाकी हिस्सों से आपकी पहचान को “अलग” करने का एक तरीका पेश किया है। वास्तव में नई बात यह है कि हमारी तकनीक आपके द्वारा पहले से उपयोग किए जाने वाले बड़े एआई मॉडल के साथ काम करती है – जैसे कि मिडजर्नी या चैटजीपीटी – बिना कुछ बदलने की आवश्यकता के। हमने एक “ट्रस्ट स्लाइडर” भी पेश किया है जो उपयोगकर्ता को शक्ति वापस देता है; आप निर्णय ले सकते हैं आप किसी विशिष्ट प्लेटफ़ॉर्म पर कितना भरोसा करते हैं, इसके आधार पर वास्तव में कितनी जानकारी छिपानी है, यह वैयक्तिकृत सुरक्षा है जो अब तक अस्तित्व में नहीं है,” उन्होंने समझाया।
तकनीक कैसे काम करती है?
कंप्यूटर और इलेक्ट्रिकल इंजीनियरिंग में डॉक्टरेट के उम्मीदवार विनीत ने विस्तार से बताया कि तकनीक कैसे काम करती है।
उन्होंने बताया, “हमने एक पाइपलाइन विकसित की है जो आपके और एआई के बीच एक “सुरक्षित फिल्टर” की तरह काम करती है। आपकी पूरी तस्वीर को क्लाउड पर भेजने के बजाय, हमारा सिस्टम पहले आपके डिवाइस पर स्थानीय रूप से काम करता है।” hindustantimes.com. “यह आपके चेहरे के “पहचान-संवेदनशील” हिस्सों को खोजने के लिए उन्नत विभाजन का उपयोग करता है – अद्वितीय मार्कर जो आपको बनाते हैं – और उन पर एक डिजिटल मुखौटा लगाता है। हम फिर एआई को केवल “पृष्ठभूमि” और मुखौटा संस्करण भेजते हैं। एआई आपके द्वारा अनुरोधित संपादन करता है, और फिर फोटो आपके डिवाइस पर वापस भेज दिया जाता है, जहां आपके वास्तविक चेहरे का विवरण सुरक्षित रूप से फिर से डाला जाता है। एआई काम पूरा कर देता है, लेकिन यह वास्तव में आपको कभी भी “देखता” नहीं है।
किसी को आश्चर्य हो सकता है कि क्या यह तकनीक केवल तकनीकी विशेषज्ञों के लिए है, या क्या नियमित स्मार्टफोन उपयोगकर्ता भी इसका उपयोग कर सकते हैं। दीपेश ने कहा कि वे इसे केवल एक “प्रयोगशाला प्रयोग” नहीं बनाने के लिए प्रतिबद्ध हैं और उन्होंने इस बात पर जोर दिया कि यह उपयोगकर्ता के अनुकूल है।
“लक्ष्य यह है कि यह एक मानक फोटो संपादन ऐप की तरह महसूस हो। आपको यह जानने की ज़रूरत नहीं है कि एआई कैसे काम करता है या “विभाजन” क्या है; आप बस अपने गोपनीयता स्तर को चुनने के लिए एक साधारण स्लाइडर का उपयोग करते हैं, और ऐप पृष्ठभूमि में जटिल “मास्किंग” और “पुनर्निर्माण” को संभालता है। गोपनीयता एक घर का काम नहीं होना चाहिए; यह फ़िल्टर लागू करने जितना आसान होना चाहिए, “उन्होंने कहा।
AI संपादन टूल से जुड़े प्रमुख गोपनीयता जोखिम
यूनिवर्सिटी फैकल्टी स्कॉलर और कंप्यूटर साइंस विभाग और एल्मोर फैमिली स्कूल ऑफ इलेक्ट्रिकल एंड कंप्यूटर इंजीनियरिंग में शिष्टाचार नियुक्तियों के साथ औद्योगिक इंजीनियरिंग के रीली प्रोफेसर, वनीत ने कहा कि प्राथमिक जोखिम डेटा दृढ़ता और फ़ंक्शन क्रिप है।
“कई उपयोगकर्ता मानते हैं कि “फ़िल्टर” लागू होने के बाद उनकी तस्वीर हटा दी जाती है, लेकिन अक्सर वह डेटा स्पष्ट सहमति के बिना भविष्य के मॉडलों की निगरानी, प्रोफाइलिंग या प्रशिक्षण के लिए उपयोग किए जाने वाले स्थायी डिजिटल फ़ुटप्रिंट का हिस्सा बन जाता है। वर्तमान परिदृश्य में, आपकी बायोमेट्रिक पहचान को एक वस्तु के रूप में काटा जा रहा है। “गोपनीयता-दर-डिज़ाइन” ढांचे की ओर बढ़ना, जैसा कि हमने विकसित किया है, यह सुनिश्चित करने के लिए आवश्यक है कि एआई क्रांति मौलिक मानव स्वायत्तता की कीमत पर नहीं आती है, “वनीत ने समझाया, जिनके शोध समूह में दोनों दीपेश हैं। और विनीत ने काम किया.
और पढ़ें | पीएचडी अर्थशास्त्री का कहना है कि उनके काम में अब एआई लेखन से ‘एम-डैश’ हटाना शामिल है: ‘एआई अर्थव्यवस्था का अदृश्य श्रम’
तकनीकी सहयोगी अथर्व ने बताया कि पर्ड्यू शोधकर्ताओं की नई तकनीक से किन जोखिमों को कम किया जा सकता है।
“जब आप कच्ची तस्वीरें अपलोड करते हैं, तो उन्हें अनिश्चित काल तक संग्रहीत किया जा सकता है, सर्वर उल्लंघन में लीक किया जा सकता है, या आपकी अनुमति के बिना “डीपफेक” को प्रशिक्षित करने के लिए भी इस्तेमाल किया जा सकता है। हमारे मास्किंग सिस्टम का उपयोग करके, संवेदनशील डेटा कभी भी क्लाउड पर प्रसारित नहीं होता है। इससे कंपनियों को भी मदद मिलती है; वे अब हजारों लोगों के निजी चेहरे के डेटा को संग्रहीत करने की भारी कानूनी और नैतिक जिम्मेदारी के बिना अपने ग्राहकों को एआई फोटो टूल की पेशकश कर सकते हैं, “उन्होंने कहा।
अथर्व ने यह भी दावा किया कि इस तकनीक का उपयोग Adobe, Apple या Google जैसी बड़ी कंपनियों द्वारा किया जा सकता है, उन्होंने इसे “इस तकनीक के लिए आदर्श भविष्य” कहा।
“क्योंकि हमारी पाइपलाइन को कंपनियों को अपने मौजूदा एआई मॉडल को बदलने की आवश्यकता नहीं है, इसे “गोपनीयता परत” के रूप में मौजूदा ऐप्स में एकीकृत किया जा सकता है। यह इन बड़ी तकनीकी कंपनियों को अपने उपयोगकर्ताओं को गर्व से बताते हुए अद्भुत जेनरेटिव सुविधाएं प्रदान करने की अनुमति देगा: “हम आपकी कच्ची तस्वीरें कभी नहीं देखते हैं।” यह कंपनी की प्रतिष्ठा और उपयोगकर्ता की सुरक्षा दोनों के लिए एक जीत है, “उन्होंने समझाया।
यह शोध एआई नियमों और कानूनों के भविष्य को कैसे प्रभावित करता है
वनीत ने कहा कि दुनिया भर की सरकारें इस बात को लेकर संघर्ष कर रही हैं कि एआई को कैसे विनियमित किया जाए।
“अधिकांश कानून इस बात पर ध्यान केंद्रित करते हैं कि कंपनियां आपका डेटा प्राप्त करने के बाद क्या करती हैं। हमारा काम “डेटा न्यूनीकरण” के लिए एक तकनीकी मार्ग प्रदान करता है – जीडीपीआर जैसे गोपनीयता कानूनों में एक प्रमुख सिद्धांत। यह साबित करके कि हम पहले स्थान पर संवेदनशील डेटा एकत्र किए बिना उच्च गुणवत्ता वाले परिणाम प्राप्त कर सकते हैं, हम एक खाका प्रदान कर रहे हैं कि भविष्य के एआई नियमों को कैसे लिखा जाना चाहिए, “उन्होंने समझाया।
विनीत ने खुलासा किया कि सबसे बड़ी चुनौती यह थी कि चेहरे को ढकने से अंतिम एआई-संपादित तस्वीर नकली लगती है, या उसकी गुणवत्ता प्रभावित होती है।
“यदि आप बहुत अधिक मास्क लगाते हैं, तो एआई संदर्भ खो देता है और फोटो अजीब लगती है। यदि आप बहुत कम मास्क लगाते हैं, तो आप गोपनीयता लीक करते हैं। हमने एक “स्मार्ट ब्लेंडिंग” तकनीक विकसित की है जो एआई को आपकी वास्तविक बायोमेट्रिक विशेषताओं को देखे बिना दृश्य की रोशनी और छाया को समझने के लिए पर्याप्त जानकारी देती है। परिणाम एक उच्च गुणवत्ता वाली, पेशेवर दिखने वाली छवि है जहां आपके वास्तविक चेहरे और एआई के संपादन के बीच “सीम” पूरी तरह से अदृश्य हैं, “उन्होंने कहा।
इस बीच, दीपेश ने कहा कि लोगों को भविष्य में एआई टूल का उपयोग करते समय एक बात याद रखनी चाहिए कि “नवाचार को आपकी पहचान की कीमत पर नहीं आना चाहिए।”
“लंबे समय से, हमें बताया गया है कि सर्वोत्तम तकनीक प्राप्त करने के लिए, हमें अपना डेटा छोड़ना होगा। हमारा शोध साबित करता है कि यह सच नहीं है। आपके पास दुनिया की सबसे शक्तिशाली एआई और आपकी गोपनीयता भी हो सकती है। आपको कभी भी रचनात्मक होने और सुरक्षित होने के बीच चयन नहीं करना चाहिए,” उन्होंने निष्कर्ष निकाला, उन्होंने कहा कि अगला बड़ा कदम सत्यापन योग्य डेटा संप्रभुता है।
दीपेश ने कहा, “किसी कंपनी के लिए यह वादा करना पर्याप्त नहीं है कि वे आपके डेटा का उपयोग नहीं करेंगे; हमें तकनीकी प्रणालियों की आवश्यकता है जहां उपयोगकर्ता गणितीय रूप से सत्यापित कर सके कि उनका डेटा केवल उसी कार्य के लिए उपयोग किया गया था जो उन्होंने मांगा था और फिर तुरंत हटा दिया गया। इसे ऑन-डिवाइस प्रोसेसिंग के साथ जोड़ना एक एआई दुनिया की कुंजी होगी जहां नवाचार और व्यक्तिगत सुरक्षा एक दूसरे के साथ नहीं हैं।”