AI नकली-चेहरे वाले जनरेटर को उनके द्वारा प्रशिक्षित किए गए वास्तविक चेहरों को प्रकट करने के लिए फिर से चालू किया जा सकता है

फिर भी यह मानता है कि आप उस प्रशिक्षण डेटा को पकड़ सकते हैं, कौट्ज़ कहते हैं। एनवीडिया में उन्होंने और उनके सहयोगियों ने निजी डेटा को उजागर करने के लिए एक अलग तरीका निकाला है, जिसमें चेहरे और अन्य वस्तुओं की छवियां, चिकित्सा डेटा, और बहुत कुछ शामिल है, जिसके लिए प्रशिक्षण डेटा तक पहुंच की आवश्यकता नहीं है।

इसके बजाय, उन्होंने एक एल्गोरिथ्म विकसित किया जो उस डेटा को फिर से बना सकता है जिसे एक प्रशिक्षित मॉडल द्वारा उजागर किया गया है मॉडल के माध्यम से जाने वाले चरणों को उलट देना उस डेटा को संसाधित करते समय। एक प्रशिक्षित छवि-पहचान नेटवर्क लें: यह पहचानने के लिए कि किसी छवि में क्या है, नेटवर्क इसे कृत्रिम न्यूरॉन्स की परतों की एक श्रृंखला से गुजरता है। प्रत्येक परत विभिन्न स्तरों की जानकारी निकालती है, किनारों से लेकर आकृतियों तक और अधिक पहचानने योग्य विशेषताओं तक।

कौट्ज़ की टीम ने पाया कि वे इन चरणों के बीच में एक मॉडल को बाधित कर सकते हैं और इसकी दिशा को उलट सकते हैं, मॉडल के आंतरिक डेटा से इनपुट छवि को फिर से बना सकते हैं। उन्होंने विभिन्न सामान्य छवि-पहचान मॉडल और GAN पर तकनीक का परीक्षण किया। एक परीक्षण में, उन्होंने दिखाया कि वे इमेजनेट से छवियों को सटीक रूप से फिर से बना सकते हैं, जो कि सबसे प्रसिद्ध छवि पहचान डेटा सेटों में से एक है।

ImageNet (शीर्ष) से ​​छवियां उन छवियों के मनोरंजन के साथ-साथ ImageNet (नीचे) पर प्रशिक्षित मॉडल को रिवाइंड करके बनाई गई हैं

NVIDIA

जैसा कि वेबस्टर के काम में होता है, फिर से बनाई गई छवियां वास्तविक छवियों से काफी मिलती-जुलती हैं। “हम अंतिम गुणवत्ता से हैरान थे,” कौट्ज़ कहते हैं।

शोधकर्ताओं का तर्क है कि इस तरह का हमला केवल काल्पनिक नहीं है। स्मार्टफोन और अन्य छोटे उपकरण अधिक AI का उपयोग करने लगे हैं। बैटरी और मेमोरी की कमी के कारण, मॉडल कभी-कभी डिवाइस पर केवल आधा-संसाधित होते हैं और अंतिम कंप्यूटिंग क्रंच के लिए क्लाउड पर भेजे जाते हैं, एक दृष्टिकोण जिसे स्प्लिट कंप्यूटिंग के रूप में जाना जाता है। कौट्ज़ कहते हैं, अधिकांश शोधकर्ता मानते हैं कि स्प्लिट कंप्यूटिंग किसी व्यक्ति के फोन से कोई निजी डेटा प्रकट नहीं करेगा क्योंकि केवल मॉडल साझा किया जाता है। लेकिन उनके हमले से पता चलता है कि ऐसा नहीं है।

कौट्ज़ और उनके सहयोगी अब मॉडल को निजी डेटा लीक करने से रोकने के तरीकों के साथ आने के लिए काम कर रहे हैं। हम जोखिमों को समझना चाहते थे ताकि हम कमजोरियों को कम कर सकें, वे कहते हैं।

भले ही वे बहुत अलग तकनीकों का उपयोग करते हैं, वह सोचते हैं कि उनका काम और वेबस्टर एक दूसरे के पूरक हैं। वेबस्टर की टीम ने दिखाया कि एक मॉडल के आउटपुट में निजी डेटा पाया जा सकता है; कौट्ज़ की टीम ने दिखाया कि इनपुट को फिर से बनाकर, रिवर्स में जाकर निजी डेटा का खुलासा किया जा सकता है। कौट्ज़ कहते हैं, “हमलों को रोकने के तरीके की बेहतर समझ के साथ आने के लिए दोनों दिशाओं की खोज करना महत्वपूर्ण है।”

(Visited 4 times, 1 visits today)

About The Author

You might be interested in

LEAVE YOUR COMMENT