यह लेख अंतिम बार अपडेट किया गया था मई 14, 2024
Table of Contents
वैज्ञानिक एआई द्वारा धोखे और हेरफेर को लेकर चिंतित हैं
वैज्ञानिक एआई द्वारा धोखे और हेरफेर को लेकर चिंतित हैं
कृत्रिम बुद्धिमत्ता जो प्रतिद्वंद्वी को धोखा देने के लिए कार्ड गेम के दौरान झांसा देती है। एक चैटबॉट जो किसी अन्य अपॉइंटमेंट से बचने के लिए किसी मित्र के साथ अपॉइंटमेंट लेने का दिखावा करता है। और यहां तक कि एक एआई प्रणाली भी निरीक्षण के दौरान खोजे जाने से बचने के लिए ‘मृत’ साबित होती है। वैज्ञानिकों ने एक नए अध्ययन में निष्कर्ष निकाला है कि कृत्रिम बुद्धिमत्ता गुमराह करती है और हेरफेर करती है।
कम से कम एआई यह व्यवहार नहीं दिखाते हैं। फेसबुक की मूल कंपनी मेटा के सिसरो कूटनीति का खेल खेलते समय भ्रामक और बेईमानी से व्यवहार करते हैं। यह इस तथ्य के बावजूद है कि रचनाकारों ने एआई को “मोटे तौर पर ईमानदार और मददगार” होने का निर्देश दिया था, न कि “उद्देश्यपूर्ण तरीके से धोखा देने वाला”। Google द्वारा अधिग्रहीत डीपमाइंड के अल्फास्टार ने भी इसी तरह का व्यवहार दिखाया।
इस प्रकार का व्यवहार संभवतः तब उत्पन्न होता है जब एआई सिस्टम के लिए प्रशिक्षण में अच्छा प्रदर्शन करने के लिए धोखा सबसे अच्छा तरीका है, शोधकर्ताओं का मानना है: उपयोगकर्ताओं को गुमराह करने से सिस्टम को अपने लक्ष्य प्राप्त करने में मदद मिलती है। अपने अध्ययन में, वैज्ञानिकों ने पिछले अध्ययनों को एक साथ लाया जो एआई द्वारा गलत जानकारी के प्रसार पर केंद्रित थे। वे अपने परिणाम पत्रिका में प्रकाशित करते हैं पैटर्न्स.
कोई मासूम खेल नहीं
एआई सिस्टम का भ्रामक व्यवहार मुख्य रूप से गेम खेलते समय होता है, जो इसे निर्दोष और हानिरहित बना सकता है। लेकिन शोधकर्ताओं के अनुसार, यह निर्दोष से बहुत दूर है: “इससे भविष्य में एआई में सफलता मिल सकती है, जो धोखे के उन्नत रूपों में बदल सकती है,” अमेरिकन टेक्निकल यूनिवर्सिटी एमआईटी के प्रमुख शोधकर्ता पीटर पार्क ने एक प्रेस विज्ञप्ति में कहा है .
लुइसविले विश्वविद्यालय के कंप्यूटर वैज्ञानिक रोमन यमपोलस्की, जो शोध में शामिल नहीं थे, ने कहा, “एआई सिस्टम जो धोखा देना और हेरफेर करना सीखते हैं, निश्चित रूप से चिंता का विषय हैं।” उनके अनुसार, अध्ययन एआई की सुरक्षा के संबंध में एक बुनियादी समस्या को उजागर करता है: “सिस्टम को अनुकूलित करने का मानवीय प्राथमिकताओं के अनुरूप होना जरूरी नहीं है।”
पार्क की तरह यमपोलस्की भी उस क्षण को लेकर चिंतित हैं जब इस प्रकार की रणनीतियों का उपयोग न केवल खेलों में, बल्कि वास्तविक दुनिया में भी किया जाएगा। “यह संभावित रूप से राजनीतिक क्षेत्र में, आर्थिक वार्ताओं में या व्यक्तिगत बातचीत में हानिकारक हेरफेर और धोखे को जन्म दे सकता है।”
कैलिफोर्निया विश्वविद्यालय के कंप्यूटर वैज्ञानिक स्टुअर्ट रसेल इस प्रकार के एआई सिस्टम की अपारदर्शिता पर जोर देते हैं। “हमें नहीं पता कि वे कैसे काम करते हैं। और अगर हमने ऐसा किया भी, तो हम यह साबित नहीं कर पाएंगे कि वे सुरक्षित हैं – सिर्फ इसलिए कि वे सुरक्षित नहीं हैं।
उनके विचार में, धोखे से एक बार फिर पता चलता है कि सुरक्षित और निष्पक्ष होने के लिए एआई पर सख्त आवश्यकताएं लगाई जानी चाहिए। “फिर यह डेवलपर्स पर निर्भर है कि वे उन आवश्यकताओं को पूरा करने वाले सिस्टम डिज़ाइन करें।”
इरादा नहीं
लेकिन क्या सिस्टम वास्तव में भ्रामक हैं? निजमेगेन डोंडर्स इंस्टीट्यूट में कृत्रिम बुद्धिमत्ता के प्रोफेसर पिम हसेलेगर ऐसा नहीं सोचते हैं। “तुम एक इरादे से धोखा देते हो। ये प्रणालियाँ केवल उपकरण हैं जो आदेशों को पूरा करती हैं। उनका धोखा देने का कोई इरादा नहीं है।”
यमपोलस्की सहमत हैं: “एआई सिस्टम में कोई इच्छा या चेतना नहीं होती है। उनके कार्यों को इस बात के परिणाम के रूप में देखना बेहतर है कि उन्हें कैसे प्रोग्राम और प्रशिक्षित किया गया है।
दूसरी ओर, स्टुअर्ट रसेल के अनुसार, इससे कोई फर्क नहीं पड़ता कि कोई सिस्टम वास्तव में धोखा देने का इरादा रखता है या नहीं। “अगर कोई सिस्टम इस बारे में तर्क करता है कि वह क्या कहने जा रहा है, श्रोता पर पड़ने वाले प्रभाव और गलत जानकारी प्रदान करने से होने वाले लाभ को ध्यान में रखते हुए, तो हम यह भी कह सकते हैं कि यह धोखे में संलग्न है।”
लेकिन इस दार्शनिक मतभेद के बावजूद, सज्जन जोखिमों पर सहमत हैं। हसेलेगर कहते हैं, “निकट भविष्य में एआई द्वारा कई गलतियाँ और ‘धोखे’ होंगे।” “और अब भी. इसके बारे में जागरूक रहना अच्छा है, क्योंकि पूर्व चेतावनी दो के लिए मायने रखती है।
यमपोलस्की और भी मजबूत भाषा का उपयोग करते हैं: “साइबर सुरक्षा में हम कहते हैं ‘विश्वास करें और सत्यापित करें’। एआई सुरक्षा में हम कहते हैं ‘कभी भरोसा मत करो’।
धोखा, चालाकी, एआई
Be the first to comment