जनरेटिव कृत्रिम बुद्धिमत्ता क्रांति धीमी होने का कोई संकेत नहीं दिखाती है। चैटबॉट और एआई सहायक व्यवसाय जगत का एक अभिन्न अंग बन गए हैं, चाहे कर्मचारियों को प्रशिक्षण देना हो, ग्राहकों के सवालों का जवाब देना हो या कुछ और। हमने उन्हें नाम और लिंग और, कुछ मामलों में, विशिष्ट व्यक्तित्व भी दिए।
दुनिया में दो बहुत महत्वपूर्ण रुझान घटित हो रहे हैं जनरेटिव ए.आई. एक ओर, उन्हें मानवीय बनाने की बेताब इच्छा जारी है, कभी-कभी लापरवाही से और परिणामों की चिंता किए बिना। वहीं, डेलॉइट की ताजा रिपोर्ट के मुताबिक उद्यम में जनरेटिव एआई की स्थिति एक रिपोर्ट के अनुसार, हाल के वर्षों में एआई में व्यावसायिक विश्वास काफी बढ़ा है।
हालाँकि, कई ग्राहक और कर्मचारी स्पष्ट रूप से ऐसा महसूस नहीं करते हैं। 75% उपभोक्ता गलत सूचना को लेकर चिंतित हैंकर्मचारियों को एआई द्वारा प्रतिस्थापित किए जाने का डर है। विश्वास की कमी बढ़ रही है और एआई-संचालित मिथ्याकरण के युग में यह एक निर्णायक शक्ति के रूप में उभर रही है।
यहां बताया गया है कि सूचना सुरक्षा और प्रशासन पेशेवरों के लिए इसका क्या मतलब है।
Table of Contents
अति आत्मविश्वास के खतरे
एआई को मानवीय बनाने की प्रवृत्ति और लोगों का इसमें विश्वास का स्तर गंभीर नैतिक और कानूनी चिंताओं को उजागर करता है। एआई-संचालित “मानवीकरण” उपकरण एआई-जनित सामग्री को “प्राकृतिक” और “मानवीय” कहानियों में बदलने का दावा करते हैं। दूसरों ने मार्केटिंग और विज्ञापन में उपयोग के लिए “डिजिटल इंसान” बनाए हैं। संभावना यह है कि आप जो अगला विज्ञापन देखेंगे, उसमें कोई व्यक्ति नहीं होगा, बल्कि किसी प्रकार का सिंथेटिक मीडिया होगा। वास्तव में, आइए हम इसे ठीक इसके नाम से ही पुकारने पर कायम रहें: a गहरे नकली.
एआई को मूर्त रूप देने के प्रयास नए नहीं हैं। Apple ने 2011 में सिरी के लॉन्च के साथ इस विचार को आगे बढ़ाया। आज, हमारे पास अनगिनत हजारों अन्य डिजिटल सहायक हैं, जिनमें से कुछ विशिष्ट उपयोग के मामलों के लिए तैयार किए गए हैं, जैसे डिजिटल स्वास्थ्य सेवा, ग्राहक सहायता या यहां तक कि व्यक्तिगत कोचिंग।
यह कोई संयोग नहीं है कि इनमें से कई डिजिटल सहायकों में महिला नाम और आवाज़ के साथ काल्पनिक महिला पात्र हैं। आख़िरकार, अध्ययनों से पता चलता है कि लोग महिला आवाज़ को अत्यधिक पसंद करते हैंऔर यह हमें उन पर भरोसा करने के लिए और अधिक संवेदनशील बनाता है। हालाँकि उनमें शारीरिक बनावट की कमी है, फिर भी वे एक सक्षम, विश्वसनीय और कुशल महिला का प्रतीक हैं। लेकिन एक प्रौद्योगिकी रणनीतिकार और वक्ता के रूप में जॉर्जेस कामाइड जैसा कि प्रोफेसर कहते हैं, यह “मानवीय पूर्वाग्रहों और रूढ़िवादिता को पुष्ट करता है और प्रौद्योगिकी कैसे काम करती है, इसका एक खतरनाक भ्रम है।”
नैतिक और सुरक्षा मुद्दे
यह न केवल एक नैतिक मुद्दा है, बल्कि एक सुरक्षा मुद्दा भी है, क्योंकि मनाने के लिए बनाई गई कोई भी चीज़ हमें हेरफेर के प्रति अधिक संवेदनशील बना सकती है। साइबर सुरक्षा के संदर्भ में, यह खतरे के एक बिल्कुल नए स्तर का प्रतिनिधित्व करता है। सोशल इंजीनियरिंग घोटालेबाज
लोग मशीनों से नहीं, बल्कि दूसरे लोगों से रिश्ते बनाते हैं। लेकिन जब अंतर बताना लगभग असंभव हो जाता है, तो हम संवेदनशील निर्णय लेने के लिए एआई पर भरोसा करने की अधिक संभावना रखते हैं। हम अधिक असुरक्षित हो जाते हैं, अपने व्यक्तिगत विचारों को साझा करने के लिए और अधिक इच्छुक हो जाते हैं, और व्यवसायों के मामले में, अपने व्यापार रहस्य और बौद्धिक संपदा को साझा करने के लिए अधिक इच्छुक हो जाते हैं।
इसके गंभीर परिणाम होंगे सूचना सुरक्षा और गोपनीयता. अधिकांश प्रमुख भाषा मॉडल (एलएलएम) प्रत्येक इंटरैक्शन का रिकॉर्ड रखें, संभावित रूप से भविष्य के मॉडल को प्रशिक्षित करने के लिए इसका उपयोग करें।
क्या हम वास्तव में चाहते हैं कि हमारे आभासी सहायक भविष्य के उपयोगकर्ताओं के लिए हमारी निजी जानकारी प्रकट करें? क्या कारोबारी नेता चाहते हैं कि उनकी बौद्धिक संपदा उनकी अगली प्रतिक्रियाओं में फिर से दिखे? क्या हम चाहते हैं कि हमारे रहस्य एआई के अगले पुनरावृत्ति को प्रशिक्षित करने के लिए पाठ, ऑडियो और दृश्य सामग्री के विशाल समूह का हिस्सा बनें?
यदि हम मशीनों को वास्तविक मानव संपर्क के विकल्प के रूप में सोचना शुरू कर दें, तो इन सभी चीजों के घटित होने की अधिक संभावना होगी।
एआई साइबर सुरक्षा के बारे में और जानें
साइबर खतरों के लिए एक चुंबक
हम यह मानने के आदी हैं कि कंप्यूटर झूठ नहीं बोलते, लेकिन सच्चाई यह है कि एल्गोरिदम को ऐसा करने के लिए प्रोग्राम किया जा सकता है। और भले ही उन्हें धोखा देने के लिए विशेष रूप से प्रशिक्षित नहीं किया गया हो, फिर भी वे “मतिभ्रम” कर सकते हैं या शोषण किया जाना है उनके प्रशिक्षण डेटा को प्रकट करने के लिए।
साइबर खतरे वाले अभिनेता इसके बारे में अच्छी तरह से जानते हैं, यही वजह है कि एआई है साइबर अपराध की अगली बड़ी सीमाजिस तरह एक व्यवसाय संभावित ग्राहकों को मनाने के लिए एक डिजिटल सहायक का उपयोग कर सकता है, उसी तरह एक दुर्भावनापूर्ण अभिनेता भी इसका उपयोग किसी अनजान पीड़ित को वांछित कार्रवाई करने के लिए बरगलाने के लिए कर सकता है। उदाहरण के लिए, ए चैटबॉट को लव-जीपीटी कहा जाता है डेटिंग प्लेटफ़ॉर्म पर वास्तविक प्रोफ़ाइल बनाने और यहां तक कि उपयोगकर्ताओं के साथ चैट करने की अपनी क्षमता के कारण हाल ही में इसे रोमांस घोटालों में फंसाया गया है।
जैसे-जैसे एल्गोरिदम परिष्कृत होते जाएंगे और आवश्यक कंप्यूटिंग शक्ति अधिक आसानी से उपलब्ध होगी, जेनरेटिव एआई और अधिक परिष्कृत होता जाएगा। नाम, लिंग, चेहरे और व्यक्तित्व वाले तथाकथित “डिजिटल इंसान” बनाने की तकनीक पहले से ही मौजूद है। डीपफेक वीडियो कुछ साल पहले की तुलना में कहीं अधिक विश्वसनीय हैं। एक वित्त कर्मचारी का कहना है कि वे पहले से ही लाइव वीडियो कॉन्फ्रेंसिंग में अपना रास्ता बना रहे हैं 25 मिलियन डॉलर का भुगतान करें उनके डीपफेक सीएफओ के साथ एक वीडियो कॉल के बाद।
जितना अधिक हम एल्गोरिदम को मनुष्य के रूप में देखते हैं, अंतर बताना उतना ही कठिन हो जाता है और हम उन लोगों के प्रति उतने ही अधिक असुरक्षित हो जाते हैं जो नापाक उद्देश्यों के लिए प्रौद्योगिकी का उपयोग करेंगे। हालांकि एआई प्रौद्योगिकी में प्रगति की तीव्र गति को देखते हुए, चीजों में जल्द ही सुधार होने की संभावना नहीं है, वैध संगठनों का नैतिक कर्तव्य है कि वे एआई के उपयोग में पारदर्शी रहें।
एआई नीतियों और शासन से आगे निकल जाता है
हमें यह स्वीकार करना चाहिए कि जेनेरिक एआई यहाँ रहने के लिए है। हमें इसके फ़ायदों को भी कम नहीं आंकना चाहिए। बुद्धिमान सहायक ज्ञान कार्यकर्ताओं पर संज्ञानात्मक भार को काफी कम कर सकते हैं और सीमित मानव संसाधनों को मुक्त करके हमें बड़ी समस्याओं पर ध्यान केंद्रित करने के लिए अधिक समय दे सकते हैं। लेकिन मशीन सीखने की क्षमताओं को मानवीय संपर्क के विकल्प के रूप में पेश करने की कोशिश न केवल नैतिक रूप से संदिग्ध है; यह सुशासन और नीति-निर्माण के भी विपरीत है।
एआई इतनी तेजी से आगे बढ़ रहा है कि सरकारें और नियामक उस गति से आगे नहीं बढ़ सकते। जैसा कि यूरोपीय संघ ने कृत्रिम बुद्धिमत्ता पर दुनिया का पहला विनियमन लागू किया है, जिसे कहा जाता है यूरोपीय एआई कानून – अभी भी काफी लम्बा रास्ता पड़ा है। इसलिए यह कंपनियों पर निर्भर है कि वे एआई की सुरक्षा, गोपनीयता, अखंडता और पारदर्शिता और वे इसका उपयोग कैसे करते हैं, के संबंध में सख्त स्व-नियमन लागू करने की पहल करें।
एआई को मानवीय बनाने की अथक खोज में, इसे बनाने वाले महत्वपूर्ण तत्वों को नज़रअंदाज़ करना आसान है नैतिक व्यवसाय प्रथाएँ. इससे कर्मचारी, ग्राहक और अन्य सभी लोग चालाकी और अति आत्मविश्वास के प्रति संवेदनशील हो जाते हैं। इस जुनून का परिणाम एआई का मानवीकरण उतना नहीं है जितना कि मनुष्यों का अमानवीयकरण है।
इसका मतलब यह नहीं है कि व्यवसायों को जेनरेटिव एआई और इसी तरह की प्रौद्योगिकियों से बचना चाहिए। हालाँकि, उन्हें इस बारे में पारदर्शी होना चाहिए कि वे उनका उपयोग कैसे करते हैं और अपने कर्मचारियों को संभावित जोखिमों के बारे में स्पष्ट रूप से बताना चाहिए। यह जरूरी है कि जेनरेटिव एआई न केवल आपकी व्यावसायिक प्रौद्योगिकी रणनीति, बल्कि आपके सुरक्षा जागरूकता प्रशिक्षण, शासन और नीति विकास का भी एक अभिन्न अंग है।
मनुष्य और AI के बीच एक विभाजन रेखा
एक आदर्श दुनिया में, एआई से जुड़ी हर चीज को उसी रूप में लेबल और सत्यापित किया जाएगा। और यदि ऐसा नहीं है, तो संभवतः आपको इस पर भरोसा नहीं करना चाहिए। हम केवल मानव घोटालेबाजों के बारे में चिंता कर सकते हैं, भले ही वे अनिवार्य रूप से दुर्भावनापूर्ण एआई का सहारा लें। दूसरे शब्दों में, शायद हमें एआई के मानवरूपीकरण को दुर्भावनापूर्ण अभिनेताओं पर छोड़ देना चाहिए। इस तरह हमें कम से कम बदलाव लाने में सक्षम होने का मौका मिलेगा।