एआई मॉडल गलत सूचनाएं फैला सकते हैं

Sabal SIngh Bhati
6 Min Read

नई दिल्ली, 6 मई ()। अपने सबसे अच्छे रूप में, आर्टिफिशियल इंटेलिजेंस (एआई) राजनीतिक जुड़ाव की पहुंच बढ़ाने और ध्रुवीकरण को आसान बनाने का एक उपकरण हो सकता है।

अपने सबसे अच्छे रूप में, आर्टिफिशियल इंटेलिजेंस (एआई) राजनीतिक जुड़ाव की पहुंच बढ़ाने और ध्रुवीकरण को कम करने का एक उपकरण हो सकता है। नाथन ई सैंडर्स और ब्रूस श्नेयर ने द अटलांटिक के लिए लिखा है कि खराब स्थिति में, यह गलत सूचना का प्रचार कर सकता है और मतदाता हेरफेर के जोखिम को बढ़ा सकता है।

सैंडर्स एक डेटा वैज्ञानिक हैं और हार्वर्ड विश्वविद्यालय के बर्कमैन क्लेन सेंटर में सहयोगी हैं। श्नेयर हार्वर्ड केनेडी स्कूल में फेलो और लेक्च रर हैं। दुनिया भर में लोकतंत्रों की समय-सम्मानित परंपरा में, एलएलएम असंगत रूप से प्रत्येक मतदाता की व्यक्तिगत प्रवृत्तियों के लिए अपील करने के लिए उम्मीदवार के विचारों का प्रतिनिधित्व कर सकता है।

लेखकों ने कहा कि वास्तव में, बड़े भाषा मॉडल (एलएलएम) की वर्तमान पीढ़ी की मौलिक रूप से आज्ञाकारी प्रकृति का परिणाम है कि वे डेमगॉग की तरह काम कर रहे हैं। वर्तमान एलएलएम मतिभ्रम करने के लिए जाने जाते हैं- या पूरी तरह से ऑफ-स्क्रिप्ट जाते हैं- और ऐसे उत्तर उत्पन्न करते हैं जिनका वास्तविकता में कोई आधार नहीं होता है। यह मॉडल किसी भी तरह से भावनाओं का अनुभव नहीं करते हैं, लेकिन कुछ शोध बताते हैं कि उनके पास अपने मानव उपयोगकर्ताओं की भावनाओं और लहजे का आकलन करने की परिष्कृत क्षमता है।

लेख में कहा गया है कि, हालांकि उन्हें इस उद्देश्य के लिए प्रशिक्षित नहीं किया गया था, चैटजीपीटी और इसके उत्तराधिकारी, जीपीटी-4, पहले से ही अपने कुछ उपयोगकर्ताओं के लक्षणों का आकलन करने में ठीक हो सकते हैं- कहते हैं, संभावना है कि टेक्स्ट प्रॉम्प्ट के लेखक उदास हैं। उनकी प्रेरक क्षमताओं के साथ, इसका मतलब है कि वह अपने मानव उपयोगकर्ताओं की भावनाओं को कुशलता से हेरफेर करना सीख सकते हैं।

स्टैनफोर्ड यूनिवर्सिटी के एक अध्ययन में पाया गया कि एआई के दुरुपयोग से संबंधित घटनाओं की संख्या तेजी से बढ़ रही है। एआईएएआईसी डेटाबेस के अनुसार, जो एआई के नैतिक दुरुपयोग से संबंधित घटनाओं को ट्रैक करता है, 2012 के बाद से एआई की घटनाओं और विवादों की संख्या में 26 गुना वृद्धि हुई है। 2022 में कुछ उल्लेखनीय घटनाओं में यूक्रेनी राष्ट्रपति वलोडिमिर जेलेंस्की के आत्मसमर्पण का वीडियो और अमेरिकी जेलों में उनके कैदियों पर कॉल-मॉनिटरिंग तकनीक का उपयोग करना शामिल था। यह वृद्धि एआई प्रौद्योगिकियों के अधिक उपयोग और दुरुपयोग की संभावनाओं के बारे में जागरूकता दोनों का प्रमाण है।

द सेंटर फॉर द गवर्नेंस ऑफ एआई के लिए एक शोध पत्र में मार्कस एंडरलजंग और जूलियन हेजेल ने कहा कि सत्तावादी सरकारें दमनकारी घरेलू निगरानी अभियानों की प्रभावकारिता में सुधार के लिए एआई का दुरुपयोग कर सकती हैं। चीनी सरकार चेहरे और आवाज की पहचान के मॉडल और भविष्य कहने वाला पुलिसिंग एल्गोरिदम सहित अपने खुफिया कार्यों को बेहतर बनाने के लिए तेजी से एआई की ओर रुख कर रही है।

संयुक्त राष्ट्र की एक हालिया रिपोर्ट के अनुसार- विशेष रूप से, इन तकनीकों का उपयोग झिंजियांग क्षेत्र में उईघुर आबादी के उत्पीड़न के लिए किया गया है। यह उत्पीड़न मानवता के खिलाफ अपराध हो सकता है।

प्रतिक्रिया में, यह सुझाव दिया गया है कि लोकतांत्रिक देश निर्यात नियंत्रणों को डिजाइन करने के लिए समन्वय करते हैं जो इन प्रौद्योगिकियों के सत्तावादी शासनों के प्रसार को रोकते हैं। शोध पत्र में कहा गया है कि, महत्वपूर्ण दुरुपयोग क्षमता के साथ घातक स्वायत्त हथियार प्रणाली (एलएडब्ल्यूएस) बनाने के लिए एआई का उपयोग किया जा सकता है। कुछ आलोचकों ने तर्क दिया है कि एलएडब्ल्यूएस मानव कमांडरों को कानूनी जवाबदेही के बिना आपराधिक कृत्य करने में सक्षम बना सकता है, गैर-राज्य अभिनेताओं द्वारा आतंकवाद के कृत्यों को अंजाम देने और मानवाधिकारों का उल्लंघन करने के लिए इस्तेमाल किया जा सकता है।

इसके अलावा, एलएलएम दुर्भावनापूर्ण अभिनेताओं को तेजी से परिष्कृत और प्रेरक प्रचार और गलत सूचना के अन्य रूपों को उत्पन्न करने में सक्षम बना सकते हैं। स्वचालित फिशिंग हमलों के समान, एलएलएम बड़े पैमाने पर प्रचार अभियानों के पैमाने और परिष्कार दोनों को बढ़ा सकता है। प्रचार को स्वचालित करने के लिए बड़े भाषा मॉडल के उपयोग से प्रचारकों की संख्या अधिक हो सकती है क्योंकि शारीरिक श्रम पर निर्भरता कम हो जाती है, इस प्रकार इन अभियानों की कुल लागत कम हो जाती है।

इसके अलावा, प्रतिकूल संदर्भों में राजनीतिक हस्तियों को चित्रित करके गलत सूचना फैलाने के लिए छवि निर्माण मॉडल का उपयोग किया जा सकता है।

केसी/

देश विदेश की तमाम बड़ी खबरों के लिए निहारिका टाइम्स को फॉलो करें। हमें फेसबुक पर लाइक करें और ट्विटर पर फॉलो करें। ताजा खबरों के लिए हमेशा निहारिका टाइम्स पर जाएं।

Share This Article