ताजा खबर

OpenAI का दावा, अमेरिकी चुनावों को प्रभावित करने के लिए ChatGPT का लिया जा रहा है सहारा

Photo Source :

Posted On:Thursday, October 10, 2024

मुंबई, 10 अक्टूबर, (न्यूज़ हेल्पलाइन) हाल के वर्षों में, कृत्रिम बुद्धिमत्ता के उदय ने न केवल प्रौद्योगिकी में क्रांति ला दी है, बल्कि साइबर सुरक्षा और चुनाव अखंडता में नई चुनौतियाँ भी खड़ी की हैं। OpenAI ने हाल ही में ऐसे खतरनाक उदाहरणों को उजागर किया है जहाँ साइबर अपराधियों ने अमेरिकी चुनावों को प्रभावित करने के लिए AI टूल, विशेष रूप से ChatGPT का शोषण किया है। यह विकास गलत सूचना, हेरफेर और लोकतांत्रिक प्रक्रियाओं के समग्र स्वास्थ्य के बारे में महत्वपूर्ण चिंताएँ पैदा करता है।

साइबर अपराधियों ने पाया है कि ChatGPT जैसे AI मॉडल अभूतपूर्व पैमाने पर सुसंगत, प्रेरक पाठ उत्पन्न कर सकते हैं। इस तकनीक का लाभ उठाकर, दुर्भावनापूर्ण अभिनेता फर्जी समाचार लेख, सोशल मीडिया पोस्ट और यहाँ तक कि मतदाताओं को गुमराह करने के लिए डिज़ाइन की गई धोखाधड़ी वाली अभियान सामग्री भी बना सकते हैं। बुधवार को सामने आई रिपोर्ट में, कंपनी ने पाया कि उसके AI मॉडल का इस्तेमाल फर्जी सामग्री बनाने के लिए किया गया है, जिसमें चुनावों को प्रभावित करने के उद्देश्य से लंबे-फॉर्म लेख और सोशल मीडिया टिप्पणियाँ शामिल हैं। ये AI-जनरेटेड संदेश वैध समाचार आउटलेट की शैली की नकल कर सकते हैं, जिससे आम नागरिक के लिए सच और झूठ में अंतर करना मुश्किल हो जाता है।

इस प्रवृत्ति के सबसे चिंताजनक पहलुओं में से एक साइबर अपराधियों की अपने संदेशों को विशिष्ट जनसांख्यिकी के अनुरूप ढालने की क्षमता है। डेटा माइनिंग तकनीकों का उपयोग करके, वे मतदाता व्यवहार और वरीयताओं का विश्लेषण कर सकते हैं, ऐसे संदेश तैयार कर सकते हैं जो लक्षित दर्शकों के साथ प्रतिध्वनित हों। वैयक्तिकरण का यह स्तर गलत सूचना अभियानों की प्रभावशीलता को बढ़ाता है, जिससे बुरे अभिनेता मौजूदा राजनीतिक विभाजन का फायदा उठा सकते हैं और सामाजिक कलह को बढ़ा सकते हैं।

OpenAI ने इस वर्ष प्रभाव संचालन के लिए ChatGPT का दुरुपयोग करने के 20 से अधिक प्रयासों को विफल कर दिया है। अगस्त में, कंपनी ने चुनाव-संबंधी लेख बनाने वाले खातों को ब्लॉक कर दिया। इसके अतिरिक्त, जुलाई में, रवांडा के खातों को उस देश के चुनावों को प्रभावित करने के उद्देश्य से सोशल मीडिया टिप्पणियाँ बनाने के लिए प्रतिबंधित कर दिया गया था।

इसके अलावा, जिस गति से AI सामग्री उत्पन्न कर सकता है, उसका मतलब है कि गलत सूचना तेजी से फैल सकती है। पारंपरिक तथ्य-जांच और प्रतिक्रिया तंत्र झूठी सूचनाओं की बाढ़ के साथ तालमेल बिठाने के लिए संघर्ष करते हैं। यह गतिशीलता एक ऐसा वातावरण बनाती है जहाँ मतदाताओं पर परस्पर विरोधी आख्यानों की बौछार होती है, जिससे उनकी निर्णय लेने की प्रक्रिया और जटिल हो जाती है।

OpenAI के निष्कर्ष स्वचालित सोशल मीडिया अभियानों में ChatGPT के उपयोग की क्षमता को भी रेखांकित करते हैं। यह हेरफेर जनता की धारणा को प्रभावित कर सकता है, जिससे वास्तविक समय में मतदाता की भावना प्रभावित हो सकती है, खासकर चुनावों से पहले के महत्वपूर्ण क्षणों में। हालाँकि, OpenAI के अनुसार, ChatGPT द्वारा जनित सामग्री के माध्यम से वैश्विक चुनावों को प्रभावित करने के प्रयास अब तक महत्वपूर्ण गति प्राप्त करने में विफल रहे हैं, जिनमें से कोई भी वायरल प्रसार या बड़े दर्शकों को बनाए रखने में सफल नहीं हुआ है। लेकिन यह सभी के लिए एक बड़ा खतरा है।

यूएस डिपार्टमेंट ऑफ होमलैंड सिक्योरिटी ने भी रूस, ईरान और चीन द्वारा आर्टिफिशियल इंटेलिजेंस से संचालित गलत सूचना रणनीति के माध्यम से आगामी नवंबर के चुनावों को प्रभावित करने के प्रयास के बारे में चिंता जताई है। कथित तौर पर ये देश नकली या विभाजनकारी जानकारी फैलाने के लिए AI का उपयोग कर रहे हैं, जो चुनाव की अखंडता के लिए एक बड़ा खतरा है।


बीकानेर, देश और दुनियाँ की ताजा ख़बरे हमारे Facebook पर पढ़ने के लिए यहां क्लिक करें,
और Telegram चैनल पर पढ़ने के लिए यहां क्लिक करें



मेरा गाँव मेरा देश

अगर आप एक जागृत नागरिक है और अपने आसपास की घटनाओं या अपने क्षेत्र की समस्याओं को हमारे साथ साझा कर अपने गाँव, शहर और देश को और बेहतर बनाना चाहते हैं तो जुड़िए हमसे अपनी रिपोर्ट के जरिए. bikanervocalsteam@gmail.com

Follow us on

Copyright © 2021  |  All Rights Reserved.

Powered By Newsify Network Pvt. Ltd.