कृत्रिम बुद्धिमत्ता समाज के लिए नए खतरे लाती है, जिसका समाधान “सीधे तौर पर” किया जाना चाहिए, प्रधानमंत्री गुरुवार को चेतावनी देंगे, क्योंकि सरकार ने स्वीकार किया कि वह इस बात से इंकार नहीं कर सकती कि प्रौद्योगिकी अस्तित्व के लिए खतरा पैदा कर रही है।

ऋषि सुनक शक्तिशाली एआई सिस्टम द्वारा पेश किए गए आर्थिक विकास के लिए “नए अवसरों” का उल्लेख करेंगे, लेकिन यह भी स्वीकार करेंगे कि वे “नए खतरे” लाते हैं जिनमें साइबर अपराध में वृद्धि, दुष्प्रचार और नौकरियों में उथल-पुथल के जोखिम शामिल हैं।

ब्रिटेन सरकार द्वारा अगले सप्ताह बैलेचले पार्क में एआई सुरक्षा शिखर सम्मेलन में वैश्विक राजनेताओं, तकनीकी अधिकारियों और विशेषज्ञों की मेजबानी करने की तैयारी के बीच दिए गए भाषण में, सुनक से प्रौद्योगिकी द्वारा उत्पन्न जोखिमों के बारे में ईमानदारी का आह्वान करने की उम्मीद है।

“मेरे लिए ज़िम्मेदारी का काम उन आशंकाओं को दूर करना है, जिससे आपको मानसिक शांति मिलेगी कि हम आपको सुरक्षित रखेंगे, साथ ही यह सुनिश्चित करेंगे कि आपके और आपके बच्चों के पास बेहतर भविष्य के सभी अवसर हों जो एआई ला सकता है।” सुनक कहेंगे.

“सही काम करना, आसान काम नहीं, का मतलब इन प्रौद्योगिकियों से होने वाले जोखिमों के बारे में लोगों के साथ ईमानदार होना है।”

बुधवार को प्रकाशित सरकारी दस्तावेजों में एआई से होने वाले खतरों को रेखांकित किया गया। फ्रंटियर एआई के भविष्य के जोखिमों पर एक पेपर – उन्नत एआई सिस्टम के लिए शब्द जो शिखर सम्मेलन में बहस का विषय होगा – में कहा गया है कि प्रौद्योगिकी से अस्तित्व संबंधी जोखिमों को खारिज नहीं किया जा सकता है।

“एआई विकास की भविष्यवाणी में महत्वपूर्ण अनिश्चितता को देखते हुए, इस बात से इनकार करने के लिए अपर्याप्त सबूत हैं कि अत्यधिक सक्षम फ्रंटियर एआई सिस्टम, अगर गलत तरीके से या अपर्याप्त रूप से नियंत्रित किया जाता है, तो अस्तित्व के लिए खतरा पैदा हो सकता है।”

हालाँकि, दस्तावेज़ यह भी कहते हैं कि कई विशेषज्ञ जोखिम को बहुत कम मानते हैं। ऐसी प्रणाली को हथियारों या वित्तीय प्रणालियों पर नियंत्रण देने या हासिल करने की आवश्यकता होगी और फिर सुरक्षा उपायों को अप्रभावी बनाते हुए उनमें हेरफेर करने में सक्षम होना चाहिए।

दस्तावेज़ में जोखिम के बारे में विशेषज्ञों की चेतावनी का भी उल्लेख है कि अस्तित्व संबंधी प्रश्न “अधिक तात्कालिक और कुछ जोखिमों से दूर” ध्यान खींचता है।

शिखर सम्मेलन में 100 उपस्थित लोगों के बीच वितरित किया जाने वाला एक चर्चा पत्र इनमें से कई जोखिमों को रेखांकित करता है। इसमें कहा गया है कि एआई में नवाचार की वर्तमान लहर “हमारे जीने के तरीके को मौलिक रूप से बदल देगी” और कैंसर के इलाज, नई दवाओं की खोज और परिवहन को हरित बनाने सहित क्षेत्रों में भी सफलताएं ला सकती है।

हालाँकि, यह बैठक में चर्चा किए जाने वाले चिंता के क्षेत्रों की रूपरेखा तैयार करता है, जिसमें एआई टूल द्वारा अभूतपूर्व पैमाने और परिष्कार के स्तर पर “अति-लक्षित” दुष्प्रचार उत्पन्न करने की संभावना भी शामिल है।

चर्चा दस्तावेज़ में कहा गया है, “इससे ‘व्यक्तिगत’ दुष्प्रचार हो सकता है, जहां विशिष्ट संदेश बड़े समूहों के बजाय व्यक्तियों पर लक्षित होते हैं और इसलिए अधिक प्रेरक होते हैं,” जो सच्ची जानकारी और नागरिक में सार्वजनिक विश्वास में कमी की संभावना की चेतावनी देता है। चुनाव जैसी प्रक्रियाएँ।

इसमें कहा गया है, “फ्रंटियर एआई का दुरुपयोग जानबूझकर गलत जानकारी फैलाने, व्यवधान पैदा करने, राजनीतिक मुद्दों पर लोगों को मनाने या अन्य प्रकार की हानि या नुकसान पहुंचाने के लिए किया जा सकता है।”

पेपर द्वारा उठाए गए अन्य जोखिमों में साइबर हमले करने और जैविक हथियार डिजाइन करने के लिए उन्नत मॉडल की क्षमता शामिल है।

पेपर में कहा गया है कि उन्नत मॉडलों के सुरक्षा परीक्षण के लिए कोई स्थापित मानक या इंजीनियरिंग सर्वोत्तम प्रथाएं नहीं हैं। इसमें कहा गया है कि सिस्टम अक्सर एक देश में विकसित किए जाते हैं और दूसरे देश में तैनात किए जाते हैं, जो वैश्विक समन्वय की आवश्यकता को रेखांकित करता है।

दस्तावेज़ में कहा गया है, “फ्रंटियर एआई बुरे अभिनेताओं को साइबर हमले करने, दुष्प्रचार अभियान चलाने और जैविक या रासायनिक हथियार डिजाइन करने में मदद कर सकता है।” “फ्रंटियर एआई निश्चित रूप से कम परिष्कृत खतरे वाले अभिनेताओं के लिए प्रवेश की बाधाओं को कम करना जारी रखेगा।”

उदाहरण के लिए, प्रौद्योगिकी साइबर जोखिमों को “काफ़ी हद तक बढ़ा” सकती है, उदाहरण के लिए अनुरूप फ़िशिंग हमले बनाकर – जहाँ किसी को, अक्सर ईमेल के माध्यम से, मैलवेयर डाउनलोड करने या पासवर्ड जैसी संवेदनशील जानकारी प्रकट करने के लिए धोखा दिया जाता है। दस्तावेज़ में कहा गया है कि अन्य एआई सिस्टम ने ऐसे कंप्यूटर वायरस बनाने में मदद की है जो पहचान से बचने के लिए समय के साथ बदलते हैं।

यह उन डेवलपर्स द्वारा “नीचे की ओर दौड़” की भी चेतावनी देता है जहां सुरक्षा प्रणालियों में कम निवेश करते हुए प्राथमिकता सिस्टम का तेजी से विकास करना है।

चर्चा दस्तावेज़ नौकरी में व्यवधान को भी चिह्नित करता है, जिसमें आईटी, कानूनी और वित्तीय उद्योग कुछ कार्यों को स्वचालित करने वाले एआई से उथल-पुथल के संपर्क में हैं।

यह चेतावनी देता है कि सिस्टम जिस डेटा पर उन्हें प्रशिक्षित किया जाता है, उसमें निहित पूर्वाग्रहों को भी पुन: उत्पन्न कर सकता है। दस्तावेज़ में कहा गया है: “फ्रंटियर एआई सिस्टम को न केवल दोहराने के लिए बल्कि उनके प्रशिक्षण डेटा में निहित पूर्वाग्रहों को बनाए रखने के लिए भी पाया गया है।”

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *