एआई भ्रमले सफ्टवेयर आपूर्ति शृङ्खलामा नयाँ खतरा निम्त्याउँछ

कोडिङको लागि कृत्रिम बुद्धिमत्तामा भर पर्ने विकासकर्ताहरू र संस्थाहरूका लागि एउटा नयाँ र रोमाञ्चक विकासमा, अनुसन्धानकर्ताहरूले कोड-उत्पादन गर्ने मोडेलहरूमा एआई भ्रमहरूद्वारा सिर्जना गरिएको एउटा नयाँ आपूर्ति श्रृंखला खतरा पत्ता लगाएका छन्। यो उदीयमान आक्रमण भेक्टर, जसलाई स्लपस्क्वाटिंग भनिन्छ, ले ठूला भाषा मोडेलहरू (LLMs) द्वारा भ्रमित काल्पनिक प्याकेजहरूको फाइदा उठाएर सफ्टवेयर इकोसिस्टमहरूमा घुसपैठ गर्न दुर्भावनापूर्ण अभिनेताहरूलाई अनुमति दिन सक्छ।
खतरा यो तथ्यमा निहित छ कि LLM हरूले प्रायः प्याकेजहरूलाई "भ्रम" पार्छन् - सफ्टवेयर निर्भरताहरूको सन्दर्भहरू सुझाव दिन्छन् वा सम्मिलित गर्छन् जुन केवल अवस्थित छैनन्। सान एन्टोनियोको टेक्सास विश्वविद्यालय, ओक्लाहोमा विश्वविद्यालय र भर्जिनिया टेकद्वारा संयुक्त रूपमा गरिएको अनुसन्धानमा, यो पत्ता लाग्यो कि परीक्षण गरिएका १६ लोकप्रिय LLM मध्ये कुनै पनि यस घटनाबाट मुक्त थिएनन्।
सामग्रीको तालिका
स्लपस्क्वाटिंग भनेको के हो र यो कसरी काम गर्छ?
स्लपस्क्वाटिंगले यो भ्रम दोष लिन्छ र यसलाई हतियारमा परिणत गर्छ। कोड उत्पादनको क्रममा जब LLM ले अस्तित्वमा नभएको प्याकेज सुझाव दिन्छ, साइबर अपराधीहरूले त्यो नाम अन्तर्गत द्रुत रूपमा दुर्भावनापूर्ण प्याकेज दर्ता गर्न सक्छन्। एक पटक प्रकाशित भएपछि, कुनै पनि विकासकर्ता जसले AI-उत्पन्न कोडलाई अंकित मूल्यमा स्वीकार गर्दछ, अनजानमा दुर्भावनापूर्ण प्याकेज आयात र चलाउन सक्छ। यसले व्यक्तिगत परियोजनालाई मात्र सम्झौता गर्दैन तर संक्रमित कोड पुन: प्रयोग वा साझा गरिएको खण्डमा सम्पूर्ण सफ्टवेयर आपूर्ति श्रृंखलाहरूमा पनि फैलिन सक्छ।
अध्ययनले पत्ता लगायो कि पाइथन र जाभास्क्रिप्ट परीक्षण परिदृश्यहरूमा उत्पन्न गरिएका २.२३ मिलियन प्याकेजहरू मध्ये, लगभग ४४०,००० - वा लगभग १९.७% - भ्रमित थिए। यी मध्ये, आश्चर्यजनक २०५,४७४ अद्वितीय काल्पनिक प्याकेज नामहरू थिए। धेरैजसो भ्रमित प्याकेजहरू - ८१% - तिनीहरूलाई उत्पन्न गर्ने विशिष्ट मोडेलको लागि अद्वितीय थिए, जसले विभिन्न LLM हरूमा असंगत व्यवहारहरूलाई औंल्याउँछ।
व्यावसायिक एआई मोडेलहरूले कम्तिमा ५.२% केसहरूमा भ्रमित प्याकेजहरू देखाए, जबकि खुला-स्रोत मोडेलहरूले भ्रम दर २१.७% पुगेर उल्लेखनीय रूपमा खराब प्रदर्शन गरे। चिन्ताजनक रूपमा, यी त्रुटिहरू केवल एक पटकको त्रुटिहरू थिएनन्। आधाभन्दा बढी भ्रमित प्याकेजहरू (५८%) केवल १० पुनरावृत्तिहरू भित्र बारम्बार देखा परे, जसले दृढताको लागि स्पष्ट प्रवृत्ति देखाउँछ।
सफ्टवेयर विकासमा एआई-उत्पन्न कोडको बढ्दो जोखिम
अघिल्ला अध्ययनहरूले टाइपोस्क्वाटिङको खतरालाई स्वीकार गरेका छन् - जहाँ आक्रमणकारीहरूले गलत टाइप गरिएका वा भ्रामक प्याकेज नामहरूको शोषण गर्छन् - यो नयाँ स्लोपस्क्वाटिङ आक्रमणले बेवास्ता गरिएको र सम्भावित रूपमा धेरै खतरनाक प्रकारलाई प्रतिनिधित्व गर्दछ। टाइपोस्क्वाटिङको विपरीत, जसले मानव त्रुटिको शिकार गर्छ, स्लोपस्क्वाटिङले एआई-उत्पन्न कोडको कथित अधिकार र विश्वसनीयताको लाभ उठाउँछ।
सायद सबैभन्दा रोचक - र उत्तिकै चिन्ताजनक - अनुसन्धानकर्ताहरूले पत्ता लगाए कि LLM हरू आफ्नै धेरै भ्रमहरू पहिचान गर्न सक्षम थिए। यसले भविष्यको सुरक्षा संयन्त्रहरूमा प्रयोग गर्न सकिने एक अप्रयुक्त आत्म-नियामक क्षमतालाई सुझाव दिन्छ। यसले दोषपूर्ण वा खतरनाक कोडको वितरण रोक्नको लागि इन-मोडेल पत्ता लगाउने उपकरणहरू तैनाथ गर्ने सम्भावनालाई पनि संकेत गर्दछ।
विकासकर्ताहरूले एआई प्याकेज भ्रमबाट कसरी जोगाउन सक्छन्
खतराको सामना गर्न, अनुसन्धानकर्ताहरूले विभिन्न प्रकारका न्यूनीकरणहरू प्रस्ताव गर्छन्। यसमा रिट्रिभल अगमेन्टेड जेनेरेसन (RAG), प्रम्प्ट ट्युनिङ, र सेल्फ-रिफाइनमेन्ट जस्ता उन्नत प्रम्प्ट इन्जिनियरिङ प्रविधिहरू समावेश छन्। मोडेल विकास पक्षमा, पर्यवेक्षित फाइन-ट्युनिङ र सुधारिएको डिकोडिङ एल्गोरिदम जस्ता रणनीतिहरूले भ्रम दरहरू कम गर्न मद्दत गर्न सक्छन्।
जेनेरेटिभ एआईले सफ्टवेयर विकासलाई रूपान्तरण गर्न जारी राख्दै गर्दा, यो अध्ययनले सुविधाको मूल्य चुकाउन सक्छ भन्ने कुराको स्पष्ट सम्झना गराउँछ। विकासकर्ताहरूले एआई-उत्पन्न कोडको बारेमा सतर्क र आलोचनात्मक रहनुपर्छ, विशेष गरी जब यो निर्भरता व्यवस्थापनको कुरा आउँछ। कुनै पनि सिफारिस गरिएका प्याकेजहरू स्थापना गर्नु अघि स्थिर विश्लेषण उपकरणहरू र म्यानुअल समीक्षाहरू एकीकृत गर्नु अब पहिले भन्दा बढी महत्त्वपूर्ण छ।
खतराको परिदृश्य द्रुत गतिमा विकसित हुँदैछ, र यो अनुसन्धानले देखाएको छ, हाम्रो प्रतिरक्षा पनि त्यस्तै हुनुपर्छ। पहिले विज्ञान कथा जस्तो लाग्ने कुरा - एआईले अस्तित्वमा नभएको सफ्टवेयरको कल्पना गर्ने - व्यापक प्रभावहरू सहितको एक वास्तविक साइबर सुरक्षा चिन्ता बनेको छ।