माइक्रोसफ्टले खराब उद्देश्यका लागि Azure AI को शोषण गर्ने ह्याकरहरू विरुद्ध कानुनी कारबाही गर्छ

साइबर अपराध विरुद्ध माइक्रोसफ्टको चलिरहेको लडाईले Azure को जेनेरेटिभ एआई सेवाहरूको शोषण गरेको आरोपमा ह्याकिङ समूहलाई लक्षित गरी नयाँ उचाइमा पुगेको छ। टेक दिग्गजले खुलासा गर्यो कि विदेशी-आधारित खतरा अभिनेताहरूले Azure AI को सुरक्षा प्रोटोकलहरू बाइपास गर्न, हानिकारक सामग्री र मालवेयरको सिर्जनालाई सक्षम पार्दै ह्याकिंग-एज-ए-सर्भिस प्लेटफर्म सिर्जना गरे।
यस केसले विश्वभरका संगठनहरूका लागि महत्त्वपूर्ण साइबरसुरक्षा चुनौतीहरू खडा गर्दै खराब उद्देश्यका लागि एआई प्लेटफर्महरू प्रयोग गर्ने साइबर अपराधीहरूले बढ्दो जोखिमहरूलाई रेखांकित गर्दछ।
सामग्रीको तालिका
कसरी ह्याकरहरूले माइक्रोसफ्टको Azure AI को शोषण गरे
Microsoft को डिजिटल अपराध एकाइ (DCU) ले जुलाई 2024 मा अपरेशनको पर्दाफाश गर्यो। समूहले चोरी ग्राहक प्रमाणहरू प्रयोग गर्यो, सार्वजनिक स्रोतहरूबाट संकलन गरी Azure प्रणालीहरू उल्लंघन गर्न र OpenAI को DALL-E जस्ता AI मोडेलहरूसँग छेडछाड गर्न।
मुख्य विवरणहरू समावेश छन्:
- प्रमाण चोरी : Azure OpenAI सेवाहरू पहुँच गर्न चोरी गरिएको Azure API कुञ्जीहरू र Entra ID प्रमाणीकरण डेटा प्रयोग गरियो।
- हानिकारक सामग्री सिर्जना : समूहले आपत्तिजनक छविहरू उत्पन्न गर्न र AI सामग्री फिल्टरहरू बाइपास गर्न उपकरणहरू सिर्जना गरेर तिनीहरूको पहुँचलाई मुद्रीकरण गर्यो।
- Hacking-as-a-Service : समूहले aitism[.]net जस्ता वेबसाइटहरू मार्फत आफ्ना उपकरणहरूमा पहुँच बेच्यो र अन्य साइबर अपराधीहरूसँग प्रयोग निर्देशनहरू साझा गर्यो।
यी गतिविधिहरूले हजारौं हानिकारक छविहरूको गैरकानूनी उत्पादन र थप अवैध AI दुरुपयोगको सुविधाको नेतृत्व गर्यो, जबकि अपराधीहरूले उनीहरूको डिजिटल फुटप्रिन्टहरू मेटाउने प्रयास गरे।
मालवेयर जडान
जेनेरेटिभ एआई सेवाहरूको दुरुपयोगले मालवेयर विकासको लागि फराकिलो प्रभाव पार्छ। डरलाग्दो अभिनेताहरूले सम्भावित रूपमा गर्न सक्छन्:
- विश्वसनीय प्लेटफर्महरूको नक्कल गर्न डिजाइन गरिएको फिसिङ लुर्स वा नक्कली वेबसाइटहरू उत्पन्न गर्नुहोस्।
यस शोषणले ह्याकिङ समूहहरूले कसरी साइबर आक्रमणहरू सञ्चालन गर्नका लागि चोरी गरिएका प्रमाणहरू र उन्नत AI क्षमताहरूलाई मिलाएर तिनीहरूको रणनीतिहरू विकास गर्दैछन् भनेर प्रकाश पार्छ।
उल्टो प्रोक्सी शोषण र LLMjacking
केसको एउटा उल्लेखनीय पक्ष भनेको रिभर्स प्रोक्सीहरूको प्रयोग हो, जस्तै de3u उपकरण। यी प्रोक्सीहरूले वैध API कलहरूको नक्कल गर्दै, Azure OpenAI सेवाहरूमा क्लाउडफ्लेयर टनेल मार्फत प्रयोगकर्ता उपकरणहरूबाट सञ्चारहरू पुन: निर्देशित गरे।
यस प्रविधिले LLMjacking आक्रमणहरूमा पहिचान गरिएका रणनीतिहरू प्रतिबिम्बित गर्दछ, जहाँ चोरिएको क्लाउड प्रमाणहरू एन्थ्रोपिक, AWS बेडरोक, र Google Vertex AI जस्ता ठूला भाषा मोडेल (LLM) सेवाहरू पहुँच गर्न प्रयोग गरिन्छ। त्यस्ता योजनाहरूले खतरा अभिनेताहरूलाई क्लाउड-आधारित एआई उपकरणहरू अपहरण गर्न अनुमति दिन्छ, प्राय: अन्य अपराधीहरूलाई बेचेर पहुँच मुद्रीकरण गर्दछ।
माइक्रोसफ्टको काउन्टरमेजर र फराकिलो प्रभावहरू
यस अपरेशनको प्रतिक्रियामा, माइक्रोसफ्ट:
- रद्द गरिएको पहुँच : समूहको चोरी प्रमाणहरू असक्षम पारियो र तिनीहरूको सेवा पूर्वाधार बन्द गरियो।
- कब्जा गरिएका डोमेनहरू : aitism [.]नेट बन्द गर्न अदालतको आदेश प्राप्त भयो।
- बलियो प्रतिरक्षा : भविष्यमा यस्तै दुर्व्यवहारहरू रोक्न थप सुरक्षाहरू लागू गरियो।
यद्यपि, माइक्रोसफ्टले अन्य एआई सेवा प्रदायकहरूलाई लक्षित गर्ने समूहको प्रमाण पनि फेला पारेको छ, जसले साइबर सुरक्षा परिदृश्यमा एआई दुरुपयोगको ठूलो प्रवृत्तिलाई सुझाव दिन्छ।
एआई उपकरण: एक दोहोरो-धारी तरवार
ChatGPT र DALL-E जस्ता जेनेरेटिभ एआई उपकरणहरूले धेरै फाइदाहरू प्रदान गर्दा, साइबर अपराधीहरूद्वारा तिनीहरूको दुरुपयोगले परिष्कृत सुरक्षा प्रोटोकलहरूको तत्काल आवश्यकतालाई हाइलाइट गर्दछ:
- API सुरक्षा : संस्थाहरूले अनाधिकृत पहुँच रोक्न API कुञ्जीहरूको लागि बलियो सुरक्षा सुनिश्चित गर्नुपर्छ।
- खतरा निगरानी : एआई सेवा प्रयोगको निरन्तर अनुगमनले असामान्य व्यवहार पत्ता लगाउन र रोक्न मद्दत गर्न सक्छ।
माइक्रोसफ्टको मुद्दाले एआई र साइबर अपराधको खतरनाक प्रतिच्छेदनमा प्रकाश पार्छ। धम्की दिने व्यक्तिहरूले हानिकारक सामग्री उत्पन्न गर्न र मालवेयरको विकास गर्न AI सेवाहरूको बढ्दो रूपमा शोषण गर्दा, संगठनहरूले आफ्नो AI पूर्वाधारको सुरक्षालाई प्राथमिकता दिनुपर्छ।
केसले एकदमै रिमाइन्डरको रूपमा काम गर्दछ: एआईले टेक्नोलोजीको भविष्यलाई प्रतिनिधित्व गर्दछ, यसको कमजोरीहरूलाई हतियार बनाउन सकिन्छ, जसले डिजिटल खतराहरू विरुद्धको लडाईमा बलियो साइबर सुरक्षा उपायहरूलाई पूर्ण आवश्यकता बनाउँछ।