AI-இயக்கப்படும் தீம்பொருள் 10,000 வகைகளை உருவாக்குவதன் மூலம் கண்டறிதல் அமைப்புகளை மூழ்கடிக்க அச்சுறுத்துகிறது

சைபர் செக்யூரிட்டி ஆராய்ச்சியாளர்கள் மால்வேர் மேம்பாட்டை சூப்பர்சார்ஜ் செய்ய பெரிய மொழி மாதிரிகளை (எல்எல்எம்) தவறாகப் பயன்படுத்துவதைப் பற்றி எச்சரிக்கை விடுத்துள்ளனர். பாலோ ஆல்டோ நெட்வொர்க்கின் யூனிட் 42 இன் புதிய பகுப்பாய்வு, எல்எல்எம்கள், புதிதாக மால்வேரை உருவாக்குவதில் திறமையாக இல்லாவிட்டாலும், ஏற்கனவே உள்ள தீங்கிழைக்கும் குறியீட்டை பெரிய அளவில் மீண்டும் எழுதலாம் மற்றும் குழப்பமடையச் செய்யலாம், இது 88% வழக்குகளில் கண்டறிதலைத் தவிர்க்கும் மாறுபாடுகளை உருவாக்குகிறது.
கண்டறிதல் அமைப்புகளைத் தவிர்க்கவும், இயந்திரக் கற்றல் மாதிரிகளை சிதைக்கவும் மற்றும் தீம்பொருளின் எப்போதும் விரிவடையும் ஆயுதக் களஞ்சியத்தை வரிசைப்படுத்தவும் அச்சுறுத்தும் நடிகர்கள் உருவாக்கும் AI ஐ எவ்வாறு பயன்படுத்திக் கொள்ளலாம் என்பது பற்றிய முக்கியமான கவலைகளை இது எழுப்புகிறது.
பொருளடக்கம்
AI-மேம்படுத்தப்பட்ட மால்வேர் உருவாக்கத்தின் இயக்கவியல்
யூனிட் 42 இன் படி, குற்றவாளிகள் எல்எல்எம்களை தீங்கிழைக்கும் ஜாவாஸ்கிரிப்ட் குறியீட்டில் மாற்றங்களைச் செய்யத் தூண்டலாம், இதனால் கண்டறிதல் அமைப்புகளுக்கு மீண்டும் எழுதப்பட்ட ஸ்கிரிப்ட்களைக் கொடியிடுவது மிகவும் கடினம் . குறைவான உறுதியான வெளியீடுகளை உருவாக்கும் பாரம்பரிய தெளிவற்ற கருவிகளைப் போலல்லாமல், எல்எல்எம்-உந்துதல் மீண்டும் எழுதுவது மிகவும் இயல்பானதாகவும் கண்டறிய கடினமாகவும் தோன்றும்.
முக்கிய உருமாற்ற நுட்பங்கள் பின்வருமாறு:
- மாறி மறுபெயரிடுதல்
- சரம் பிரித்தல்
- குப்பைக் குறியீட்டைச் செருகுதல்
- இடைவெளியை அகற்றுதல்
- முழுமையான குறியீடு மறுசீரமைப்பு
ஒவ்வொரு மறு செய்கையும் ஒரு புதிய மால்வேர் மாறுபாட்டை உருவாக்குகிறது, இது அசல் தீங்கிழைக்கும் செயல்பாட்டை பராமரிக்கிறது, அதே நேரத்தில் கண்டறியப்படுவதற்கான வாய்ப்புகளை கணிசமாகக் குறைக்கிறது.
ஏற்கனவே உள்ள மால்வேர் மாதிரிகளில் இருந்து 10,000 ஜாவாஸ்கிரிப்ட் மாறுபாடுகளை உருவாக்க LLMகளைப் பயன்படுத்தி யூனிட் 42 இந்த அணுகுமுறையை நிரூபித்தது. இந்த மாறுபாடுகள் மால்வேர் வகைப்படுத்திகளை வெற்றிகரமாக ஏமாற்றின, இதில் PhishingJS மற்றும் Innocent Until Proven Guilty (IUPG) போன்ற பரவலாகப் பயன்படுத்தப்படும் மாடல்கள் அடங்கும். பல சந்தர்ப்பங்களில், வைரஸ் டோட்டல் இயங்குதளம் கூட மீண்டும் எழுதப்பட்ட ஸ்கிரிப்ட்களை தீங்கிழைக்கும் என்று கண்டறியத் தவறிவிட்டது.
AI தெளிவின்மையின் ஆபத்தான விளிம்பு
obfuscator.io போன்ற பழைய கருவிகளைப் போலல்லாமல், இது மிகவும் எளிதாகக் கண்டறியக்கூடிய மற்றும் கைரேகையைப் பெறக்கூடிய வடிவங்களை உருவாக்குகிறது, LLM-அடிப்படையிலான மறுபதிப்புகள் இயல்பாகவே மிகவும் நுட்பமானவை. அவை முறையான குறியீட்டிற்கு நெருக்கமாகத் தோன்றுகின்றன, இதனால் இயந்திரக் கற்றல் (ML) மாதிரிகள் மற்றும் வைரஸ் தடுப்பு கருவிகளை அடையாளம் காண்பது கடினமாகிறது.
இந்த முறையின் தாக்கம் ஆழமானது:
- தீம்பொருள் வகைப்படுத்திகள் தீங்கிழைக்கும் ஸ்கிரிப்ட்களை தீங்கற்றவை என லேபிளிடுவதில் ஏமாற்றப்படுகின்றனர்.
- ML மாடல்கள் செயல்திறன் சிதைவை எதிர்கொள்கின்றன, தீம்பொருள் மாறுபாடுகளின் நிலையான பரிணாமத்தைத் தொடர போராடுகின்றன.
- எதிரிகள் தொடர்ந்து புதிய, கண்டறிய முடியாத தீம்பொருளை உருவாக்குவதால், கண்டறிதல் அமைப்புகள் வழக்கற்றுப் போகும் அபாயம் உள்ளது.
பரந்த சைபர் கிரைமுக்கு எல்எல்எம்களைப் பயன்படுத்துதல்
இந்த போக்கு தீம்பொருள் உருவாக்கம் மட்டும் அல்ல. தீங்கிழைக்கும் நடிகர்கள் WormGPT போன்ற முரட்டுக் கருவிகளைப் பயன்படுத்துகின்றனர், இது ஃபிஷிங் பிரச்சாரங்களை தானியங்குபடுத்துவதற்கும், குறிப்பிட்ட பாதிக்கப்பட்டவர்களுக்கு ஏற்றவாறு சமூகப் பொறியியல் தாக்குதல்களை உருவாக்குவதற்கும் உருவாக்கக்கூடிய AI ஐப் பயன்படுத்துகிறது.
எல்.எல்.எம் வழங்குநர்கள் துஷ்பிரயோகத்தைக் கட்டுப்படுத்த பாதுகாப்புச் சட்டங்களைச் செயல்படுத்தியுள்ளனர், அதாவது அக்டோபர் 2024 இல் OpenAI இன் சமீபத்திய 20 ஏமாற்றும் செயல்பாடுகளைத் தடுத்தது போன்ற, அச்சுறுத்தல் நடிகர்கள் தொடர்ந்து இந்த கட்டுப்பாடுகளைச் சுற்றி வழிகளைக் கண்டுபிடித்து வருகின்றனர்.
சில்வர் லைனிங்: நெருப்புடன் நெருப்பை எதிர்த்துப் போராடுதல்
அபாயங்கள் இருந்தபோதிலும், தீம்பொருளை மழுங்கடிக்கப் பயன்படுத்தப்படும் அதே LLM-உந்துதல் நுட்பங்கள் பாதுகாப்பாளர்களுக்கும் உதவும். தீம்பொருள் கண்டறிதல் மாதிரிகளின் வலிமையை மேம்படுத்தும் பயிற்சி தரவை உருவாக்க இந்த AI முறைகளைப் பயன்படுத்த அலகு 42 பரிந்துரைக்கிறது. வகைப்படுத்துபவர்களுக்கு தெளிவற்ற குறியீட்டின் பல எடுத்துக்காட்டுகளை வழங்குவதன் மூலம், ஆராய்ச்சியாளர்கள் மிகவும் மேம்பட்ட மாறுபாடுகளைக் கூட கண்டறியும் திறனை அதிகரிக்க முடியும்.
வளர்ந்து வரும் AI பாதிப்புகள்: TPUXtract தாக்குதல்
எல்எல்எம்-இயங்கும் தீம்பொருளின் எழுச்சி மட்டுமே AI தொடர்பான அச்சுறுத்தல் தலைப்புச் செய்திகளை உருவாக்கவில்லை. நார்த் கரோலினா ஸ்டேட் யுனிவர்சிட்டியின் ஆராய்ச்சியாளர்கள், கூகுளின் எட்ஜ் டென்சர் ப்ராசசிங் யூனிட்களில் (டிபியுக்கள்) AI மாதிரி கட்டமைப்புகளை திருடும் திறன் கொண்ட TPUXtract என அழைக்கப்படும் ஒரு பக்க-சேனல் தாக்குதலை வெளியிட்டுள்ளனர்.
நரம்பியல் நெட்வொர்க் அனுமானங்களின் போது வெளிப்படும் மின்காந்த சமிக்ஞைகளைப் படம்பிடிப்பதன் மூலம், தாக்குபவர்கள் அடுக்கு வகைகள், முனை எண்கள், வடிகட்டி அளவுகள் மற்றும் செயல்படுத்தும் செயல்பாடுகள் போன்ற விவரங்களை 99.91% துல்லியத்துடன் பிரித்தெடுக்க முடியும். இந்தத் தாக்குதலுக்கு சாதனம் மற்றும் விலையுயர்ந்த உபகரணங்களுக்கு உடல் அணுகல் தேவைப்பட்டாலும், இது அறிவுசார் சொத்துக்களுக்கு கடுமையான ஆபத்தை ஏற்படுத்துகிறது மற்றும் பின்தொடர்தல் சைபர் தாக்குதல்களை எளிதாக்குகிறது.
சைபர் செக்யூரிட்டிக்கு இது என்ன அர்த்தம்
உருவாக்கும் AI இன் விரைவான பரிணாமம் இணைய பாதுகாப்பிற்கான இரட்டை முனைகள் கொண்ட வாள் ஆகும் . இது புதுமைக்கான புதிய கதவுகளைத் திறக்கும் அதே வேளையில், சைபர் குற்றவாளிகளுக்கு முன்னோடியில்லாத கருவிகளையும் வழங்குகிறது.
- நிறுவனங்கள் முன்னெச்சரிக்கையுடன் செயல்பட வேண்டும் , AI-உந்துதல் தெளிவற்ற நுட்பங்களுக்கு ஏற்றவாறு மேம்பட்ட கண்டறிதல் அமைப்புகளில் முதலீடு செய்ய வேண்டும்.
- தவறான பயன்பாட்டைத் தடுக்க கடுமையான கட்டுப்பாடுகளை அமல்படுத்தும் அதே வேளையில், AI இன் நெறிமுறை பயன்பாட்டிற்கான தெளிவான வழிகாட்டுதல்களை கொள்கை வகுப்பாளர்கள் நிறுவ வேண்டும் .
- பாதுகாப்பு ஆராய்ச்சியாளர்கள் AI-ஐ பயன்படுத்தி எதிரிகளை விஞ்ச வேண்டும் , வளர்ந்து வரும் அச்சுறுத்தல்களை எதிர்கொள்ளக்கூடிய மீள் அமைப்புகளை உருவாக்க வேண்டும்.
AI மால்வேரின் எதிர்காலம்
எல்எல்எம்களின் திறன் 10,000 மால்வேர் வகைகளை உருவாக்குவது மற்றும் 88% வழக்குகளில் கண்டறிதலைத் தவிர்ப்பது, இணைய அச்சுறுத்தல்களின் வளர்ந்து வரும் நுட்பத்தை அப்பட்டமாக நினைவூட்டுகிறது. தொழில்நுட்பம் வளர்ச்சியடையும் போது, நமது பாதுகாப்பும் கூட வேண்டும். வணிகங்கள், அரசாங்கங்கள் மற்றும் சைபர் பாதுகாப்பு வல்லுநர்கள் தீங்கிழைக்கும் நடிகர்களை விட புதுமையான உத்திகளைக் கடைப்பிடிக்க வேண்டும் மற்றும் AI- இயங்கும் தாக்குதல்களிலிருந்து டிஜிட்டல் உலகைப் பாதுகாக்க வேண்டும்.