உலகளாவிய சைபர் கிரைம் பிரச்சாரங்களுக்கு எதிராக போராடும் 20 தீங்கிழைக்கும் சைபர் செயல்பாடுகளை OpenAI தடுக்கிறது

ஆச்சரியப்படும் விதமாக, டிஜிட்டல் அச்சுறுத்தல்களுக்கு எதிரான போரில் OpenAI ஒரு வலிமைமிக்க சக்தியாக உருவெடுத்துள்ளது. இந்த ஆண்டின் தொடக்கத்தில் இருந்து, நிறுவனம் 20க்கும் மேற்பட்ட தீங்கிழைக்கும் பிரச்சாரங்களை வெற்றிகரமாக சீர்குலைத்துள்ளது, இது அதன் AI தளத்தை தீங்கு விளைவிக்கும் செயல்களுக்கு பயன்படுத்த முயன்றது, இது இணைய பாதுகாப்பின் எதிர்காலம் ஏற்கனவே உள்ளது என்பதை நிரூபிக்கிறது.
இந்த செயல்பாடுகள் தீம்பொருளை பிழைத்திருத்துவது மற்றும் தவறான தகவல்களை உருவாக்குவது முதல் போலி சமூக ஊடக நபர்களை உருவாக்குவது வரையிலானது. போலி கணக்குகளுக்கு சுயசரிதைகளை உருவாக்குதல் அல்லது X இல் (முன்னர் Twitter) போலி சமூக ஊடக அடையாளங்களுக்காக AI-உருவாக்கிய சுயவிவரப் படங்களை உருவாக்குதல் போன்ற தீங்கிழைக்கும் செயல்களில் உதவ OpenAI இன் தளத்தைப் பயன்படுத்த அச்சுறுத்தல் நடிகர்கள் முயன்றனர்.
எவ்வாறாயினும், இந்த முயற்சிகள் இருந்தபோதிலும், இந்த பிரச்சாரங்கள் எதுவும் தீம்பொருள் உருவாக்கம் அல்லது தவறான தகவல்களின் வைரஸ் பரவல் ஆகியவற்றில் அற்புதமான முன்னேற்றங்களுக்கு வழிவகுக்கவில்லை என்று OpenAI பொதுமக்களுக்கு உறுதியளித்தது. வேறு வார்த்தைகளில் கூறுவதானால், மோசமான நடிகர்கள் AI உடன் பரிசோதனை செய்கிறார்கள், அவர்கள் இன்னும் குறிப்பிடத்தக்க முன்னேற்றங்களை அடையவில்லை.
பொருளடக்கம்
சைபர் கிரைமினல்கள் AI ஐ எவ்வாறு பயன்படுத்தினர்
தீங்கிழைக்கும் நடிகர்கள் சீனாவிலிருந்து ஈரான் வரை உலகின் எல்லா மூலைகளிலிருந்தும் வந்து பலவிதமான தந்திரங்களை கையாண்டனர். ஒரு முக்கிய உதாரணம் ஸ்வீட்ஸ்பெக்டர், சீனாவை தளமாகக் கொண்ட குழுவானது, உளவு மற்றும் பாதிப்பு ஆராய்ச்சிக்காக AI ஐப் பயன்படுத்தியது, மேலும் OpenAI ஊழியர்களை ஈட்டி-ஃபிஷ் செய்ய (தோல்வி அடையவில்லை) முயற்சித்தது.
ஈரானிய குழுக்களும் குறிப்பிடத்தக்க பங்கைக் கொண்டிருந்தன. ஈரானிய இஸ்லாமிய புரட்சிகர காவலர் படையுடன் (IRGC) இணைக்கப்பட்ட Cyber Av3ngers, AI ஐப் பயன்படுத்தி நிரல்படுத்தக்கூடிய லாஜிக் கன்ட்ரோலர்களை ஆய்வு செய்தது, அதே நேரத்தில் மற்றொரு ஈரானிய நிறுவனமான Storm-0817, Android மால்வேரைப் பிழைத்திருத்துவதற்கும் சமூக ஊடக சுயவிவரங்களை அகற்றுவதற்கும் AI ஐப் பயன்படுத்தியது.
இந்த இலக்கு பிரச்சாரங்களுக்கு கூடுதலாக, OpenAI பல பெரிய அளவிலான செல்வாக்கு செயல்பாடுகளைத் தடுத்தது. இவற்றில் ஒன்று, A2Z, பரவலான சமூக ஊடக இடுகைகளுக்கு ஆங்கிலம் மற்றும் பிரஞ்சு உள்ளடக்கத்தை உருவாக்கியது, அதே நேரத்தில் ஸ்டாப் நியூஸ் அவர்களின் கட்டுரைகள் மற்றும் ட்வீட்களை மேம்படுத்த, கார்ட்டூனிஷ் அல்லது வியத்தகு பாணியில் AI- உருவாக்கிய படங்களைப் பயன்படுத்தியது.
உலகளாவிய தவறான தகவல் பிரச்சாரங்களை சீர்குலைத்தல்
அரசியல் அமைப்புகளை குறிவைக்கும் தவறான தகவல் பிரச்சாரங்கள் கவலைக்குரிய மற்றொரு பகுதியாகும். அமெரிக்கா, ருவாண்டா, இந்தியா மற்றும் ஐரோப்பிய ஒன்றிய தேர்தல்களில் செல்வாக்கு செலுத்தும் முயற்சிகளில் அது தலையிட்டதாக OpenAI தெரிவித்துள்ளது. இந்த முயற்சிகள் எதுவும் வைரல் இழுவை அடையவில்லை, ஆனால் அச்சுறுத்தல் நடிகர்கள் தேர்தல்களை கையாள முற்பட்டது AI- உந்துதல் தவறான தகவல்களால் ஏற்படும் அபாயங்களை அடிக்கோடிட்டுக் காட்டுகிறது.
STOIC, Zero Zeno என்றும் அழைக்கப்படும் இஸ்ரேலிய நிறுவனமானது, இந்த இடத்தில் முக்கிய பங்கு வகிக்கிறது, இந்திய தேர்தல்கள் பற்றிய சமூக ஊடகக் கருத்துகளை உருவாக்குகிறது, இது இந்த ஆண்டின் தொடக்கத்தில் Meta மற்றும் OpenAI ஆகிய இரண்டாலும் வெளியிடப்பட்டது.
OpenAI இன் தற்போதைய விழிப்புணர்வானது Bet Bot மற்றும் Corrupt Comment ஆகிய இரண்டு நெட்வொர்க்குகளின் கண்டுபிடிப்புக்கும் வழிவகுத்தது, இது X இல் உரையாடல்களை உருவாக்க மற்றும் பயனர்களை சூதாட்ட தளங்களுடன் இணைக்க அல்லது தயாரிக்கப்பட்ட கருத்துகளுடன் சமூக ஊடகங்களை இணைக்க அதன் API ஐப் பயன்படுத்தியது.
மைக்ரோ டார்கெட் தவறான தகவலில் AI இன் பங்கு
ஜெனரேட்டிவ் AI ஆனது வெகுஜன அளவிலான தவறான தகவல்களுக்கு மட்டுமல்ல, மைக்ரோ டார்கெட்டிங்கிற்கும் ஆயுதமாக்கப்படும் ஆற்றலைக் கொண்டுள்ளது. சைபர் செக்யூரிட்டி நிறுவனமான சோஃபோஸின் சமீபத்திய அறிக்கையின்படி, மின்னஞ்சல்கள், இணையதளங்கள் மற்றும் போலி நபர்கள் மூலம் மிகவும் தனிப்பயனாக்கப்பட்ட அரசியல் தவறான தகவல்களைப் பரப்ப AI கையாளப்படலாம். குறிப்பிட்ட பிரச்சார புள்ளிகளுக்கு செய்திகளை கவனமாக வடிவமைப்பதன் மூலம், அச்சுறுத்தல் நடிகர்கள் வாக்காளர்களை புதிய மட்டத்தில் ஏமாற்றலாம், தேர்தல் முடிவுகளை மாற்றலாம் அல்லது தவறான தகவல்களுடன் கருத்துக்களை மாற்றலாம்.
எந்தவொரு அரசியல் பிரமுகரையும் அல்லது இயக்கத்தையும் அவர்கள் உண்மையில் ஆதரிக்காத கொள்கை நிலைப்பாட்டுடன் தொடர்புபடுத்துவது குழப்பமான முறையில் எளிதானது என்று ஆராய்ச்சியாளர்கள் எச்சரிக்கின்றனர், இது வாக்காளர்களிடையே குழப்பத்தை விதைத்து ஜனநாயக செயல்முறையை சேதப்படுத்துகிறது.
சைபர் பாதுகாப்பிற்கான OpenAI இன் அர்ப்பணிப்பு
AI முன்னேற்றத்திற்கான முன்னோடியில்லாத வாய்ப்புகளை வழங்கும் அதே வேளையில், இது கடுமையான பாதுகாப்பு சவால்களையும் முன்வைக்கிறது. ஓபன்ஏஐ தனது தொழில்நுட்பத்தை சுரண்டுவதற்கான தீங்கிழைக்கும் முயற்சிகளை எதிர்கொள்ளும் பணியில் உள்ளது என்பதை நிரூபித்துள்ளது. இருப்பினும், சைபர் செக்யூரிட்டி நிபுணர்களுக்கும் சைபர் கிரைமினல்களுக்கும் இடையிலான பூனை-எலி விளையாட்டு தொடரும்.
இந்த ஆண்டு 20 க்கும் மேற்பட்ட உலகளாவிய பிரச்சாரங்களை சீர்குலைக்கும் OpenAI இன் முயற்சிகள் குறிப்பிடத்தக்க வெற்றியைக் குறிக்கின்றன, ஆனால் சண்டை இன்னும் வெகு தொலைவில் உள்ளது. AI உருவாகும்போது, அச்சுறுத்தும் நடிகர்களால் பயன்படுத்தப்படும் தந்திரங்களும் கூட. டிஜிட்டல் மோசடிக்கான கருவியாக இல்லாமல், AI நன்மைக்கான சக்தியாக இருப்பதை உறுதி செய்வதில் நிலையான விழிப்புணர்வும் புதுமையும் முக்கியமாக இருக்கும்.