OpenAI blokuje 20 złośliwych operacji cybernetycznych, walcząc z globalnymi kampaniami cyberprzestępczości

Zaskakująco, OpenAI wyłoniło się jako potężna siła w walce z zagrożeniami cyfrowymi. Od początku roku firma skutecznie udaremniła ponad 20 złośliwych kampanii, które próbowały wykorzystać jej platformę AI do szkodliwych działań , pokazując, że przyszłość cyberbezpieczeństwa jest już tutaj.
Operacje te obejmowały debugowanie złośliwego oprogramowania i tworzenie dezinformacji, a także tworzenie fałszywych person w mediach społecznościowych. Aktorzy zagrożeń próbowali wykorzystać platformę OpenAI do pomocy w złośliwych działaniach, takich jak generowanie biografii dla fałszywych kont lub tworzenie generowanych przez AI zdjęć profilowych dla fałszywych tożsamości w mediach społecznościowych na X (dawniej Twitter).
Jednak pomimo tych wysiłków OpenAI zapewniło opinię publiczną, że żadna z tych kampanii nie doprowadziła do przełomowych postępów w tworzeniu złośliwego oprogramowania ani wirusowego rozprzestrzeniania dezinformacji. Innymi słowy, podczas gdy źli aktorzy eksperymentują z AI, nie osiągnęli jeszcze znaczących przełomów.
Spis treści
Jak cyberprzestępcy wykorzystali sztuczną inteligencję
Złośliwi aktorzy pochodzili ze wszystkich zakątków świata, od Chin po Iran, i stosowali różne taktyki. Jednym z wybitnych przykładów był SweetSpecter, chińska grupa, która wykorzystywała AI do rozpoznania i badań nad podatnościami, a nawet próbowała (bezskutecznie) spear-phishingu pracowników OpenAI.
Irańskie grupy również odegrały znaczącą rolę. Cyber Av3ngers, powiązani z Iranian Islamic Revolutionary Guard Corps (IRGC), badali programowalne kontrolery logiczne przy użyciu AI, podczas gdy inna irańska jednostka, Storm-0817, używała AI do debugowania złośliwego oprogramowania Android i scrapowania profili w mediach społecznościowych.
Oprócz tych ukierunkowanych kampanii, OpenAI zablokowało kilka operacji wpływu na dużą skalę. Jedna z nich, A2Z, generowała treści w języku angielskim i francuskim do powszechnego publikowania w mediach społecznościowych, podczas gdy Stop News wykorzystywało obrazy generowane przez AI, często w stylu kreskówkowym lub dramatycznym, aby ulepszyć swoje artykuły i tweety.
Zakłócanie globalnych kampanii dezinformacyjnych
Kampanie dezinformacyjne skierowane przeciwko systemom politycznym były kolejnym obszarem zainteresowania. OpenAI poinformowało, że interweniowało w próbach wpłynięcia na wybory w USA, Rwandzie, Indiach i Unii Europejskiej. Żadne z tych działań nie osiągnęło popularności wirusowej, ale fakt, że aktorzy zagrożeń starali się manipulować wyborami, podkreśla rosnące ryzyko związane z dezinformacją napędzaną przez AI.
STOIC, izraelska firma znana również jako Zero Zeno, była jednym z głównych graczy w tej branży, generując komentarze w mediach społecznościowych na temat wyborów w Indiach. Działalność ta została ujawniona wcześniej w tym roku przez Meta i OpenAI.
Ciągła czujność OpenAI doprowadziła również do odkrycia dwóch innych sieci, Bet Bot i Corrupt Comment, które przy użyciu interfejsu API generowały konwersacje na platformie X i łączyły użytkowników ze stronami hazardowymi lub zalewały media społecznościowe spreparowanymi komentarzami.
Rola AI w mikrotargetowanej dezinformacji
Generative AI ma potencjał, aby stać się bronią nie tylko do masowej dezinformacji, ale także do mikrotargetowania. Według niedawnego raportu firmy zajmującej się cyberbezpieczeństwem Sophos, AI może być manipulowana w celu rozprzestrzeniania wysoce spersonalizowanych dezinformacji politycznych za pośrednictwem wiadomości e-mail, stron internetowych i fałszywych person. Poprzez ostrożne dostosowywanie wiadomości do konkretnych punktów kampanii, aktorzy zagrożeń mogą oszukiwać wyborców na nowym poziomie, potencjalnie zmieniając wyniki wyborów lub wpływając na opinie za pomocą fałszywych informacji.
Badacze ostrzegają, że niepokojąco łatwo jest powiązać jakąkolwiek postać lub ruch polityczny z poglądem, którego w rzeczywistości nie popierają. Może to powodować zamieszanie wśród wyborców i szkodzić procesowi demokratycznemu.
Zaangażowanie OpenAI w cyberbezpieczeństwo
Podczas gdy AI oferuje bezprecedensowe możliwości postępu, stwarza również poważne wyzwania bezpieczeństwa. OpenAI udowodniło, że jest w stanie przeciwdziałać złośliwym próbom wykorzystania jego technologii. Jednak gra w kotka i myszkę między ekspertami ds. cyberbezpieczeństwa a cyberprzestępcami prawdopodobnie będzie kontynuowana.
Wysiłki OpenAI mające na celu zakłócenie ponad 20 globalnych kampanii w tym roku oznaczają znaczące zwycięstwo, ale walka jest daleka od zakończenia. Wraz z rozwojem AI ewoluują również taktyki stosowane przez aktorów zagrożeń. Stała czujność i innowacja będą kluczowe w zapewnieniu, że AI pozostanie siłą dobra, a nie narzędziem cyfrowego oszustwa.