Το OpenAI μπλοκάρει 20 κακόβουλες επιχειρήσεις στον κυβερνοχώρο που αντεπιτίθενται ενάντια σε παγκόσμιες εκστρατείες εγκλήματος στον κυβερνοχώρο

Παραδόξως, το OpenAI έχει αναδειχθεί ως μια τρομερή δύναμη στη μάχη ενάντια στις ψηφιακές απειλές. Από την αρχή του έτους, η εταιρεία έχει διακόψει με επιτυχία περισσότερες από 20 κακόβουλες καμπάνιες που προσπάθησαν να εκμεταλλευτούν την πλατφόρμα τεχνητής νοημοσύνης της για επιβλαβείς δραστηριότητες , αποδεικνύοντας ότι το μέλλον της κυβερνοασφάλειας είναι ήδη εδώ.
Αυτές οι λειτουργίες κυμαίνονταν από τον εντοπισμό σφαλμάτων κακόβουλου λογισμικού και τη δημιουργία παραπληροφόρησης έως τη δημιουργία ψεύτικων προσώπων στα μέσα κοινωνικής δικτύωσης. Οι φορείς απειλών προσπάθησαν να αξιοποιήσουν την πλατφόρμα του OpenAI για να βοηθήσουν σε κακόβουλες δραστηριότητες όπως η δημιουργία βιογραφιών για ψεύτικους λογαριασμούς ή η δημιουργία εικόνων προφίλ που δημιουργούνται από AI για πλαστές ταυτότητες κοινωνικών μέσων στο X (πρώην Twitter).
Ωστόσο, παρά αυτές τις προσπάθειες, το OpenAI διαβεβαίωσε το κοινό ότι καμία από αυτές τις καμπάνιες δεν οδήγησε σε πρωτοποριακές εξελίξεις στη δημιουργία κακόβουλου λογισμικού ή στην εξάπλωση της παραπληροφόρησης από ιούς. Με άλλα λόγια, ενώ οι κακοί ηθοποιοί πειραματίζονται με την τεχνητή νοημοσύνη, δεν έχουν ακόμη επιτύχει σημαντικές ανακαλύψεις.
Πίνακας περιεχομένων
Πώς οι κυβερνοεγκληματίες εκμεταλλεύτηκαν την τεχνητή νοημοσύνη
Οι κακόβουλοι ηθοποιοί ήρθαν από όλες τις γωνιές του πλανήτη, από την Κίνα μέχρι το Ιράν, και χρησιμοποίησαν ποικίλες τακτικές. Ένα χαρακτηριστικό παράδειγμα ήταν η SweetSpecter, μια ομάδα με έδρα την Κίνα που χρησιμοποίησε την τεχνητή νοημοσύνη για έρευνα αναγνώρισης και ευπάθειας, και μάλιστα προσπάθησε (ανεπιτυχώς) να εξαπατήσει τους υπαλλήλους του OpenAI.
Ιρανικές ομάδες έπαιξαν επίσης αξιοσημείωτο ρόλο. Το Cyber Av3ngers, που συνδέεται με το Ιρανικό Σώμα των Φρουρών της Ισλαμικής Επανάστασης (IRGC), ερεύνησε προγραμματιζόμενους ελεγκτές λογικής χρησιμοποιώντας τεχνητή νοημοσύνη, ενώ μια άλλη ιρανική οντότητα, η Storm-0817, χρησιμοποίησε την τεχνητή νοημοσύνη για τον εντοπισμό σφαλμάτων από κακόβουλο λογισμικό Android και την απόρριψη προφίλ κοινωνικών μέσων.
Εκτός από αυτές τις στοχευμένες καμπάνιες, το OpenAI απέκλεισε αρκετές επιχειρήσεις επιρροής μεγάλης κλίμακας. Ένα από αυτά, το A2Z, δημιούργησε αγγλικό και γαλλικό περιεχόμενο για ευρέως διαδεδομένες αναρτήσεις στα μέσα κοινωνικής δικτύωσης, ενώ το Stop News αξιοποίησε εικόνες που δημιουργήθηκαν από AI, συχνά σε κινούμενα σχέδια ή δραματικά στυλ, για να βελτιώσουν τα άρθρα και τα tweets τους.
Διαταραχή παγκόσμιων εκστρατειών παραπληροφόρησης
Οι εκστρατείες παραπληροφόρησης που στόχευαν τα πολιτικά συστήματα ήταν ένας άλλος τομέας ανησυχίας. Το OpenAI ανέφερε ότι παρενέβη σε προσπάθειες να επηρεάσει τις εκλογές στις ΗΠΑ, τη Ρουάντα, την Ινδία και την Ευρωπαϊκή Ένωση. Καμία από αυτές τις προσπάθειες δεν πέτυχε ιογενή έλξη, αλλά το γεγονός ότι οι παράγοντες απειλών προσπάθησαν να χειραγωγήσουν τις εκλογές υπογραμμίζει τους αυξανόμενους κινδύνους που ενέχει η παραπληροφόρηση που βασίζεται στην τεχνητή νοημοσύνη.
Η STOIC, μια ισραηλινή εταιρεία γνωστή και ως Zero Zeno, ήταν μεταξύ των βασικών παικτών σε αυτόν τον χώρο, δημιουργώντας σχόλια στα μέσα κοινωνικής δικτύωσης σχετικά με τις εκλογές στην Ινδία, μια δραστηριότητα που είχε προηγουμένως αποκαλυφθεί τόσο από τη Meta όσο και από το OpenAI νωρίτερα φέτος.
Η συνεχής επαγρύπνηση του OpenAI οδήγησε επίσης στην ανακάλυψη δύο άλλων δικτύων, του Bet Bot και του Corrupt Comment, τα οποία χρησιμοποιούσαν το API του για να δημιουργήσουν συνομιλίες στο X και να συνδέουν τους χρήστες σε ιστότοπους τζόγου ή να πλημμυρίζουν τα κοινωνικά μέσα με κατασκευασμένα σχόλια.
Ο ρόλος της τεχνητής νοημοσύνης στη μικροστοχευμένη παραπληροφόρηση
Το Generative AI έχει τη δυνατότητα να οπλιστεί όχι μόνο για παραπληροφόρηση μαζικής κλίμακας, αλλά και για μικροστόχευση. Σύμφωνα με μια πρόσφατη έκθεση της εταιρείας κυβερνοασφάλειας Sophos, η τεχνητή νοημοσύνη μπορεί να χειραγωγηθεί για να διαδώσει εξαιρετικά εξατομικευμένη πολιτική παραπληροφόρηση μέσω email, ιστοτόπων και ψεύτικων προσώπων. Προσαρμόζοντας προσεκτικά τα μηνύματα σε συγκεκριμένα σημεία της εκστρατείας, οι παράγοντες απειλών μπορούν να εξαπατήσουν τους ψηφοφόρους σε ένα νέο επίπεδο, αλλάζοντας πιθανώς τα εκλογικά αποτελέσματα ή ταλαντεύοντας απόψεις με ψευδείς πληροφορίες.
Οι ερευνητές προειδοποιούν ότι είναι ανησυχητικά εύκολο να συσχετιστεί οποιαδήποτε πολιτική προσωπικότητα ή κίνημα με μια στάση πολιτικής που στην πραγματικότητα δεν υποστηρίζουν, σπέρνοντας σύγχυση στους ψηφοφόρους και βλάπτοντας τη δημοκρατική διαδικασία.
Η δέσμευση του OpenAI για την ασφάλεια στον κυβερνοχώρο
Ενώ η τεχνητή νοημοσύνη προσφέρει άνευ προηγουμένου ευκαιρίες για πρόοδο, παρουσιάζει επίσης σοβαρές προκλήσεις ασφάλειας. Το OpenAI έχει αποδείξει ότι είναι σε θέση να αντιμετωπίσει τις κακόβουλες προσπάθειες εκμετάλλευσης της τεχνολογίας του. Ωστόσο, το παιχνίδι γάτας με ποντίκι μεταξύ ειδικών στον τομέα της ασφάλειας στον κυβερνοχώρο και εγκληματιών στον κυβερνοχώρο πιθανότατα θα συνεχιστεί.
Οι προσπάθειες του OpenAI να διακόψει περισσότερες από 20 παγκόσμιες καμπάνιες φέτος σηματοδοτούν μια σημαντική νίκη, αλλά ο αγώνας απέχει πολύ από το να τελειώσει. Καθώς η τεχνητή νοημοσύνη εξελίσσεται, θα εξελίσσονται και οι τακτικές που χρησιμοποιούν οι φορείς απειλών. Η συνεχής επαγρύπνηση και η καινοτομία θα είναι το κλειδί για να διασφαλιστεί ότι η τεχνητή νοημοσύνη θα παραμείνει μια δύναμη για το καλό, παρά ένα εργαλείο για την ψηφιακή εξαπάτηση.