Ασφάλεια Υπολογιστών Οι ψευδαισθήσεις AI αποτελούν νέα απειλή για την αλυσίδα...

Οι ψευδαισθήσεις AI αποτελούν νέα απειλή για την αλυσίδα εφοδιασμού λογισμικού

Σε μια ανατριχιαστική νέα εξέλιξη για προγραμματιστές και οργανισμούς που βασίζονται στην τεχνητή νοημοσύνη για την κωδικοποίηση, οι ερευνητές ανακάλυψαν μια νέα απειλή της εφοδιαστικής αλυσίδας που δημιουργείται από παραισθήσεις AI σε μοντέλα που δημιουργούν κώδικα. Αυτός ο αναδυόμενος φορέας επίθεσης, που ονομάστηκε slopsquatting , θα μπορούσε να επιτρέψει σε κακόβουλους παράγοντες να διεισδύσουν στα οικοσυστήματα λογισμικού εκμεταλλευόμενοι πλασματικά πακέτα που παραισθάνονται από τα μοντέλα μεγάλων γλωσσών (LLM).

Ο κίνδυνος έγκειται στο γεγονός ότι τα LLM συχνά «παραισθάνονται» πακέτα — προτείνοντας ή εισάγοντας αναφορές σε εξαρτήσεις λογισμικού που απλά δεν υπάρχουν. Σε έρευνα που διεξήχθη από κοινού από το Πανεπιστήμιο του Τέξας στο Σαν Αντόνιο, το Πανεπιστήμιο της Οκλαχόμα και τη Βιρτζίνια Tech, ανακαλύφθηκε ότι κανένα από τα 16 δημοφιλή LLM που δοκιμάστηκαν δεν ήταν ανοσία σε αυτό το φαινόμενο.

Τι είναι το Slopsquatting και πώς λειτουργεί;

Το Slopsquatting παίρνει αυτό το ελάττωμα της ψευδαίσθησης και το μετατρέπει σε όπλο. Όταν ένα LLM προτείνει ένα ανύπαρκτο πακέτο κατά τη δημιουργία κώδικα, οι εγκληματίες του κυβερνοχώρου μπορούν γρήγορα να καταχωρήσουν ένα κακόβουλο πακέτο με αυτό το όνομα. Μόλις δημοσιευτεί, οποιοσδήποτε προγραμματιστής αποδέχεται τον κώδικα που δημιουργείται από την τεχνητή νοημοσύνη στην ονομαστική του αξία μπορεί να εισαγάγει και να εκτελέσει εν αγνοία του το κακόβουλο πακέτο. Αυτό όχι μόνο θέτει σε κίνδυνο το μεμονωμένο έργο, αλλά θα μπορούσε επίσης να διαδοθεί σε ολόκληρες αλυσίδες εφοδιασμού λογισμικού εάν ο μολυσμένος κώδικας επαναχρησιμοποιηθεί ή κοινοποιηθεί.

Η μελέτη διαπίστωσε ότι από τα 2,23 εκατομμύρια πακέτα που δημιουργήθηκαν σε σενάρια δοκιμών Python και JavaScript, σχεδόν 440.000 —ή περίπου το 19,7%— είχαν παραισθήσεις. Από αυτά, τα εκπληκτικά 205.474 ήταν μοναδικά εικονικά ονόματα πακέτων. Τα περισσότερα πακέτα με παραισθήσεις —81%— ήταν μοναδικά για το συγκεκριμένο μοντέλο που τα δημιούργησε, υποδεικνύοντας ασυνεπείς συμπεριφορές μεταξύ διαφορετικών LLM.

Τα εμπορικά μοντέλα AI παρουσίαζαν παραισθήσεις σε πακέτα τουλάχιστον στο 5,2% των περιπτώσεων, ενώ τα μοντέλα ανοιχτού κώδικα τα πήγαν σημαντικά χειρότερα με τα ποσοστά παραισθήσεων να αγγίζουν το 21,7%. Ανησυχητικά, αυτά τα λάθη δεν ήταν απλώς μεμονωμένες ατάκες. Πάνω από τα μισά από τα πακέτα με παραισθήσεις (58%) εμφανίστηκαν επανειλημμένα μέσα σε μόλις 10 επαναλήψεις, δείχνοντας μια σαφή τάση για επιμονή.

Ο αυξανόμενος κίνδυνος του κώδικα που δημιουργείται από AI στην ανάπτυξη λογισμικού

Ενώ προηγούμενες μελέτες έχουν αναγνωρίσει την απειλή του typosquatting -όπου οι εισβολείς εκμεταλλεύονται λανθασμένα ή παραπλανητικά ονόματα πακέτων- αυτή η νέα επίθεση slopsquatting αντιπροσωπεύει μια παραμελημένη και δυνητικά πολύ πιο επικίνδυνη παραλλαγή. Σε αντίθεση με το typosquatting, το οποίο προξενεί ανθρώπινο λάθος, το slopsquatting αξιοποιεί την αντιληπτή εξουσία και αξιοπιστία του κώδικα που δημιουργείται από την τεχνητή νοημοσύνη.

Ίσως το πιο συναρπαστικό -και εξίσου ανησυχητικό- οι ερευνητές ανακάλυψαν ότι τα LLMs ήταν ικανά να αναγνωρίσουν πολλές από τις δικές τους ψευδαισθήσεις. Αυτό υποδηλώνει ένα αναξιοποίητο δυναμικό αυτορρύθμισης που θα μπορούσε να χρησιμοποιηθεί σε μελλοντικούς μηχανισμούς ασφάλειας. Υπονοεί επίσης τη δυνατότητα ανάπτυξης εργαλείων ανίχνευσης στο μοντέλο για την αποτροπή της διανομής ελαττωματικού ή επικίνδυνου κώδικα.

Πώς μπορούν οι προγραμματιστές να προστατεύονται από ψευδαισθήσεις πακέτων AI

Για την αντιμετώπιση της απειλής, οι ερευνητές προτείνουν μια σειρά από μετριασμούς. Αυτές περιλαμβάνουν προηγμένες τεχνικές άμεσης μηχανικής όπως η ανάκτηση επαυξημένης γενιάς (RAG), ο γρήγορος συντονισμός και η αυτοβελτίωση. Από την πλευρά της ανάπτυξης του μοντέλου, στρατηγικές όπως η εποπτευόμενη λεπτομέρεια και οι βελτιωμένοι αλγόριθμοι αποκωδικοποίησης θα μπορούσαν να βοηθήσουν στη μείωση των ποσοστών παραισθήσεων.

Καθώς η γενετική τεχνητή νοημοσύνη συνεχίζει να μεταμορφώνει την ανάπτυξη λογισμικού, αυτή η μελέτη είναι μια έντονη υπενθύμιση ότι η ευκολία μπορεί να έχει κόστος. Οι προγραμματιστές πρέπει να παραμείνουν σε εγρήγορση και να επικρίνουν τον κώδικα που δημιουργείται από AI, ειδικά όταν πρόκειται για τη διαχείριση εξαρτήσεων. Η ενσωμάτωση εργαλείων στατικής ανάλυσης και μη αυτόματων αναθεωρήσεων πριν από την εγκατάσταση οποιωνδήποτε προτεινόμενων πακέτων είναι πλέον πιο σημαντική από ποτέ.

Το τοπίο της απειλής εξελίσσεται με ταχείς ρυθμούς, και όπως δείχνει αυτή η έρευνα, το ίδιο πρέπει και οι άμυνές μας. Αυτό που κάποτε φαινόταν σαν επιστημονική φαντασία - λογισμικό που φαντάζεται τεχνητή νοημοσύνη που δεν υπάρχει - έχει γίνει μια πολύ πραγματική ανησυχία για την ασφάλεια στον κυβερνοχώρο με εκτεταμένες επιπτώσεις.

Φόρτωση...