Μια νέα μορφή κυβερνοεπίθεσης, με την ονομασία Slopsquatting, αναδύεται απειλητικά από τη σκιά της τεχνητής νοημοσύνης. Σύμφωνα με έρευνα πανεπιστημίων των ΗΠΑ, οι “παραισθήσεις” των μεγάλων γλωσσικών μοντέλων (LLMs) οδηγούν στην αυτόματη πρόταση ανύπαρκτων βιβλιοθηκών ή πακέτων λογισμικού, τα οποία επιτήδειοι καταχωρούν και “φορτώνουν” με κακόβουλο κώδικα.
Πώς λειτουργεί το Slopsquatting
Το φαινόμενο περιγράφηκε αρχικά από τον Seth Larson του Python Software Foundation, και συνίσταται στη στοχευμένη εκμετάλλευση λανθασμένων εξαρτήσεων (dependencies) που δημιουργεί η τεχνητή νοημοσύνη κατά τη συγγραφή κώδικα. Σε αντίθεση με το παραδοσιακό typosquatting – που βασίζεται σε πληκτρολογικά λάθη – το Slopsquatting εκμεταλλεύεται λάθη του ίδιου του LLM, δημιουργώντας έναν νέο τύπο απειλής για την εφοδιαστική αλυσίδα λογισμικού.
Πόσο διαδεδομένες είναι οι ψευδείς προτάσεις;
Η μελέτη αξιολόγησε 16 διαφορετικά μοντέλα κώδικα, ανάμεσά τους τα GPT-4, GPT-3.5, CodeLlama, DeepSeek και Mistral. Το 19,7% των προτεινόμενων πακέτων αποδείχθηκαν ανύπαρκτα, με το ποσοστό αυτό να αυξάνεται στο 21,7% για ανοιχτού κώδικα μοντέλα, και να πέφτει στο 5,2% για εμπορικά, όπως το GPT-4. Το CodeLlama αναδείχθηκε ως το χειρότερο (με πάνω από 33% hallucination rate), ενώ το GPT-4 Turbo εμφάνισε μόλις 3,59% ψευδείς προτάσεις.
Ακόμα πιο ανησυχητικό είναι το γεγονός ότι οι “παραισθήσεις” αυτές είναι επαναλαμβανόμενες και πειστικές. Στις επαναληπτικές δοκιμές, το 43% των ανύπαρκτων πακέτων επανεμφανίστηκαν σε κάθε εκτέλεση του ίδιου prompt, ενώ το 58% παρουσιάστηκαν σε περισσότερες από μία εκτελέσεις.
Γιατί είναι τόσο επικίνδυνο
Τα ονόματα των πακέτων που "παράγουν" τα LLMs είναι συχνά ρεαλιστικά, με 38% να έχουν σημαντική ομοιότητα (string similarity) με υπαρκτές βιβλιοθήκες. Μόνο 13% σχετίζονται με απλά ορθογραφικά λάθη.
Αυτό σημαίνει ότι ένας επιτιθέμενος μπορεί εύκολα να προβλέψει και να καταχωρήσει ένα hallucinated πακέτο, φορτώνοντάς το με malware, το οποίο στη συνέχεια εισάγεται αυτόματα από ανυποψίαστους developers που εμπιστεύονται τα AI εργαλεία.
Όπως σχολίασε η Socket, «αν ένα πακέτο που δεν υπάρχει αρχίσει να εμφανίζεται σε χιλιάδες snippets κώδικα που παράγονται από LLMs, και κάποιος το έχει καταχωρήσει πρώτος, το ενδεχόμενο ευρείας παραβίασης είναι απολύτως υπαρκτό».
Μέτρα προστασίας και κίνδυνοι επαναλαμβανόμενοι
Παρότι μέχρι στιγμής δεν έχουν καταγραφεί επιβεβαιωμένα περιστατικά Slopsquatting “στην άγρια φύση”, οι ειδικοί τονίζουν την ανάγκη για άμεση πρόληψη. Η Socket συνιστά την εγκατάσταση εργαλείων ελέγχου εξαρτήσεων πριν την κυκλοφορία και κατά την εκτέλεση, ώστε να εντοπίζονται και να απομονώνονται πιθανώς κακόβουλα πακέτα.
Ταυτόχρονα, εκφράζονται ανησυχίες για την περιορισμένη δοκιμή (testing) που υφίστανται σήμερα τα LLMs, καθώς εταιρείες όπως η OpenAI φέρεται να μείωσαν τον χρόνο και τους πόρους για την ασφάλεια των μοντέλων, σύμφωνα με το ίδιο ρεπορτάζ.
Το Slopsquatting είναι περισσότερο από μια θεωρητική απειλή. Πρόκειται για μια πρόβλεψη του τι συμβαίνει όταν η τεχνητή νοημοσύνη "δημιουργεί" χωρίς έλεγχο και η κοινότητα των developers δεν διασταυρώνει. Και όπως φαίνεται, αυτό το κενό το περιμένουν ήδη οι επιτιθέμενοι να το γεμίσουν.
Recommended Comments
There are no comments to display.
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now