Jump to content



  • astrolabos
    astrolabos

    Slopsquatting: Η Νέα Κυβερνοαπειλή από τις "Παραισθήσεις" των ΤΝ

    Μια νέα μορφή κυβερνοεπίθεσης, με την ονομασία Slopsquatting, αναδύεται απειλητικά από τη σκιά της τεχνητής νοημοσύνης. Σύμφωνα με έρευνα πανεπιστημίων των ΗΠΑ, οι “παραισθήσεις” των μεγάλων γλωσσικών μοντέλων (LLMs) οδηγούν στην αυτόματη πρόταση ανύπαρκτων βιβλιοθηκών ή πακέτων λογισμικού, τα οποία επιτήδειοι καταχωρούν και “φορτώνουν” με κακόβουλο κώδικα.

    Πώς λειτουργεί το Slopsquatting

    Το φαινόμενο περιγράφηκε αρχικά από τον Seth Larson του Python Software Foundation, και συνίσταται στη στοχευμένη εκμετάλλευση λανθασμένων εξαρτήσεων (dependencies) που δημιουργεί η τεχνητή νοημοσύνη κατά τη συγγραφή κώδικα. Σε αντίθεση με το παραδοσιακό typosquatting – που βασίζεται σε πληκτρολογικά λάθη – το Slopsquatting εκμεταλλεύεται λάθη του ίδιου του LLM, δημιουργώντας έναν νέο τύπο απειλής για την εφοδιαστική αλυσίδα λογισμικού.

    Πόσο διαδεδομένες είναι οι ψευδείς προτάσεις;

    Η μελέτη αξιολόγησε 16 διαφορετικά μοντέλα κώδικα, ανάμεσά τους τα GPT-4, GPT-3.5, CodeLlama, DeepSeek και Mistral. Το 19,7% των προτεινόμενων πακέτων αποδείχθηκαν ανύπαρκτα, με το ποσοστό αυτό να αυξάνεται στο 21,7% για ανοιχτού κώδικα μοντέλα, και να πέφτει στο 5,2% για εμπορικά, όπως το GPT-4. Το CodeLlama αναδείχθηκε ως το χειρότερο (με πάνω από 33% hallucination rate), ενώ το GPT-4 Turbo εμφάνισε μόλις 3,59% ψευδείς προτάσεις.

    Ακόμα πιο ανησυχητικό είναι το γεγονός ότι οι “παραισθήσεις” αυτές είναι επαναλαμβανόμενες και πειστικές. Στις επαναληπτικές δοκιμές, το 43% των ανύπαρκτων πακέτων επανεμφανίστηκαν σε κάθε εκτέλεση του ίδιου prompt, ενώ το 58% παρουσιάστηκαν σε περισσότερες από μία εκτελέσεις.

    Γιατί είναι τόσο επικίνδυνο

    Τα ονόματα των πακέτων που "παράγουν" τα LLMs είναι συχνά ρεαλιστικά, με 38% να έχουν σημαντική ομοιότητα (string similarity) με υπαρκτές βιβλιοθήκες. Μόνο 13% σχετίζονται με απλά ορθογραφικά λάθη.

    Αυτό σημαίνει ότι ένας επιτιθέμενος μπορεί εύκολα να προβλέψει και να καταχωρήσει ένα hallucinated πακέτο, φορτώνοντάς το με malware, το οποίο στη συνέχεια εισάγεται αυτόματα από ανυποψίαστους developers που εμπιστεύονται τα AI εργαλεία.

    Όπως σχολίασε η Socket, «αν ένα πακέτο που δεν υπάρχει αρχίσει να εμφανίζεται σε χιλιάδες snippets κώδικα που παράγονται από LLMs, και κάποιος το έχει καταχωρήσει πρώτος, το ενδεχόμενο ευρείας παραβίασης είναι απολύτως υπαρκτό».

    Μέτρα προστασίας και κίνδυνοι επαναλαμβανόμενοι

    Παρότι μέχρι στιγμής δεν έχουν καταγραφεί επιβεβαιωμένα περιστατικά Slopsquatting “στην άγρια φύση”, οι ειδικοί τονίζουν την ανάγκη για άμεση πρόληψη. Η Socket συνιστά την εγκατάσταση εργαλείων ελέγχου εξαρτήσεων πριν την κυκλοφορία και κατά την εκτέλεση, ώστε να εντοπίζονται και να απομονώνονται πιθανώς κακόβουλα πακέτα.

    Ταυτόχρονα, εκφράζονται ανησυχίες για την περιορισμένη δοκιμή (testing) που υφίστανται σήμερα τα LLMs, καθώς εταιρείες όπως η OpenAI φέρεται να μείωσαν τον χρόνο και τους πόρους για την ασφάλεια των μοντέλων, σύμφωνα με το ίδιο ρεπορτάζ. 

     

    Το Slopsquatting είναι περισσότερο από μια θεωρητική απειλή. Πρόκειται για μια πρόβλεψη του τι συμβαίνει όταν η τεχνητή νοημοσύνη "δημιουργεί" χωρίς έλεγχο και η κοινότητα των developers δεν διασταυρώνει. Και όπως φαίνεται, αυτό το κενό το περιμένουν ήδη οι επιτιθέμενοι να το γεμίσουν.


    Πηγή
    Φωτογραφία: the decoder
×
×
  • Δημιουργία...

Important Information

Ο ιστότοπος theLab.gr χρησιμοποιεί cookies για να διασφαλίσει την καλύτερη εμπειρία σας κατά την περιήγηση. Μπορείτε να προσαρμόσετε τις ρυθμίσεις των cookies σας , διαφορετικά θα υποθέσουμε ότι είστε εντάξει για να συνεχίσετε.