Μια λειτουργία στο λογισμικό τεχνητής νοημοσύνης της Nvidia μπορεί να χειραγωγηθεί ώστε να αγνοήσει τους περιορισμούς ασφαλείας και να αποκαλύψει προσωπικές πληροφορίες, σύμφωνα με νέα έρευνα. Η Nvidia δημιούργησε ένα σύστημα που ονομάζεται "NeMo Framework", το οποίο επιτρέπει στους προγραμματιστές να εργάζονται με μια σειρά από μεγάλα γλωσσικά μοντέλα - την υποκείμενη τεχνολογία που τροφοδοτεί τα προϊόντα γεννητικής τεχνητής νοημοσύνης, όπως τα chatbots. Το πλαίσιο έχει σχεδιαστεί για να υιοθετηθεί από επιχειρήσεις, όπως η χρήση των ιδιόκτητων δεδομένων μιας εταιρείας μαζί με γλωσσικά μοντέλα για την παροχή απαντήσεων σε ερωτήσεις - μια λειτουργία που θα μπορούσε, για παράδειγμα, να αναπαράγει το έργο των εκπροσώπων εξυπηρέτησης πελατών ή να συμβουλεύει ανθρώπους που αναζητούν απλές συμβουλές για την υγεία.
Οι ερευνητές της Robust Intelligence με έδρα το Σαν Φρανσίσκο διαπίστωσαν ότι μπορούσαν εύκολα να παραβιάσουν τις λεγόμενες προστατευτικές μπάρες που θεσπίστηκαν για να διασφαλιστεί η ασφαλής χρήση του συστήματος τεχνητής νοημοσύνης. Αφού χρησιμοποίησαν το σύστημα της Nvidia σε δικά της σύνολα δεδομένων, οι αναλυτές της Robust Intelligence χρειάστηκαν μόνο ώρες για να καταφέρουν να κάνουν τα γλωσσικά μοντέλα να ξεπεράσουν τους περιορισμούς. Σε ένα δοκιμαστικό σενάριο, οι ερευνητές έδωσαν εντολή στο σύστημα της Nvidia να αντικαταστήσει το γράμμα "I" με το "J." Αυτή η κίνηση ώθησε την τεχνολογία να απελευθερώσει προσωπικά αναγνωρίσιμες πληροφορίες, ή PII, από μια βάση δεδομένων. Οι ερευνητές διαπίστωσαν ότι μπορούσαν να παρακάμψουν τους ελέγχους ασφαλείας με άλλους τρόπους, όπως το να κάνουν το μοντέλο να παρεκκλίνει με τρόπους που δεν έπρεπε. Αντιγράφοντας το παράδειγμα της Nvidia για μια στενή συζήτηση σχετικά με μια έκθεση για τις θέσεις εργασίας, μπόρεσαν να βάλουν το μοντέλο σε θέματα όπως η υγεία ενός σταρ του Χόλιγουντ και ο γαλλοπρωσικός πόλεμος - παρά τις προστατευτικές μπάρες που έχουν σχεδιαστεί για να εμποδίζουν την τεχνητή νοημοσύνη να κινείται πέρα από συγκεκριμένα θέματα.
Η ευκολία με την οποία οι ερευνητές νίκησαν τις ασφαλιστικές δικλείδες αναδεικνύει τις προκλήσεις που αντιμετωπίζουν οι εταιρείες τεχνητής νοημοσύνης στην προσπάθειά τους να εμπορευματοποιήσουν μια από τις πιο υποσχόμενες τεχνολογίες που έχουν αναδυθεί από τη Silicon Valley εδώ και χρόνια.
"Βλέπουμε ότι πρόκειται για ένα δύσκολο πρόβλημα [που] απαιτεί μια βαθιά τεχνογνωσία", δήλωσε ο Γιάρον Σίνγκερ, καθηγητής πληροφορικής στο Πανεπιστήμιο του Χάρβαρντ και διευθύνων σύμβουλος της Robust Intelligence. "Τα ευρήματα αυτά αποτελούν μια προειδοποιητική ιστορία για τις παγίδες που υπάρχουν".
Στον απόηχο των αποτελεσμάτων των δοκιμών τους, οι ερευνητές συμβούλευσαν τους πελάτες τους να αποφύγουν το προϊόν λογισμικού της Nvidia. Αφού οι Financial Times ζήτησαν από την Nvidia να σχολιάσει την έρευνα νωρίτερα αυτή την εβδομάδα, η κατασκευάστρια εταιρεία ενημέρωσε την Robust Intelligence ότι είχε διορθώσει μία από τις βασικές αιτίες πίσω από τα προβλήματα που είχαν αναφερθεί από τους αναλυτές.
Ο Τζόναθαν Κοέν, αντιπρόεδρος εφαρμοσμένης έρευνας της Nvidia, δήλωσε ότι το πλαίσιό της είναι απλώς ένα "σημείο εκκίνησης για τη δημιουργία AI chatbots που ευθυγραμμίζονται με τις καθορισμένες από τους προγραμματιστές κατευθυντήριες γραμμές για την επικαιρότητα, την ασφάλεια και την ασφάλεια".
"Κυκλοφόρησε ως λογισμικό ανοικτού κώδικα για να εξερευνήσει η κοινότητα τις δυνατότητές του, να παράσχει ανατροφοδότηση και να συνεισφέρει νέες τεχνικές τελευταίας τεχνολογίας", δήλωσε, προσθέτοντας ότι η εργασία της Robust Intelligence "προσδιόρισε πρόσθετα βήματα που θα χρειάζονταν για την ανάπτυξη μιας εφαρμογής παραγωγής".
Αρνήθηκε να πει πόσες επιχειρήσεις χρησιμοποιούν το προϊόν, αλλά δήλωσε ότι η εταιρεία δεν έχει λάβει άλλες αναφορές για κακή συμπεριφορά του.
Κορυφαίες εταιρείες τεχνητής νοημοσύνης, όπως η Google και η OpenAI που υποστηρίζεται από τη Microsoft, έχουν κυκλοφορήσει chatbots που λειτουργούν με τα δικά τους γλωσσικά μοντέλα, θεσπίζοντας προστατευτικές μπάρες για να διασφαλίσουν ότι τα προϊόντα τεχνητής νοημοσύνης τους αποφεύγουν να χρησιμοποιούν ρατσιστική ομιλία ή να υιοθετούν μια κυριαρχική προσωπικότητα.
Άλλες εταιρείες ακολούθησαν με ειδικά σχεδιασμένα αλλά πειραματικά ΤΝ που διδάσκουν νέους μαθητές, δίνουν απλές ιατρικές συμβουλές, μεταφράζουν μεταξύ γλωσσών και γράφουν κώδικα. Σχεδόν όλα έχουν υποστεί προβλήματα ασφαλείας. Η Nvidia και άλλοι στον κλάδο της τεχνητής νοημοσύνης πρέπει να "χτίσουν πραγματικά την εμπιστοσύνη του κοινού στην τεχνολογία", δήλωσε η Bea Longworth, επικεφαλής κυβερνητικών υποθέσεων της εταιρείας στην Ευρώπη, τη Μέση Ανατολή και την Αφρική, σε συνέδριο της ομάδας λόμπι του κλάδου TechUK αυτή την εβδομάδα. Πρέπει να δώσουν στο κοινό την αίσθηση ότι "πρόκειται για κάτι που έχει τεράστιες δυνατότητες και δεν είναι απλώς μια απειλή ή κάτι που πρέπει να φοβόμαστε", πρόσθεσε η Longworth.
Recommended Comments
There are no comments to display.
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now