Ο Μπιλ Γκέιτς προστέθηκε στη χορωδία των μεγάλων ονομάτων της τεχνολογίας που έχουν τοποθετηθεί σχετικά με το ζήτημα του κινδύνου γύρω από την τεχνητή νοημοσύνη. Ο δισεκατομμυριούχος μεγαλοεπιχειρηματίας και φιλάνθρωπος ανέπτυξε την άποψή του σε μια ανάρτηση στο προσωπικό του ιστολόγιο GatesNotes σήμερα. "Θέλω να αναγνωρίσω τις ανησυχίες που ακούω και διαβάζω πιο συχνά, πολλές από τις οποίες συμμερίζομαι, και να εξηγήσω πώς τις σκέφτομαι", γράφει.
Σύμφωνα με τον Γκέιτς, η τεχνητή νοημοσύνη είναι "η πιο μετασχηματιστική τεχνολογία που θα δούμε όλοι μας στη διάρκεια της ζωής μας". Αυτό την τοποθετεί πάνω από το διαδίκτυο, τα smartphones και τους προσωπικούς υπολογιστές, την τεχνολογία για την οποία ο ίδιος έκανε πολλά για να την φέρει στον κόσμο.
Ο Γκέιτς ήταν ένας από τις δεκάδες προσωπικότητες υψηλού προφίλ που υπέγραψαν μια δήλωση που δημοσίευσε το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης με έδρα το Σαν Φρανσίσκο πριν από μερικές εβδομάδες, η οποία έχει ως εξής:
"Ο μετριασμός του κινδύνου εξαφάνισης από την Τεχνητή Νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος".
Αλλά δεν υπάρχει καμία κινδυνολογία στη σημερινή ανάρτηση στο ιστολόγιο. Στην πραγματικότητα, ο υπαρξιακός κίνδυνος δεν έχει καμία σημασία. Αντ' αυτού, ο Gates διαμορφώνει τη συζήτηση ως μια αντιπαράθεση μεταξύ "μακροπρόθεσμου" και "άμεσου" κινδύνου και επιλέγει να επικεντρωθεί "στους κινδύνους που είναι ήδη παρόντες ή θα είναι σύντομα παρόντες".
"Ο Γκέιτς λέει τα ίδια εδώ και αρκετό καιρό", λέει ο Ντέιβιντ Λέσλι, διευθυντής της έρευνας ηθικής και υπεύθυνης καινοτομίας στο Ινστιτούτο Alan Turing στο Ηνωμένο Βασίλειο. Ο Γκέιτς ήταν ένα από τα πολλά δημόσια πρόσωπα που μιλούσαν για τον υπαρξιακό κίνδυνο της τεχνητής νοημοσύνης πριν από μια δεκαετία, όταν η βαθιά μάθηση πρωτοξεκίνησε, λέει ο Λέσλι: "Συνήθιζε να ανησυχεί περισσότερο για την υπερ-νοημοσύνη παλαιότερα. Φαίνεται ότι αυτό μπορεί να έχει αμβλυνθεί λίγο".
Ο Γκέιτς δεν απορρίπτει εντελώς τον υπαρξιακό κίνδυνο. Αναρωτιέται τι μπορεί να συμβεί "όταν" -όχι αν- "αναπτύξουμε μια τεχνητή νοημοσύνη που μπορεί να μάθει οποιοδήποτε θέμα ή εργασία", που συχνά αναφέρεται ως τεχνητή γενική νοημοσύνη ή AGI.
Γράφει:
"Είτε φτάσουμε σε αυτό το σημείο σε μια δεκαετία είτε σε έναν αιώνα, η κοινωνία θα πρέπει να αναμετρηθεί με βαθιά ερωτήματα. Τι θα συμβεί αν μια σούπερ τεχνητή νοημοσύνη θέσει τους δικούς της στόχους; Τι θα συμβεί αν αυτοί συγκρουστούν με τους στόχους της ανθρωπότητας; Θα πρέπει να δημιουργήσουμε μια σούπερ ΤΝ; Αλλά η σκέψη για αυτούς τους μακροπρόθεσμους κινδύνους δεν θα πρέπει να αποβεί εις βάρος των πιο άμεσων".
Ο Γκέιτς έχει διαμορφώσει ένα είδος ενδιάμεσου εδάφους μεταξύ του πρωτοπόρου της βαθιάς μάθησης Τζέφρι Χίντον, ο οποίος παραιτήθηκε από τη Google και δημοσιοποίησε τους φόβους του για την τεχνητή νοημοσύνη τον Μάιο, και άλλων όπως ο Γιαν ΛεΚουν και η Ζοέλ Πινό στο Meta AI (που θεωρούν ότι η συζήτηση για υπαρξιακό κίνδυνο είναι "εξωφρενικά γελοία" και "ανισόρροπη") ή η Μέρεντιθ Γουίτακερ στο Signal (που πιστεύει ότι οι φόβοι που μοιράζονται ο Χίντον και άλλοι είναι "ιστορίες φαντασμάτων"). Είναι ενδιαφέρον να αναρωτηθούμε ποια είναι η συμβολή του Gates με το να τοποθετείται τώρα, λέει ο Leslie: "Με όλους να μιλούν γι' αυτό, είμαστε κάπως κορεσμένοι".
Όπως ο Gates, έτσι και ο Leslie δεν απορρίπτει τα σενάρια καταστροφής εντελώς.
"Οι κακοί παράγοντες μπορούν να επωφεληθούν από αυτές τις τεχνολογίες και να προκαλέσουν καταστροφικές βλάβες", λέει. "Δεν χρειάζεται να πιστεύετε στην υπερ-νοημοσύνη, τα αποκαλυπτικά ρομπότ ή τις εικασίες περί AGI για να το καταλάβετε αυτό". "Συμφωνώ όμως ότι οι άμεσες ανησυχίες μας θα πρέπει να αφορούν την αντιμετώπιση των υφιστάμενων κινδύνων που απορρέουν από την ταχεία εμπορευματοποίηση της γεννητικής ΤΝ", λέει ο Leslie. "Εξυπηρετεί έναν θετικό σκοπό να μεγεθύνουμε κατά κάποιο τρόπο τον φακό μας και να πούμε: "Εντάξει, λοιπόν, ποιες είναι οι άμεσες ανησυχίες;"".
Στην ανάρτησή του, ο Γκέιτς σημειώνει ότι η τεχνητή νοημοσύνη αποτελεί ήδη απειλή σε πολλούς θεμελιώδεις τομείς της κοινωνίας, από τις εκλογές μέχρι την εκπαίδευση και την απασχόληση. Φυσικά, οι ανησυχίες αυτές δεν αποτελούν είδηση. Αυτό που θέλει να μας πει ο Γκέιτς είναι ότι παρόλο που αυτές οι απειλές είναι σοβαρές, το έχουμε: "Ο καλύτερος λόγος για να πιστέψουμε ότι μπορούμε να διαχειριστούμε τους κινδύνους είναι ότι το έχουμε ξανακάνει".
Στις δεκαετίες του 1970 και του '80, οι αριθμομηχανές άλλαξαν τον τρόπο με τον οποίο οι μαθητές μάθαιναν μαθηματικά, επιτρέποντάς τους να επικεντρωθούν σε αυτό που ο Γκέιτς αποκαλεί "δεξιότητες σκέψης πίσω από την αριθμητική" και όχι στην ίδια τη βασική αριθμητική. Τώρα βλέπει εφαρμογές όπως το ChatGPT να κάνουν το ίδιο και με άλλους τομείς.
Στις δεκαετίες του 1980 και του '90, οι εφαρμογές επεξεργασίας κειμένου και υπολογιστικών φύλλων άλλαξαν την εργασία γραφείου - αλλαγές που προήλθαν από την εταιρεία του ίδιου του Gates, τη Microsoft. Και πάλι, ο Gates κοιτάζει πίσω στο πώς οι άνθρωποι προσαρμόστηκαν και ισχυρίζεται ότι μπορούμε να το κάνουμε ξανά. "Οι εφαρμογές επεξεργασίας κειμένου δεν εξαφάνισαν την εργασία γραφείου, αλλά την άλλαξαν για πάντα", γράφει. "Η αλλαγή που προκαλεί η τεχνητή νοημοσύνη θα είναι μια ανώμαλη μετάβαση, αλλά υπάρχει κάθε λόγος να πιστεύουμε ότι μπορούμε να μειώσουμε την αναστάτωση στη ζωή και το βιοπορισμό των ανθρώπων".
Ομοίως και με την παραπληροφόρηση: μάθαμε πώς να αντιμετωπίζουμε το spam, οπότε μπορούμε να κάνουμε το ίδιο και για τα deepfakes. "Τελικά, οι περισσότεροι άνθρωποι έμαθαν να κοιτάζουν δύο φορές αυτά τα μηνύματα ηλεκτρονικού ταχυδρομείου", γράφει ο Gates. "Καθώς οι απάτες έγιναν πιο εξελιγμένες, το ίδιο έκαναν και πολλοί από τους στόχους τους. Θα πρέπει να δημιουργήσουμε την ίδια δύναμη για τα deepfakes".
Ο Γκέιτς προτρέπει σε γρήγορη αλλά προσεκτική δράση για την αντιμετώπιση όλων των βλαβών του καταλόγου του. Το πρόβλημα είναι ότι δεν προσφέρει τίποτα καινούργιο. Πολλές από τις προτάσεις του είναι κουραστικές- ορισμένες είναι επιπόλαιες.
Όπως και άλλοι τις τελευταίες εβδομάδες, ο Γκέιτς ζητά να δημιουργηθεί ένας παγκόσμιος οργανισμός για τη ρύθμιση της τεχνητής νοημοσύνης, παρόμοιος με τον Διεθνή Οργανισμό Ατομικής Ενέργειας. Πιστεύει ότι αυτό θα ήταν ένας καλός τρόπος να ελεγχθεί η ανάπτυξη κυβερνο-όπλων ΤΝ. Αλλά δεν λέει τι θα πρέπει να περιορίσουν αυτοί οι κανονισμοί ή πώς θα πρέπει να επιβληθούν.
Λέει ότι οι κυβερνήσεις και οι επιχειρήσεις πρέπει να προσφέρουν υποστήριξη, όπως προγράμματα επανεκπαίδευσης, για να διασφαλίσουν ότι οι άνθρωποι δεν θα μείνουν πίσω στην αγορά εργασίας. Οι δάσκαλοι, λέει, θα πρέπει επίσης να υποστηριχθούν στη μετάβαση σε έναν κόσμο στον οποίο εφαρμογές όπως το ChatGPT είναι ο κανόνας. Αλλά ο Γκέιτς δεν διευκρινίζει πώς θα μπορούσε να μοιάζει αυτή η υποστήριξη.
Και λέει ότι πρέπει να γίνουμε καλύτεροι στο να εντοπίζουμε τα deepfakes, ή τουλάχιστον να χρησιμοποιούμε εργαλεία που τα εντοπίζουν για εμάς. Αλλά τα τελευταία εργαλεία δεν μπορούν να ανιχνεύσουν εικόνες ή κείμενα που δημιουργούνται από τεχνητή νοημοσύνη αρκετά καλά ώστε να είναι χρήσιμα. Καθώς η τεχνητή νοημοσύνη βελτιώνεται, οι ανιχνευτές θα συμβαδίζουν;
Ο Γκέιτς έχει δίκιο ότι "μια υγιής δημόσια συζήτηση θα εξαρτηθεί από το αν όλοι γνωρίζουν την τεχνολογία, τα οφέλη και τους κινδύνους της". Όμως συχνά επαναπαύεται στην πεποίθηση ότι η ΤΝ θα λύσει τα προβλήματα της ΤΝ - μια πεποίθηση που δεν θα συμμερίζονται όλοι. Ναι, οι άμεσοι κίνδυνοι πρέπει να έχουν προτεραιότητα. Ναι, έχουμε περάσει (ή ξεπεράσει με μπουλντόζες) τεχνολογικές ανατροπές στο παρελθόν και θα μπορούσαμε να το ξανακάνουμε. Αλλά πώς;
"Ένα πράγμα που είναι σαφές από όλα όσα έχουν γραφτεί μέχρι στιγμής για τους κινδύνους της τεχνητής νοημοσύνης -και έχουν γραφτεί πολλά- είναι ότι κανείς δεν έχει όλες τις απαντήσεις", γράφει ο Γκέιτς. Αυτό εξακολουθεί να ισχύει.
Recommended Comments
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now