Νέο εργαλείο από το Συμβούλιο της Ευρώπης για την αξιολόγηση των επιπτώσεων των συστημάτων τεχνητής νοημοσύνης στα ανθρώπινα δικαιώματα
Η μεθοδολογία HUDERIA υπογραμμίζει τη σημασία της ανάλυσης των επιπτώσεων των συστημάτων τεχνητής νοημοσύνης στο κοινωνικό και τεχνικό τους πλαίσιο. Κεντρικό στοιχείο του εργαλείου είναι η δημιουργία σχεδίου μετριασμού κινδύνων, το οποίο αποσκοπεί στην ελαχιστοποίηση ή εξάλειψη των εντοπισμένων απειλών. Για παράδειγμα, αν ένα σύστημα τεχνητής νοημοσύνης που χρησιμοποιείται για προσλήψεις παρουσιάζει μεροληψία απέναντι σε συγκεκριμένες κοινωνικές ομάδες, το σχέδιο θα μπορούσε να περιλαμβάνει την αναθεώρηση του αλγορίθμου, την ενίσχυση της ανθρώπινης εποπτείας και την εφαρμογή κατάλληλων μέτρων διακυβέρνησης.
Η HUDERIA απαιτεί τακτικές επαναξιολογήσεις των συστημάτων τεχνητής νοημοσύνης για να διασφαλίζεται ότι λειτουργούν με ασφάλεια και σε συμβατότητα με τις υποχρεώσεις ανθρωπίνων δικαιωμάτων, ακόμη και όταν οι τεχνολογικές και κοινωνικές συνθήκες μεταβάλλονται. Επιπλέον, το εργαλείο θα επεκταθεί το 2025 με το HUDERIA Model, το οποίο θα περιλαμβάνει βιβλιοθήκη υλικών, ευέλικτα εργαλεία και προτάσεις κλιμακούμενες στις ανάγκες κάθε περίπτωσης.
Η δημιουργία της HUDERIA αποτελεί μέρος της στρατηγικής εφαρμογής της Σύμβασης Πλαισίου για την Τεχνητή Νοημοσύνη και τα Ανθρώπινα Δικαιώματα, τη Δημοκρατία και το Κράτος Δικαίου. Η σύμβαση αυτή, που υιοθετήθηκε τον Μάιο του 2024, είναι η πρώτη νομικά δεσμευτική διεθνής συμφωνία που ρυθμίζει τη σχεδίαση, ανάπτυξη, χρήση και παύση λειτουργίας συστημάτων τεχνητής νοημοσύνης. Με στόχο τη διασφάλιση των θεμελιωδών αξιών της ανθρωπότητας, η σύμβαση έχει ήδη υπογραφεί από χώρες όπως η Ισλανδία, το Ηνωμένο Βασίλειο, οι Ηνωμένες Πολιτείες και η Ευρωπαϊκή Ένωση.
Η HUDERIA και η σχετική σύμβαση πλαισίου θέτουν τις βάσεις για τη διαχείριση των ηθικών και κοινωνικών προκλήσεων της τεχνητής νοημοσύνης, ενισχύοντας την καινοτομία χωρίς να θυσιάζονται τα ανθρώπινα δικαιώματα και η δημοκρατία.
263