Με στόχο τη διασφάλιση μιας ανθρωποκεντρικής και ηθικής ανάπτυξης της τεχνητής νοημοσύνης στην Ευρώπη, οι αρμόδιες επιτροπές του Ευρωκοινοβουλίου έδωσαν την έγκριση τους για νέους κανόνες διαφάνειας και διαχείρισης κινδύνου.
Η Επιτροπή Εσωτερικής Αγοράς και η Επιτροπή Πολιτικών Ελευθεριών ενέκριναν σχέδιο για τους πρώτους κανόνες σε σχέση με το AI, με 84 ψήφους υπέρ, 7 κατά και 12 αποχές. Μέσω των τροπολογιών που πραγματοποίησαν σε πρόταση της Κομισιόν, οι ευρωβουλευτές επιθυμούν «να διασφαλίσουν ότι τα συστήματα τεχνητής νοημοσύνης επιβλέπονται από ανθρώπους, είναι ασφαλή, διαφανή, ανιχνεύσιμα, χωρίς διακρίσεις και φιλικά προς το περιβάλλον. Επιθυμούν, επίσης, να έχουν έναν ενιαίο ορισμό για την τεχνητή νοημοσύνη, σχεδιασμένο ώστε να είναι τεχνολογικά ουδέτερος, για να μπορεί να ισχύει για τα συστήματα τεχνητής νοημοσύνης του σήμερα και του αύριο».
Οι κανόνες ακολουθούν μια προσέγγιση βασισμένη στον κίνδυνο και θεσπίζουν υποχρεώσεις για τους παρόχους και τους χρήστες, ανάλογα με το επίπεδο κινδύνου που μπορεί να δημιουργήσει η τεχνητή νοημοσύνη. «Συστήματα AI με απαράδεκτο επίπεδο κινδύνου για την ασφάλεια των ανθρώπων θα απαγορεύονται αυστηρά, συμπεριλαμβανομένων εκείνων που αναπτύσσουν υποσυνείδητες ή σκόπιμα χειραγωγικές τεχνικές, εκμεταλλεύονται τα τρωτά σημεία των ανθρώπων ή χρησιμοποιούνται για κοινωνική βαθμολόγηση (ταξινόμηση ατόμων με βάση την κοινωνική τους συμπεριφορά, την κοινωνικοοικονομική κατάσταση, την προσωπική τους κατάσταση)».
Οι ευρωβουλευτές διεύρυναν την ταξινόμηση των περιοχών υψηλού κινδύνου για να συμπεριλάβουν τις βλάβες στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα ή το περιβάλλον. Πρόσθεσαν, επίσης, στη λίστα υψηλού κινδύνου τα συστήματα AI που επηρεάζουν τους ψηφοφόρους κατά τη διάρκεια πολιτικών εκστρατειών και τα συστήματα συστάσεων που χρησιμοποιούνται από πλατφόρμες κοινωνικής δικτύωσης (με περισσότερους από 45 εκατομμύρια χρήστες).
Οι ευρωβουλευτές συμπεριέλαβαν υποχρεώσεις για τους παρόχους θεμελιωδών μοντέλων, που θα πρέπει να εγγυηθούν την ισχυρή προστασία των θεμελιωδών δικαιωμάτων, της υγείας, της ασφάλειας και του περιβάλλοντος, της δημοκρατίας και του κράτους δικαίου. Θα πρέπει να αξιολογήσουν και να μετριάσουν τους κινδύνους, να συμμορφωθούν με τις απαιτήσεις σχεδιασμού, πληροφοριών και περιβάλλοντος και να εγγραφούν στη βάση δεδομένων της ΕΕ.
Μοντέλα όπως το GPT θα πρέπει να συμμορφώνονται με πρόσθετες απαιτήσεις διαφάνειας, όπως η αποκάλυψη ότι το περιεχόμενο δημιουργήθηκε από τεχνητή νοημοσύνη, ο σχεδιασμός του μοντέλου να αποτρέπει τη δημιουργία παράνομου περιεχομένου, και να υπάρχει δημοσίευση περιλήψεων των δεδομένων που προστατεύονται από πνευματικά δικαιώματα και που χρησιμοποιήθηκαν για εκπαίδευση.
Για να ενισχύσουν το θέμα της καινοτομίας, οι ευρωβουλευτές πρόσθεσαν εξαιρέσεις σε αυτούς τους κανόνες για ερευνητικές δραστηριότητες και στοιχεία τεχνητής νοημοσύνης που παρέχονται με άδειες ανοιχτού κώδικα. Ο νέος νόμος προωθεί ρυθμιστικά sandboxes -ελεγχόμενα περιβάλλοντα- που έχουν δημιουργηθεί από τις Αρχές για τη δοκιμή της τεχνητής νοημοσύνης πριν από την ανάπτυξή της.
Οι ευρωβουλευτές, όπως σημειώνεται χαρακτηριστικά, θέλουν «να ενισχύσουν το δικαίωμα των πολιτών να υποβάλλουν καταγγελίες για συστήματα τεχνητής νοημοσύνης και να λαμβάνουν εξηγήσεις για αποφάσεις που βασίζονται σε συστήματα υψηλού κινδύνου, που επηρεάζουν σημαντικά τα δικαιώματά τους. Οι ευρωβουλευτές αναμόρφωσαν, επίσης, τον ρόλο του Γραφείου τεχνητής νοημοσύνης της ΕΕ, το οποίο θα είναι επιφορτισμένο με την παρακολούθηση του τρόπου με τον οποίο εφαρμόζεται το εγχειρίδιο των σχετικών κανόνων».
Προτού ξεκινήσουν οι διαπραγματεύσεις με το Ευρωπαϊκό Συμβούλιο, σε σχέση με την τελική μορφή του νόμου, το σχέδιο θα πρέπει να εγκριθεί από ολόκληρο το Ευρωκοινοβούλιο, με την ψηφοφορία να αναμένεται κατά τη σύνοδο της 12ης-15ης Ιουνίου.