Η Ευρωπαϊκή Επιτροπή προτείνει την αναστολή τμημάτων της εμβληματικής νομοθεσίας της για την τεχνητή νοημοσύνη (ΤΝ), εν μέσω έντονων πιέσεων από μεγάλες εταιρείες τεχνολογίας και την κυβέρνηση των ΗΠΑ, όπως ανέφεραν οι Financial Times την Παρασκευή. Η κίνηση αυτή ακολουθεί μήνες παροτρύνσεων από τεχνολογικούς γίγαντες όπως η Meta και η Alphabet, καθώς και πίεσης από την κυβέρνηση Τραμπ, η οποία έχει προειδοποιήσει κατά μέτρων που θα μπορούσαν να προκαλέσουν εμπορικές εντάσεις.
Η ΕΕ βρίσκεται σε «επαφές» με την κυβέρνηση Τραμπ σχετικά με προσαρμογές στην Πράξη για την ΤΝ (AI Act) και άλλους ψηφιακούς κανονισμούς, ως μέρος μιας ευρύτερης διαδικασίας απλούστευσης, η οποία πρόκειται να υιοθετηθεί στις 19 Νοεμβρίου, δήλωσε ανώτερος αξιωματούχος της ΕΕ στους FT.
Τον Ιούλιο, εκπρόσωπος της Ευρωπαϊκής Επιτροπής απέρριψε τις εκκλήσεις ορισμένων εταιρειών και χωρών για παύση, δηλώνοντας ότι οι κανόνες για την ΤΝ θα εφαρμοστούν σύμφωνα με το νομικό χρονοδιάγραμμα που προβλέπεται στη νομοθεσία. Εκπρόσωπος της ΕΕ δήλωσε στους FT ότι οι συνομιλίες συνεχίζονταν εντός της Επιτροπής σχετικά με πιθανές καθυστερήσεις στην «εφαρμογή στοχευμένων τμημάτων της Πράξης για την ΤΝ».
Ο ίδιος εκπρόσωπος πρόσθεσε ότι, αν και εξετάζονταν διάφορες επιλογές, η ΕΕ παρέμεινε «πλήρως ταγμένη υπέρ της Πράξης για την ΤΝ και των στόχων της». Η νομοθεσία τέθηκε σε ισχύ τον Αύγουστο του 2024, αλλά πολλές από τις διατάξεις της έχουν κλιμακωτή εφαρμογή ώστε να τεθούν σε ισχύ τα επόμενα έτη.
Τι προβλέπει το AI Act: Η προσέγγιση τεσσάρων επιπέδων κινδύνου
Η Πράξη για την Τεχνητή Νοημοσύνη (AI Act) της Ευρωπαϊκής Ένωσης αποτελεί το πρώτο παγκοσμίως ολοκληρωμένο νομικό πλαίσιο που θεσπίζει εναρμονισμένους κανόνες για την ανάπτυξη, τη διάθεση στην αγορά και τη χρήση συστημάτων ΤΝ. Κεντρικός στόχος της νομοθεσίας είναι η διασφάλιση ότι τα συστήματα τεχνητής νοημοσύνης που λειτουργούν εντός της ΕΕ είναι ασφαλή, αξιόπιστα και σέβονται τα θεμελιώδη δικαιώματα και τις αξίες των ευρωπαίων πολιτών.
Η προσέγγιση του κανονισμού βασίζεται στον κίνδυνο, ταξινομώντας τις εφαρμογές τεχνητής νοημοσύνης σε τέσσερις διακριτές κατηγορίες. Στην κορυφή βρίσκονται τα συστήματα «μη αποδεκτού κινδύνου», τα οποία θεωρούνται σαφής απειλή για τα δικαιώματα και απαγορεύονται πλήρως. Αυτά περιλαμβάνουν πρακτικές όπως η κοινωνική βαθμολόγηση (social scoring) από δημόσιους φορείς ή τεχνικές υποσυνείδητης χειραγώγησης που εκμεταλλεύονται ευάλωτες ομάδες.
Ακολουθούν τα συστήματα «υψηλού κινδύνου», τα οποία αφορούν κρίσιμους τομείς και μπορούν να έχουν σοβαρές επιπτώσεις στην ασφάλεια ή τα θεμελιώδη δικαιώματα. Εφαρμογές σε υποδομές ζωτικής σημασίας, ιατρικές συσκευές, διαδικασίες προσλήψεων, εκπαίδευση ή συστήματα επιβολής του νόμου, υπόκεινται σε αυστηρές κανονιστικές απαιτήσεις και εποπτεία, τόσο πριν την κυκλοφορία τους όσο και καθ’ όλη τη διάρκεια του κύκλου ζωής τους.
Στην τρίτη κατηγορία, τα συστήματα «περιορισμένου κινδύνου», επιβάλλονται κυρίως υποχρεώσεις διαφάνειας. Για παράδειγμα, οι χρήστες πρέπει να ενημερώνονται με σαφήνεια όταν αλληλεπιδρούν με ένα σύστημα ΤΝ, όπως ένα chatbot, ή όταν ένα περιεχόμενο, όπως ένα deepfake, έχει παραχθεί τεχνητά. Η κατηγορία «ελάχιστου κινδύνου» περιλαμβάνει την πλειονότητα των σημερινών εφαρμογών, όπως φίλτρα ανεπιθύμητης αλληλογραφίας, για τις οποίες δεν προβλέπονται ειδικές ρυθμίσεις.
Για την επιβολή των κανόνων, ο κανονισμός προβλέπει τη σύσταση εθνικών εποπτικών αρχών σε κάθε κράτος-μέλος. Η μη συμμόρφωση επισύρει αυστηρές κυρώσεις, με τα διοικητικά πρόστιμα να είναι ιδιαίτερα υψηλά, φτάνοντας δυνητικά έως και το 7% του συνολικού παγκόσμιου ετήσιου κύκλου εργασιών της εκάστοτε επιχείρησης, ανάλογα με τη σοβαρότητα της παράβασης.
Η νομοθεσία τέθηκε επίσημα σε ισχύ τον Αύγουστο του 2024, ωστόσο η εφαρμογή των διατάξεών της είναι κλιμακωτή, ώστε να δοθεί ο απαραίτητος χρόνος προσαρμογής. Το πρώτο ορόσημο είναι ο Φεβρουάριος του 2025, όταν τίθενται σε εφαρμογή οι απαγορεύσεις για τα συστήματα μη αποδεκτού κινδύνου.
Τον Αύγουστο του 2025, δώδεκα μήνες μετά την έναρξη ισχύος, θα εφαρμοστούν οι κανόνες διακυβέρνησης που αφορούν τα μοντέλα ΤΝ γενικής χρήσης (GPAI). Η πλήρης εφαρμογή του κανονισμού, συμπεριλαμβανομένων όλων των απαιτήσεων για τα συστήματα υψηλού κινδύνου και των υποχρεώσεων διαφάνειας για τα συστήματα περιορισμένου κινδύνου, έχει προγραμματιστεί για τον Αύγουστο του 2026.
