Οι Ηνωμένες Πολιτείες, η Βρετανία και άλλες 16 χώρες υπέγραψαν αυτό που περιγράφεται ως η πρώτη αναλυτική διεθνή συμφωνία για την ασφάλεια της τεχνητής νοημοσύνης, πιέζοντας τις εταιρείες να δημιουργήσουν AI συστήματα που είναι «secure by design».
Σε ένα έγγραφο 20 σελίδων που παρουσιάστηκε την Κυριακή, οι 18 χώρες συμφώνησαν ότι οι εταιρείες που σχεδιάζουν και χρησιμοποιούν τεχνητή νοημοσύνη πρέπει να την αναπτύσσουν με τρόπο που προστατεύει τους πελάτες τους και το ευρύτερο κοινό από την κακή χρήση.
Η συμφωνία είναι μη δεσμευτική και περιλαμβάνει, ως επί το πλείστον, γενικές συστάσεις, όπως η παρακολούθηση των συστημάτων τεχνητής νοημοσύνης για κατάχρηση, η προστασία των δεδομένων από παραβιάσεις και ο έλεγχος των προμηθευτών λογισμικού.
Ωστόσο, η διευθύντρια της Υπηρεσίας Κυβερνοασφάλειας και Ασφάλειας Υποδομών των ΗΠΑ, Jen Easterly, είπε ότι είναι σημαντικό πως τόσες πολλές χώρες στηρίζουν την ιδέα ότι τα συστήματα τεχνητής νοημοσύνης πρέπει να βάζουν ως πρώτη προτεραιότητα το θέμα της ασφάλειας.
«Αυτή είναι η πρώτη φορά που βλέπουμε μια επιβεβαίωση ότι αυτές οι δυνατότητες δεν πρέπει να αφορούν μόνο στα όμορφα χαρακτηριστικά και το πόσο γρήγορα μπορούμε να τα φέρουμε στην αγορά ή πώς μπορούμε να ανταγωνιστούμε για να μειώσουμε το κόστος», είπε η Easterly, προσθέτοντας ότι οι οδηγίες δείχνουν ότι «το πιο σημαντικό πράγμα που πρέπει να γίνει στη φάση του σχεδιασμού είναι η ασφάλεια».
Η συμφωνία είναι η τελευταία σε μια σειρά πρωτοβουλιών, από κυβερνήσεις σε όλο τον κόσμο, με στόχο τη διαμόρφωση της ανάπτυξης της τεχνητής νοημοσύνης, της οποίας ο αντίκτυπος γίνεται ολοένα και πιο αισθητός στη βιομηχανία και την κοινωνία γενικότερα.
Εκτός από τις Ηνωμένες Πολιτείες και τη Βρετανία, οι 18 χώρες που υπέγραψαν τις νέες κατευθυντήριες γραμμές περιλαμβάνουν τις Αυστραλία, Καναδάς, Νέα Ζηλανδία, Χιλή, Τσεχία, Εσθονία, Γαλλία, Γερμανία, Ισραήλ, Ιταλία, Ιαπωνία, Νιγηρία, Νορβηγία, Πολωνία, Κορέα, Σιγκαπούρη.
Το πλαίσιο επικεντρώνει σε ερωτήματα σχετικά με το πώς να αποτραπεί η κατάχρηση AI από χάκερ και περιλαμβάνει διάφορες συστάσεις, όπως η διάθεση μοντέλων μόνο μετά από κατάλληλες δοκιμές ασφαλείας.
Δεν αντιμετωπίζει ακανθώδη ερωτήματα σχετικά με τις χρήσεις της τεχνητής νοημοσύνης ή το πώς συλλέγονται τα δεδομένα που τροφοδοτούν αυτά τα μοντέλα.