Σε ένα έγγραφο που εστάλη προς τους Ευρωπαίους πολιτικούς, ένα γκρουπ εταιρειών, συμπεριλαμβανομένων των GitHub, Hugging Face, Creative Commons και άλλων, ζητούν περισσότερη υποστήριξη για την ανάπτυξη μοντέλων τεχνητής νοημοσύνης ανοιχτού κώδικα, καθώς η ΕΕ εξετάζει την οριστικοποίηση της σχετικής νομοθεσίας. Οι EleutherAI, LAION και Open Future συνυπέγραψαν την έκκληση.
Ο κατάλογος των προτάσεών τους προς το Ευρωπαϊκό Κοινοβούλιο, ζητά σαφέστερους ορισμούς των στοιχείων AI, διευκρινίζοντας ότι οι χομπίστες και οι ερευνητές που εργάζονται γύρω από μοντέλα ανοιχτού κώδικα δεν επωφελούνται εμπορικά από την AI. Ζητούν, έτσι, να επιτρέπονται οι περιορισμένες πραγματικές δοκιμές για έργα τεχνητής νοημοσύνης και να υπάρχουν αναλογικές απαιτήσεις για τα διάφορα μοντέλα.
Οι κανονισμοί γύρω από την τεχνητή νοημοσύνη αποτελούν ένα καυτό θέμα για πολλές κυβερνήσεις, με την ΕΕ να βρίσκεται μεταξύ των πρώτων που άρχισε να συζητά σοβαρά τις σχετικές προτάσεις. Ωστόσο, ο νόμος της ΕΕ για την τεχνητή νοημοσύνη έχει επικριθεί επειδή είναι πολύ ευρύς στους ορισμούς του για τις τεχνολογίες, ενώ εξακολουθεί να εστιάζει πολύ στενά στο επίπεδο εφαρμογής.
«Ο νόμος για την τεχνητή νοημοσύνη υπόσχεται να δημιουργήσει ένα παγκόσμιο προηγούμενο στη ρύθμιση της τεχνητής νοημοσύνης για την αντιμετώπιση των κινδύνων της, ενώ ενθαρρύνει την καινοτομία», γράφουν οι εταιρείες. «Υποστηρίζοντας την άνθηση ενός ανοιχτού οικοσυστήματος προσέγγισης για την τεχνητή νοημοσύνη, ο κανονισμός έχει μια σημαντική ευκαιρία να προωθήσει αυτόν τον στόχο».
Ο νόμος προορίζεται να συμπεριλάβει κανόνες για διαφορετικά είδη τεχνητής νοημοσύνης, αν και το μεγαλύτερο μέρος της προσοχής έχει δοθεί στον τρόπο με τον οποίο οι προτεινόμενοι κανονισμοί θα διέπουν τη γενετική τεχνητή νοημοσύνη. Το Ευρωπαϊκό Κοινοβούλιο ενέκρινε σχέδιο πολιτικής τον Ιούνιο.
Οι υποστηρικτές του ανοιχτού κώδικα πιστεύουν ότι η ανάπτυξη της AI λειτουργεί καλύτερα όταν οι άνθρωποι δεν χρειάζεται να πληρώσουν για την πρόσβαση στα μοντέλα και όταν υπάρχει μεγαλύτερη διαφάνεια στον τρόπο εκπαίδευσης τους. Εντούτοις, αυτό έχει προκαλέσει και ορισμένα προβλήματα στις εταιρείες που δημιουργούν αυτά τα πλαίσια. Η OpenAI, για παράδειγμα, αποφάσισε να σταματήσει να μοιράζεται μεγάλο μέρος της έρευνάς της γύρω από το GPT, λόγω θεμάτων ανταγωνισμού και ασφάλειας.
Οι εταιρείες τόνισαν ότι οι κανόνες για ορισμένα μοντέλα που θεωρούνται υψηλού κινδύνου, ανεξάρτητα από το πόσο μεγάλος ή μικρός είναι ο developer, θα μπορούσαν να είναι επιζήμιοι για εκείνους που δεν έχουν σημαντική οικονομική κάλυψη. Για παράδειγμα, η συμμετοχή τρίτων ελεγκτών «είναι δαπανηρή και δεν είναι απαραίτητη για τον μετριασμό των κινδύνων που σχετίζονται με τα θεμελιώδη μοντέλα».
Η ομάδα των εταιρειών επιμένει, επίσης, ότι η κοινή χρήση εργαλείων τεχνητής νοημοσύνης σε βιβλιοθήκες ανοιχτού κώδικα δεν εμπίπτει σε εμπορικές δραστηριότητες, επομένως δεν πρέπει να εμπίπτουν σε ρυθμιστικά μέτρα. Οι κανόνες που απαγορεύουν τη δοκιμή μοντέλων AI σε πραγματικές συνθήκες, είπαν οι εταιρείες, «θα εμποδίσει σημαντικά οποιαδήποτε έρευνα και ανάπτυξη». Πρόσθεσαν ότι οι ανοιχτές δοκιμές παρέχουν μαθήματα για τη βελτίωση των λειτουργιών.