Οι εταιρείες που αναπτύσσουν εργαλεία τεχνητής νοημοσύνης, όπως το ChatGPT, θα πρέπει να αποκαλύπτουν οποιοδήποτε υλικό που προστατεύεται από πνευματικά δικαιώματα και που χρησιμοποιείται για την ανάπτυξη των συστημάτων τους, βάσει μιας αρχικής συμφωνίας που θα μπορούσε να ανοίξει το δρόμο για το πρώτο ολοκληρωμένο νομοθετικό πλαίσιο στον κόσμο γύρω από το AI.
Η Ευρωπαϊκή Επιτροπή ξεκίνησε τη σύνταξη του νόμου για την τεχνητή νοημοσύνη πριν από σχεδόν δύο χρόνια, με στόχο τη ρύθμιση της αναδυόμενης τεχνολογίας, η οποία γνώρισε έκρηξη σε επενδύσεις και δημοτικότητα μετά την ευρεία διάθεση του ChatGPT της OpenAI.
Τα μέλη του Ευρωπαϊκού Κοινοβουλίου συμφώνησαν να προωθήσουν το προσχέδιο στο επόμενο στάδιο, στον τριμερή διάλογο, κατά τη διάρκεια του οποίου οι νομοθέτες της ΕΕ και τα κράτη – μέλη θα καταλήξουν στις τελικές λεπτομέρειες του νομοσχεδίου.
Βάσει των προτάσεων, τα εργαλεία τεχνητής νοημοσύνης θα ταξινομηθούν σύμφωνα με το επίπεδο κινδύνου που παρουσιάζουν: από ελάχιστο έως περιορισμένο, υψηλό και μη αποδεκτό. Στους τομείς ανησυχίας θα μπορούσαν να περιλαμβάνονται η βιομετρική παρακολούθηση, η διάδοση της παραπληροφόρησης και η μεροληπτική γλώσσα.
Αν και τα εργαλεία υψηλού κινδύνου δεν θα απαγορευθούν, όσοι τα χρησιμοποιούν θα πρέπει να είναι εξαιρετικά διαφανείς στις δραστηριότητες τους. Οι εταιρείες που αναπτύσσουν εφαρμογές όπως το ChatGPT ή το Midjourney, θα πρέπει, επίσης, να αποκαλύπτουν υλικό που προστατεύεται από πνευματικά δικαιώματα, το οποίο χρησιμοποιείται για την ανάπτυξη των συστημάτων τους.