Στην ανάγκη να υπάρξουν άμεσα κοινοί κανόνες στην τεχνολογική βιομηχανία και τις πλατφόρμες κοινωνικής δικτύωσης για την επισήμανση περιεχομένου που έχει παραχθεί αξιοποιώντας εργαλεία Τεχνητής Νοημοσύνης (ΑΙ) αναφέρθηκε ο Πρόεδρος Global Affairs της Meta, κ. Nick Clegg. Αυτό επεσήμανε, ανάμεσα σε άλλα, συνομιλώντας για τη σχέση της Τεχνητής Νοημοσύνης και της Δημοκρατίας με την κα Liz Alderman, Chief European Business Correspondent, The New York Times στο πλαίσιο του 11ου Athens Democracy Forum που πραγματοποιήθηκε από τις 27 μέχρι τις 29 Σεπτεμβρίου και τελεί υπό την Αιγίδα της Προέδρου της Δημοκρατίας, Κατερίνας Σακελλαροπούλου.
Απαντώντας στις ανησυχίες που διατυπώνονται σχετικά με τις τεχνολογικές καινοτομίες που αφορούν στην Τεχνητή Νοημοσύνη και στις πιθανές χρήσεις που μπορεί να έχει στο μέλλον, ο κ. Clegg σημείωσε πως, πράγματι, όπως κάθε τεχνολογική καινοτομία, μπορεί να αξιοποιηθεί και με κακή πρόθεση υπογραμμίζοντας πως είναι μία τυπική ανθρώπινη αντίδραση η ανησυχία για κάθε πιθανή άσχημη εξέλιξη. Εντούτοις, ξεκαθάρισε πως σήμερα, τα εργαλεία ΑΙ που έχουν αναπτυχθεί, παρότι έχουν εξαιρετικά αποτελεσματικά στη διαχείριση μεγάλων βάσεων δεδομένων δεν διαθέτουν δυνατότητες πραγματικής αυτονομίας. Όπως είπε, μπορεί τα συστήματα αυτά να είναι παραγωγικά, στην πραγματικότητα, όμως, δεν έχουν την αντιληπτική ικανότητα να γνωρίζουν τι είναι αυτό που παράγουν.
Αναφερόμενος στο κρίσιμο ζήτημα της παραπληροφόρησης, υπενθύμισε πως εργαλεία με αντίστοιχες δυνατότητες παραπληροφόρησης του κοινού υπάρχουν εδώ και χρόνια και έθεσε το καίριο ερώτημα του πώς, τελικά, η Τεχνητή Νοημοσύνη μπορεί να αποτελέσει για μεγάλες πλατφόρμες όπως η Meta όχι απλώς μία ασπίδα αλλά και ένα όπλο στην μάχη ενάντια στην παραπληροφόρηση. Στο πλαίσιο αυτό ανέφερε ως χαρακτηριστικό παράδειγμα σχετικής προσπάθειας τον περιορισμό της ρητορικής μίσους στις πλατφόρμες social media. Όπως είπε, αξιοποιώντας τις δυνατότητες για παρακολούθηση του περιεχομένου που δίνουν τα συστήματα ΑΙ έχει υπάρξει τεράστια πρόοδος στον περιορισμό της ρητορικής μίσους κατά 50-60%. Σύμφωνα με τον κ. Clegg, τα συστήματα αυτά, εφόσον εκπαιδευτούν σωστά έχουν τη δυνατότητα να εντοπίζουν κάθε πιθανή προσπάθεια παραπληροφόρησης ανάμεσα σε διαφορετικές πλατφόρμες και Μέσα, ακόμα και αν έχει υπάρξει αλλαγή στο περιεχόμενό τους προκειμένου να μην εντοπίζονται εύκολα.
Ερωτώμενος για το ζήτημα τεχνολογίας που αξιοποιεί open source models και τους κινδύνους που ενδέχεται να δημιουργήσει η ευρεία χρήση της σημείωσε πως δεν θα πρέπει να αντιμετωπίζουμε το ζήτημα με δογματισμό υπογραμμίζοντας την ανάγκη εκδημοκρατισμού της τεχνολογίας προκειμένου να αποτελεί εργαλείο, για παράδειγμα, για ερευνητές και ακαδημαϊκούς σε όλο τον κόσμο και όχι αποκλειστικό προνόμιο των μεγάλων τεχνολογικών κολοσσών των ΗΠΑ και της Κίνας. Υπογράμμισε πως οι αλλαγές αυτές που βιώνουμε σήμερα δεν αποτελούν απλώς την επαφή μας με μία νέα εφαρμογή ή ένα προϊόν αλλά με τη βάση της τεχνολογίας που θα αξιοποιούμε ευρέως στο μέλλον ενώ σημείωσε πως ακόμα και οι πρωτοπόροι της τεχνολογίας αυτής διαφωνούν για το ποια θα είναι η εξέλιξή της και το κατά πόσο θα είναι πιο εύκολα ελεγχόμενη από τα σενάρια που εξετάζονται σήμερα.
Απαντώντας στο κατά πόσο μπορεί να διασφαλιστεί ότι η Τεχνητή Νοημοσύνη δεν θα παρέμβει σε κορυφαίες δημοκρατικές διαδικασίες όπως εκείνη των εκλογών σημείωσε πως είναι αναμφίβολο ότι τα συστήματα αυτά μπορούν να χρησιμοποιηθούν για τη δημιουργία οποιουδήποτε περιεχομένου, εντούτοις, οι εταιρείες μπορούν να ελέγξουν τη διασπορά που θα έχει το περιεχόμενο αυτό. Στο σημείο αυτό υπογράμμισε την ανάγκη άμεσης και στενής συνεργασίας της αγοράς και τις κυβερνήσεις προκειμένου το νομοθετικό πλαίσιο να τρέξει ταχύτερα και να προλάβει τις τεχνολογικές εξελίξεις καθώς και την ανάγκη να υπάρξουν κοινοί κανόνες για όλες τις πλατφόρμες στην επισήμανση του περιεχομένου που έχει παραχθεί με συστήματα Τεχνητής Νοημοσύνης. Με τον τόπο αυτό, είπε, θα είναι και πιο αποτελεσματική η παρακολούθηση και ο περιορισμός ανεπιθύμητου υλικού σε διαφορετικές πλατφόρμες, ενώ θα υπάρχει μεγαλύτερη διαφάνεια για το κοινό.
Καταλήγοντας, ο κ. Clegg υπογράμμισε την ανησυχία του ότι, παρά την χρησιμότητα του δημόσιου αυτού διαλόγου για το μέλλον της Τεχνητής Νοημοσύνης, ενδεχόμενος το debate τείνει να αφορά μελλοντικούς ενδεχόμενους υπαρξιακούς κινδύνους αποσπώντας την προσοχή από τα άμεσα και κρίσιμα ζητήματα του σήμερα αναφορικά με την τεχνολογία αυτή που χρήζουν άμεσων παρεμβάσεων.