Ένα σύνολο επιστημόνων και άλλων ηγετών από τον τομέα της ΑΙ και της τεχνολογίας προειδοποίησαν ότι η τεχνητή νοημοσύνη που αναπτύσσουν μπορεί, μια μέρα, να αποτελέσει υπαρξιακή απειλή για την ανθρωπότητα, υπογραμμίζοντας πως θα πρέπει να θεωρηθεί κίνδυνος, εφάμιλλος των πανδημιών και των πυρηνικών πολέμων.
«Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους» που απειλούν την κοινωνία, «όπως οι πανδημίες και ο πυρηνικός πόλεμος», αναφέρεται στη δήλωση της μιας πρότασης που δημοσιοποιήθηκε από το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης, μια μη κερδοσκοπική οργάνωση. Η ανοιχτή επιστολή έχει υπογραφεί από περισσότερα από 350 στελέχη, ερευνητές και μηχανικούς που εργάζονται επί του τομέα.
Στους υπογράφοντες περιλαμβάνονται κορυφαία στελέχη από τρεις από τις κορυφαίες εταιρείες τεχνητής νοημοσύνης: τον Sam Altman, διευθύνων σύμβουλο της OpenAI, τον Demis Hassabis, διευθύνων σύμβουλο της Google DeepMind και τον Dario Amodei, διευθύνων σύμβουλο της Anthropic. Ο Geoffrey Hinton και ο Yoshua Bengio, δύο από τους τρεις ερευνητές που κέρδισαν το βραβείο Turing για την πρωτοποριακή εργασία τους στα νευρωνικά δίκτυα και συχνά θεωρούνται «νονοί» της ανάπτυξης της AI, υπέγραψαν τη δήλωση, όπως και άλλοι σημαντικοί ερευνητές.
Πριν από μερικές ημέρες, ο Altman, ο Hassabis και ο Amodei συναντήθηκαν με τον Αμερικανό Πρόεδρο Joe Biden και την Αντιπρόεδρο Kamala Harris, για να συζητήσουν για τη ρύθμιση της τεχνητής νοημοσύνης. Σε μια κατάθεση στη Γερουσία μετά τη συνάντηση, ο Altman προειδοποίησε ότι οι κίνδυνοι των προηγμένων συστημάτων ΑΙ είναι αρκετά σοβαροί ώστε να δικαιολογούν κυβερνητική παρέμβαση, ζητώντας ρύθμιση για την αντιμετώπιση πιθανών αρνητικών συνεπειών.
Σε ανάρτηση του την περασμένη εβδομάδα, ο Altman και δύο άλλα στελέχη της OpenAI ζήτησαν συνεργασία μεταξύ των κορυφαίων κατασκευαστών AI, περισσότερη τεχνική έρευνα σε μεγάλα γλωσσικά μοντέλα και τη δημιουργία ενός διεθνούς οργανισμού ασφάλειας γύρω από την τεχνητή νοημοσύνη, παρόμοιου με τη Διεθνή Υπηρεσία Ατομικής Ενέργειας, η οποία προσπαθεί να ελέγξει τη χρήση πυρηνικών όπλων.
Τον Μάρτιο, περισσότεροι από 1.000 ηγέτες από τον χώρο της τεχνολογίας και ερευνητές, υπέγραψαν μια άλλη ανοικτή επιστολή που ζητούσε εξάμηνη παύση στην ανάπτυξη των μοντέλων τεχνητής νοημοσύνης, επικαλούμενοι ανησυχίες για «μια ανεξέλεγκτη κούρσα για την ανάπτυξη και χρήση όλο και πιο ισχυρών ψηφιακών μυαλών». Αυτή η επιστολή, η οποία προέκυψε από έναν άλλο μη κερδοσκοπικό οργανισμό με επίκεντρο την AI, το Future of Life Institute, υπογράφηκε από τον Elon Musk και άλλους, αλλά δεν είχε πολλές υπογραφές από τα κορυφαία εργαστήρια τεχνητής νοημοσύνης.
Η δήλωση έρχεται σε μια περίοδο αυξανόμενης ανησυχίας για τις πιθανές αρνητικές συνέπειες της τεχνητής νοημοσύνης. Οι πρόσφατες εξελίξεις στα λεγόμενα μεγάλα γλωσσικά μοντέλα -ο τύπος που χρησιμοποιείται από το ChatGPT και άλλα chatbots- έχουν εγείρει φόβους ότι η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για τη διάδοση παραπληροφόρησης και προπαγάνδας, ή ότι θα μπορούσε να εξαλείψει εκατομμύρια θέσεις εργασίας.