Μια εκτενής έρευνα που δημοσιεύθηκε από το Τεχνολογικό Ινστιτούτο Μασαχουσέτης (MIT) σε συνεργασία με κορυφαία ακαδημαϊκά ιδρύματα δείχνει ότι τα συστήματα πρακτόρων τεχνητής νοημοσύνης αναπτύσσονται με ταχείς ρυθμούς, αλλά στερούνται βασικών πρωτοκόλλων ασφαλείας. Η μελέτη με τίτλο «The 2025 AI Index: Documenting Sociotechnical Features of Deployed Agentic AI Systems» υπογραμμίζει ότι η πλειονότητα αυτών των συστημάτων δεν παρέχει καμία πληροφορία σχετικά με τις δοκιμές ασφαλείας που έχουν διεξαχθεί. Παράλληλα, επισημαίνεται η ανησυχητική απουσία τεκμηριωμένων τρόπων απενεργοποίησης των αυτόνομων προγραμμάτων σε περίπτωση δυσλειτουργίας. Η κατάσταση αυτή χαρακτηρίζεται ως δημόσιο έλλειμμα διαφάνειας, καθώς οι δημιουργοί των συστημάτων αποφεύγουν να αποκαλύψουν τους πιθανούς κινδύνους που συνοδεύουν τη χρήση τους.
Η έκθεση, η οποία εκτείνεται σε 39 σελίδες, ανέλυσε 30 από τα πλέον διαδεδομένα συστήματα agentic τεχνητής νοημοσύνης παγκοσμίως. Σύμφωνα με τον κύριο συγγραφέα Leon Staufer από το Πανεπιστήμιο του Cambridge και τους συνεργάτες του από το Harvard και το Stanford, εντοπίστηκαν επίμονες περιορισμένες αναφορές γύρω από τα οικοσυστημικά χαρακτηριστικά ασφαλείας. Οι ερευνητές εξέτασαν οκτώ διαφορετικές κατηγορίες γνωστοποίησης στοιχείων, καταλήγοντας στο συμπέρασμα ότι τα περισσότερα συστήματα δεν προσφέρουν πληροφορίες για κρίσιμους τομείς. Η παράλειψη αυτή αφορά τόσο τους δυνητικούς κινδύνους όσο και τις αξιολογήσεις από τρίτους φορείς, αφήνοντας τους χρήστες και τις επιχειρήσεις χωρίς ουσιαστική ενημέρωση.
Στην έρευνα συμμετείχαν επίσης επιστήμονες από το Πανεπιστήμιο της Washington, το Πανεπιστήμιο της Pennsylvania και το Εβραϊκό Πανεπιστήμιο της Ιερουσαλήμ. Τα ευρήματα δείχνουν ότι για πολλούς επιχειρηματικούς πράκτορες παραμένει ασαφές εάν υπάρχει παρακολούθηση εκτέλεσης ενεργειών σε πραγματικό χρόνο. Αυτό σημαίνει ότι δεν υπάρχει δυνατότητα ακριβούς εντοπισμού των δραστηριοτήτων ενός προγράμματος AI κατά τη λειτουργία του. Επιπλέον, 12 από τους 30 εξεταζόμενους πράκτορες δεν παρέχουν κανέναν μηχανισμό παρακολούθηση χρήσης, γεγονός που καθιστά αδύνατο τον έλεγχο των υπολογιστικών πόρων που καταναλώνονται, δημιουργώντας προβλήματα στον προϋπολογισμό των οργανισμών.
Σοβαρές ελλείψεις διαφάνειας στα συστήματα πρακτόρων
Η δυναμική του κλάδου ενισχύθηκε πρόσφατα με την ανακοίνωση της OpenAI για την πρόσληψη του Peter Steinberg, ο οποίος δημιούργησε το λογισμικό OpenClaw. Το συγκεκριμένο πλαίσιο λογισμικού ανοιχτού κώδικα προκάλεσε έντονες αντιδράσεις λόγω των δυνατοτήτων του, όπως η διαχείριση ηλεκτρονικού ταχυδρομείου, αλλά και των σοβαρών κενών ασφαλείας που διέθετε. Συγκεκριμένα, το OpenClaw θα μπορούσε να επιτρέψει την πλήρη κατάληψη του προσωπικού υπολογιστή ενός χρήστη. Παρά τις προειδοποιήσεις των ειδικών, η τεχνολογία των πρακτόρων κινείται προς την πλήρη ενσωμάτωση, συχνά όμως παραβλέποντας βασικά πρωτόκολλα που θα διασφάλιζαν την ακεραιότητα των συστημάτων και των δεδομένων.
Ένα από τα σημαντικότερα ζητήματα που αναδεικνύει η μελέτη είναι η αποτυχία των πρακτόρων να γνωστοποιούν την τεχνητή φύση τους στον πραγματικό κόσμο. Στις περισσότερες περιπτώσεις, δεν υπάρχει προεπιλεγμένη ενημέρωση των τελικών χρηστών ή τρίτων μερών ότι αλληλεπιδρούν με ένα ρομπότ. Αυτή η έλλειψη περιλαμβάνει την απουσία ψηφιακών υδατογραφημάτων σε αρχεία εικόνων που παράγονται από AI ή την άρνηση συμμόρφωσης με αρχεία «robots.txt» σε ιστότοπους. Η πρακτική αυτή δυσχεραίνει τη διάκριση μεταξύ ανθρώπινης και αυτοματοποιημένης δραστηριότητας στο διαδίκτυο, προκαλώντας εντάσεις στον τρόπο διεξαγωγής του ψηφιακού εμπορίου και της επικοινωνίας.
Αδυναμία ελέγχου και παρακολούθησης των ενεργειών
Η έρευνα τονίζει ότι ορισμένα εργαλεία λογισμικού δεν προσφέρουν κανέναν τρόπο διακοπής της λειτουργίας ενός πράκτορα ενώ αυτός εκτελείται. Χαρακτηριστικά παραδείγματα αποτελούν το MobileAgent της Alibaba, το Breeze της HubSpot, το watsonx της IBM και οι αυτοματισμοί της γερμανικής n8n. Σε αυτά τα συστήματα λείπουν τεκμηριωμένες επιλογές άμεσου τερματισμού, παρά την αυτόνομη φύση της εκτέλεσής τους. Για ορισμένες επιχειρηματικές πλατφόρμες, η μόνη διαθέσιμη επιλογή είναι η συνολική διακοπή όλων των πρακτόρων ή η πλήρης ανάκληση της ανάπτυξης, γεγονός που συνιστά κρίσιμο περιορισμό ελέγχου για μεγάλους οργανισμούς.
Οι προκλήσεις διακυβέρνησης, όπως ο κατακερματισμός του οικοσυστήματος και η απουσία ειδικών αξιολογήσεων, αναμένεται να ενταθούν όσο αυξάνονται οι δυνατότητες των πρακτόρων. Οι ερευνητές επιχείρησαν να λάβουν σχόλια από τις εταιρείες των οποίων το λογισμικό εξετάστηκε, ωστόσο η ανταπόκριση ήταν περιορισμένη. Μόνο το ένα τέταρτο των εταιρειών απάντησε, ενώ μόλις τρεις από τις τριάντα παρείχαν ουσιαστικά σχόλια που ενσωματώθηκαν στην τελική έκθεση. Η βιομηχανία φαίνεται να προτεραιοποιεί την ανάπτυξη νέων δυνατοτήτων έναντι της θέσπισης αυστηρών πλαισίων ασφαλείας και λογοδοσίας προς το ευρύ κοινό.
Προβλήματα στην αναγνώριση των ψηφιακών πρακτόρων
Η τεχνολογία των πρακτόρων AI χωρίζεται σε τρεις κύριες κατηγορίες: τα εξελιγμένα chatbots, τις επεκτάσεις περιήγησης ιστού και τις επιχειρηματικές προσφορές λογισμικού. Η αυτονομία τους βαθμολογείται από το επίπεδο 1 έως το επίπεδο 5, με τους πράκτορες περιήγησης να λειτουργούν συχνά στα υψηλότερα επίπεδα αυτονομίας με ελάχιστη ανθρώπινη παρέμβαση. Αντίθετα, οι επιχειρηματικές πλατφόρμες ξεκινούν από χαμηλότερα επίπεδα κατά τον σχεδιασμό, αλλά συχνά αγγίζουν τα επίπεδα 3 έως 5 κατά την ανάπτυξη. Αυτή η κλιμάκωση της ανεξαρτησίας των συστημάτων καθιστά επιτακτική την ανάγκη για διαφανείς διαδικασίες ελέγχου σε κάθε στάδιο της λειτουργίας τους.
Παρά την ποικιλία των διαθέσιμων πρακτόρων, η πλειονότητα αυτών βασίζεται σε ένα μικρό σύνολο κλειστών μοντέλων βάσης. Συγκεκριμένα, το GPT της OpenAI, το Claude της Anthropic και το Gemini της Google αποτελούν τον κορμό της παγκόσμιας αγοράς. Αυτή η συγκέντρωση ισχύος δημιουργεί δομικές εξαρτήσεις σε ολόκληρο το οικοσύστημα της τεχνητής νοημοσύνης. Οι ερευνητές σημειώνουν ότι οι 21 από τους 30 πράκτορες εδρεύουν στις Ηνωμένες Πολιτείες και οι 5 στην Κίνα, με τις δύο χώρες να ακολουθούν διαφορετικές προσεγγίσεις συμμόρφωσης και τεκμηρίωσης των πλαισίων ασφαλείας τους.
Η κυριαρχία συγκεκριμένων μοντέλων στη βιομηχανία
Στα παραδείγματα που εξετάστηκαν, ο ChatGPT Agent της OpenAI ξεχώρισε θετικά, καθώς είναι ο μόνος που παρέχει κρυπτογραφική υπογραφή των αιτημάτων περιήγησης για την παρακολούθηση της συμπεριφοράς του. Αντίθετα, το πρόγραμμα Comet της Perplexity χαρακτηρίστηκε ως επικίνδυνο για την ασφάλεια, καθώς δεν διαθέτει ειδικές αξιολογήσεις ασφαλείας ή δοκιμές από τρίτους. Μάλιστα, η Amazon έχει κινηθεί νομικά κατά της Perplexity, υποστηρίζοντας ότι ο εν λόγω πράκτορας παρουσιάζεται ψευδώς ως άνθρωπος στους διακομιστές. Αυτές οι πρακτικές υποσκάπτουν την εμπιστοσύνη στην τεχνολογία και εγείρουν σοβαρά νομικά ερωτήματα.
Στον επιχειρηματικό τομέα, οι πράκτορες Breeze της HubSpot παρουσιάζουν μια μεικτή εικόνα. Ενώ διαθέτουν πιστοποιήσεις όπως SOC2 και GDPR, η εταιρεία δεν δημοσιοποιεί λεπτομερείς αξιολογήσεις ασφαλείας ή τη μεθοδολογία που χρησιμοποιήθηκε από την εταιρεία PacketLabs. Η έρευνα καταλήγει στο συμπέρασμα ότι η ευθύνη για τη διόρθωση αυτών των κενών ανήκει αποκλειστικά στους προγραμματιστές και τις εταιρείες κολοσσούς. Εάν δεν ληφθούν άμεσα μέτρα για τον έλεγχο και τη διαφάνεια, η παρέμβαση των ρυθμιστικών αρχών στο μέλλον θεωρείται σχεδόν βέβαιη.
