Συναγερμό για τους αναδυόμενους κινδύνους που ενέχει η ταχεία υιοθέτηση της τεχνητής νοημοσύνης στον παγκόσμιο χρηματοπιστωτικό τομέα εκπέμπουν οι κορυφαίοι διεθνείς ρυθμιστικοί φορείς, παρουσιάζοντας σχέδια για στενότερη παρακολούθηση των απειλών για τη χρηματοοικονομική σταθερότητα. Μέσα από συντονισμένες εκθέσεις, το Συμβούλιο Χρηματοπιστωτικής Σταθερότητας, ο εποπτικός βραχίονας της G20, και η Τράπεζα Διεθνών Διακανονισμών, ο οργανισμός-ομπρέλα των κεντρικών τραπεζών, υπογραμμίζουν την ανάγκη για επαγρύπνηση και αναβάθμιση των εποπτικών μηχανισμών απέναντι σε μια τεχνολογική επανάσταση που δημιουργεί νέες, σύνθετες προκλήσεις.
Η κεντρική ανησυχία που διατυπώνουν οι αρχές εστιάζεται στον κίνδυνο της ομοιομορφίας, καθώς ένας μεγάλος αριθμός τραπεζών και χρηματοοικονομικών ιδρυμάτων τείνει να υιοθετεί τα ίδια κυρίαρχα μοντέλα τεχνητής νοημοσύνης και να βασίζεται στο ίδιο εξειδικευμένο υλικό από λίγους παρόχους. Αυτή η συνθήκη, σύμφωνα με την έκθεση του FSB, θα μπορούσε να οδηγήσει σε μια «συμπεριφορά αγέλης», όπου αυτοματοποιημένες αποφάσεις προκαλούν ταυτόχρονες και μαζικές αντιδράσεις στην αγορά, πολλαπλασιάζοντας τον συστημικό κίνδυνο. Όπως αναφέρει χαρακτηριστικά η έκθεση, «αυτή η μεγάλη εξάρτηση μπορεί να δημιουργήσει τρωτά σημεία εάν υπάρχουν λίγες διαθέσιμες εναλλακτικές λύσεις».
Σε παράλληλη μελέτη, η Τράπεζα Διεθνών Διακανονισμών τονίζει την «επείγουσα ανάγκη» οι κεντρικές τράπεζες, οι χρηματοοικονομικές ρυθμιστικές και οι εποπτικές αρχές να «αναβαθμίσουν τις δυνατότητές τους», τόσο ως ενημερωμένοι παρατηρητές των τεχνολογικών εξελίξεων όσο και ως χρήστες της ίδιας της τεχνολογίας. Η έκθεση του FSB, η οποία εκπονήθηκε κατόπιν αιτήματος της Προεδρίας της G20 από τη Νότια Αφρική, βασίζεται σε προηγούμενη έκθεσή του για το 2024 και ενσωματώνει ευρήματα από έρευνα στα μέλη του, αναγνωρίζοντας ότι η τεχνητή νοημοσύνη έχει τη δυνατότητα να βελτιώσει την αποδοτικότητα, να βοηθήσει στη ρυθμιστική συμμόρφωση, να επιτρέψει προηγμένες αναλύσεις δεδομένων και να οδηγήσει σε πιο εξατομικευμένα χρηματοοικονομικά προϊόντα. Ωστόσο, διαπιστώνει ότι οι προσπάθειες παρακολούθησης από τις αρμόδιες αρχές βρίσκονται ακόμη σε πολύ πρώιμο στάδιο.
Η έκθεση προχωρά στην αναλυτική χαρτογράφηση συγκεκριμένων τρωτών σημείων που απαιτούν προσοχή. Μεταξύ αυτών περιλαμβάνονται η κρίσιμη εξάρτηση από τρίτους παρόχους τεχνολογίας και ο κίνδυνος συγκέντρωσης της αγοράς σε λίγους μόνο παίκτες, οι απρόβλεπτες συσχετίσεις που μπορεί να προκύψουν στις αγορές, οι αυξημένοι κίνδυνοι στον τομέα της κυβερνοασφάλειας, καθώς και οι σημαντικές προκλήσεις στη διαχείριση κινδύνου και τη διακυβέρνηση των ίδιων των υποδειγμάτων τεχνητής νοημοσύνης.
Οι ίδιες οι εποπτικές αρχές, όπως επισημαίνεται, αντιμετωπίζουν σημαντικές προκλήσεις στην προσπάθειά τους να παρακολουθήσουν αποτελεσματικά το φαινόμενο. Αυτές περιλαμβάνουν την έλλειψη κοινά αποδεκτών ορισμών για την τεχνητή νοημοσύνη, τις δυσκολίες στη διασφάλιση της συγκρισιμότητας των δεδομένων μεταξύ διαφορετικών χωρών και την πρόκληση στην αξιολόγηση του πόσο κρίσιμη είναι μια υπηρεσία για έναν οργανισμό. Η προσπάθεια αυτή εμποδίζεται περαιτέρω από το υψηλό κόστος, την περιορισμένη διαθεσιμότητα δεδομένων και την έλλειψη διαφάνειας που χαρακτηρίζει πολλά συστήματα τεχνητής νοημοσύνης.
Ιδιαίτερη αναφορά γίνεται στην περίπτωση της Παραγωγικής Τεχνητής Νοημοσύνης (Generative AI), η οποία εξετάζεται ως case study. Διαπιστώνεται ότι, ενώ τα χρηματοπιστωτικά ιδρύματα την υιοθετούν με επιφύλαξη και για μη κρίσιμες λειτουργίες προς το παρόν, η εξάρτησή τους από τρίτους παρόχους για την ανάπτυξή της είναι καθοριστική. Αυτό δημιουργεί μια πολυεπίπεδη εφοδιαστική αλυσίδα, η οποία ενέχει τους δικούς της κινδύνους που απορρέουν από τη συγκέντρωση και την κάθετη ολοκλήρωση των παρόχων τεχνολογίας.
Η έκθεση καταλήγει με μια σειρά συστάσεων προς τις εθνικές αρχές, το FSB και τους σχετικούς φορείς τυποποίησης (SSBs). Οι εθνικές αρχές ενθαρρύνονται να αξιοποιήσουν προτεινόμενους δείκτες παρακολούθησης και να ενισχύσουν την ανταλλαγή δεδομένων σε εγχώριο επίπεδο. Παράλληλα, το FSB και οι φορείς τυποποίησης καλούνται να διευκολύνουν τη διασυνοριακή συνεργασία και να εργαστούν προς μια μεγαλύτερη εναρμόνιση των ορισμών και των δεικτών, ώστε να διαμορφωθεί μια ολοκληρωμένη προσέγγιση για την κατανόηση των κινδύνων της τεχνητής νοημοσύνης.
