Το Εθνικό Κέντρο Κυβερνοασφάλειας του Ηνωμένου Βασιλείου (NCSC) προειδοποίησε για τους κινδύνους που φέρνει η ενσωμάτωση των μεγάλων γλωσσικών μοντέλων (LLM) από τις επιχειρήσεις, προειδοποιώντας ότι οι developers δεν έχουν ακόμη αντιμετωπίσει πλήρως τις αδυναμίες και τα τρωτά σημεία των συστημάτων.
Σε σχετική ανάρτηση, ο οργανισμός αναγνωρίζει ότι τα LLM προσελκύουν παγκόσμιο ενδιαφέρον και περιέργεια μετά την κυκλοφορία του ChatGPT της OpenAI το 2022, με αποτέλεσμα οι οργανισμοί που δραστηριοποιούνται σε μια σειρά τομέων να ερευνούν τη χρήση της τεχνολογίας στις υπηρεσίες τους.
Ωστόσο, ως ένα ταχέως αναπτυσσόμενο πεδίο, οι ειδικοί του NCSC διαπιστώνουν ότι τα μοντέλα παρουσιάζουν συνεχή ενημέρωση μέσα σε μια αβέβαιη αγορά. Αυτό θα μπορούσε να σημαίνει ότι μια νεοφυής επιχείρηση που προσφέρει μια υπηρεσία σήμερα, ενδέχεται να μην υπάρχει σε δύο χρόνια.
Επομένως, οι οργανισμοί που δημιουργούν υπηρεσίες που χρησιμοποιούν LLM, πρέπει να λάβουν υπόψη το γεγονός ότι τα μοντέλα αυτά ενδέχεται να αλλάξουν πίσω από το API που χρησιμοποιείται, με αποτέλεσμα ένα βασικό μέρος της υλοποίησης να πάψει να υπάρχει κάποια στιγμή.
Ο οργανισμός σημείωσε ότι τα LLM θα μπορούσαν να εγκυμονούν ορισμένους κινδύνους, όταν συνδέονται στις επιχειρηματικές διαδικασίες ενός οργανισμού. Οι ερευνητές διαπίστωσαν ότι τα LLM «δεν μπορούν να διακρίνουν μεταξύ μιας εντολής και των δεδομένων που παρέχονται για να βοηθήσουν στην ολοκλήρωση της».
Παρέχοντας ένα παράδειγμα, το NCSC ισχυρίζεται ότι ένα chatbot με τεχνητή νοημοσύνη που χρησιμοποιείται από μια τράπεζα θα μπορούσε να εξαπατηθεί για να στείλει χρήματα σε έναν εισβολέα ή να πραγματοποιήσει μη εξουσιοδοτημένες συναλλαγές, εάν τα μηνύματα που καταχωρούνται είναι δομημένα με σωστό τρόπο.
«Οι οργανισμοί που δημιουργούν υπηρεσίες οι οποίες χρησιμοποιούν LLM πρέπει να είναι προσεκτικοί, με τον ίδιο τρόπο που θα ήταν αν χρησιμοποιούσαν μια βιβλιοθήκη προϊόντων ή κωδικών σε έκδοση beta», πρόσθεσε το NCSC.