Ολοένα και περισσότερες εταιρείες εφαρμόζουν μεγάλα γλωσσικά μοντέλα (LLM – Large Language Model) στις εργασίες τους, έχοντας ως στόχο να αυξήσουν την αποτελεσματικότητα και να προσφέρουν καλύτερες εμπειρίες στους πελάτες τους. Ωστόσο, μια νέα έρευνα της Salesforce δείχνει ότι αυτός ο «αγώνας» για την υιοθέτηση της generative AI μπορεί να έχει κόστος και να φέρει στο προσκήνιο ένα «χάσμα εμπιστοσύνης» με τους πελάτες.
Η έκθεση της εταιρείας περιλαμβάνει δεδομένα που συγκεντρώθηκαν από τις 3 Μαΐου έως τις 14 Ιουλίου 2023 και συμμετείχαν σε αυτήν περισσότεροι από 14.000 καταναλωτές και B2B αγοραστές, σε 25 χώρες. Η έρευνα δείχνει ότι, παρόλο που οι πελάτες είναι γενικά ανοιχτοί στη χρήση της τεχνητής νοημοσύνης για την ενίσχυση της εμπειρίας τους, ένας μεγάλος αριθμός εξακολουθεί να μην εμπιστεύεται τις εταιρείες, όσον αφορά στην ηθική χρήση της.
Τα ευρήματα φέρνουν στο προσκήνιο ένα σημαντικό ζήτημα που πρέπει να αντιμετωπίσουν οι επιχειρήσεις όταν εφαρμόζουν τεχνολογίες generative AI, προκειμένου να προσφέρουν τις καλύτερες δυνατές εμπειρίες στους πελάτες και να διατηρήσουν την ανάπτυξη της επιχειρηματικής τους δραστηριότητας. Ενώ η έννοια της «εμπιστοσύνης» φαίνεται απλή, η πραγματικότητα είναι ότι μπορεί να είναι περίπλοκη και πολύπλευρη. Για παράδειγμα, κάποιος μπορεί να εμπιστεύεται την ποιότητα του προϊόντος μιας εταιρείας αλλά όχι τις προσπάθειές της για βιωσιμότητα. Ομοίως, ενδέχεται να μην την εμπιστεύεται για την προστασία των δεδομένων του.
Για την τεχνητή νοημοσύνη, η εμπιστοσύνη βασίζεται σε ηθικές αρχές, όπου το σύστημα τηρεί σωστά καθορισμένες κατευθυντήριες γραμμές σε σχέση με ορισμένες θεμελιώδεις αξίες, όπως τα ατομικά δικαιώματα, το απόρρητο και οι διακρίσεις. Σύμφωνα με την έρευνα της Salesforce, σε αυτό το σημείο μπορεί να κάνει την εμφάνιση του το πρόβλημα. Από τους 14.000 ερωτηθέντες, το 76% αναφέρει ότι εμπιστεύεται τις εταιρείες όταν κάνουν ειλικρινείς ισχυρισμούς για τα προϊόντα και τις υπηρεσίες τους, αλλά σχεδόν το 50% υποστηρίζει ότι δεν τις εμπιστεύεται στην ηθική χρήση της τεχνητή νοημοσύνης.
Αν και έρχονται στο προσκήνιο μια σειρά ανησυχιών, οι πιο σημαντικές προκλήσεις που αναφέρονται είναι η έλλειψη διαφάνειας και ελέγχου από άνθρωπο, για την επικύρωση του αποτελέσματος που προσφέρεται – κάτι που ζητήθηκε από περισσότερο από το 80%. Μόλις το 37% των ερωτηθέντων δήλωσαν ότι εμπιστεύονται πραγματικά την τεχνητή νοημοσύνη στην παροχή ακριβών απαντήσεων, που φτάνουν στο επίπεδο εκείνων που προσφέρει ένας άνθρωπος. Άλλες ανησυχίες που επισημαίνονται είναι οι κίνδυνοι για την ασφάλεια των δεδομένων, η πιθανότητα μεροληψίας (όπου το σύστημα μπορεί να κάνει διακρίσεις σε βάρος, για παράδειγμα, ενός φύλου) και οι ακούσιες συνέπειες για την κοινωνία.
Το γενικό συναίσθημα εξακολουθεί να παρουσιάζει πτώση από το 2022, όταν η γενετική τεχνητή νοημοσύνη έκανε την πρώτη της εμφάνιση. Πέρυσι, το 82% των αγοραστών και το 65% των καταναλωτών ήταν ανοικτοί στη χρήση της για ενίσχυση της εμπειρίας τους, σύμφωνα με τη Salesforce. Από την πλευρά των πωλητών, η αισιοδοξία παραμένει στα ύψη, με την πλειοψηφία των επαγγελματιών που βρίσκονται στην πρώτη γραμμή της εξυπηρέτησης των πελατών (από το IT και το μάρκετινγκ έως τις πωλήσεις) να λένε ότι η γενετική τεχνητή νοημοσύνη θα βοηθήσει τις εταιρείες τους να προσφέρουν καλύτερη εξυπηρέτηση.
Παρόλο που οι εταιρείες δεν μπορούν να σταματήσουν την εφαρμογή της τεχνητής νοημοσύνης, η έρευνα διαπιστώνει ότι υπάρχουν μερικά βασικά βήματα που μπορούν να τις βοηθήσουν να κερδίσουν σε εμπιστοσύνη και συμμόρφωση. Το πρώτο είναι η εξασφάλιση μεγαλύτερου επιπέδου διαφάνειας και ανθρώπινης επικύρωσης των αποτελεσμάτων. Περισσότεροι από τους μισούς δήλωσαν ότι αυτό θα τονώσει την εμπιστοσύνη τους. Πέρα από αυτό, το 49% των ερωτηθέντων αναφέρει ότι οι εταιρείες θα πρέπει να επικεντρωθούν στο να τους δώσουν περισσότερο έλεγχο, όσον αφορά στο πού και πώς εφαρμόζεται. Το 39% ζήτησε έλεγχο δεοντολογίας από τρίτους και το 36% κρατική εποπτεία. Άλλα προτεινόμενα βήματα περιλαμβάνουν πρότυπα για την εφαρμογή της, την πρόσκληση σχολίων από τους πελάτες σχετικά με τον τρόπο βελτίωσης της χρήσης, την εκπαίδευση σε διάφορα σύνολα δεδομένων και τη δημοσιοποίηση των υποκείμενων αλγορίθμων.