Ο Παγκόσμιος Οργανισμός Υγείας (ΠΟΥ) απηύθυνε έκκληση για κανονισμούς σε σχέση με τη χρήση -και την «πιθανή κακή χρήση»- της τεχνητής νοημοσύνης στον τομέα της υγείας.
Σε νέα του δημοσίευση, αναφέρεται στη σημασία της δημιουργίας ασφαλών και αποτελεσματικών συστημάτων τεχνητής νοημοσύνης και στην προώθηση του διαλόγου για τη χρήση του ως θετικού εργαλείου, φέρνοντας σε επαφή προγραμματιστές, ρυθμιστικές αρχές, κατασκευαστές, εργαζόμενους στην υγεία και ασθενείς.
Όπως τονίζεται, «με την αυξανόμενη διαθεσιμότητα δεδομένων υγειονομικής περίθαλψης και την ταχεία πρόοδο στις τεχνικές analytics, ο ΠΟΥ αναγνωρίζει ότι η τεχνητή νοημοσύνη μπορεί να βελτιώσει τα αποτελέσματα, ενισχύοντας τις κλινικές δοκιμές, βελτιώνοντας την ιατρική διάγνωση και συμπληρώνοντας τις γνώσεις και τις ικανότητες των επαγγελματιών της υγείας».
Κατά τη χρήση δεδομένων υγείας, ωστόσο, τα συστήματα τεχνητής νοημοσύνης «θα μπορούσαν, ενδεχομένως, να έχουν πρόσβαση σε ευαίσθητες προσωπικές πληροφορίες, απαιτώντας ισχυρά νομικά και ρυθμιστικά πλαίσια για τη διαφύλαξη του απορρήτου, της ασφάλειας και της ακεραιότητας».
«Η τεχνητή νοημοσύνη υπόσχεται πολλά για την υγεία, αλλά συνοδεύεται και από σοβαρές προκλήσεις, όπως η μη ηθική συλλογή δεδομένων, οι απειλές για την κυβερνοασφάλεια και η ενίσχυση των προκαταλήψεων ή της παραπληροφόρησης», δήλωσε ο Tedros Adhanom Ghebreyesus, Γενικός Διευθυντής του ΠΟΥ.
Ως απάντηση στην αυξανόμενη ανάγκη για υπεύθυνη διαχείριση της ταχείας ανάπτυξης των σχετικών τεχνολογιών, ο ΠΟΥ υπογραμμίζει τη σημασία της διαφάνειας και της τεκμηρίωσης, της διαχείρισης κινδύνου και της εξωτερικής επικύρωσης δεδομένων.
«Αυτή η νέα καθοδήγηση θα υποστηρίξει τις χώρες, ώστε να ρυθμίσουν αποτελεσματικά την τεχνητή νοημοσύνη, να αξιοποιήσουν τις δυνατότητές της -είτε στη θεραπεία του καρκίνου, είτε στην ανίχνευση της φυματίωσης- ελαχιστοποιώντας ταυτόχρονα τους κινδύνους», είπε ο Ghebreyesus.
«Οι προκλήσεις που θέτουν σημαντικοί, περίπλοκοι κανονισμοί –όπως ο Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR) στην Ευρώπη και ο Health Insurance Portability and Accountability (HIPAA) στις Ηνωμένες Πολιτείες– αντιμετωπίζονται με έμφαση στην κατανόηση του πεδίου δικαιοδοσίας και των απαιτήσεων για συναίνεση, στην υπηρεσία της προστασίας της ιδιωτικής ζωής και των δεδομένων.
Τα συστήματα τεχνητής νοημοσύνης είναι πολύπλοκα και εξαρτώνται, όχι μόνο από τον κώδικα με τον οποίο έχουν κατασκευαστεί, αλλά και από τα δεδομένα στα οποία εκπαιδεύονται», σημείωσε ο ΠΟΥ. Η καλύτερη ρύθμιση μπορεί να βοηθήσει στη διαχείριση των κινδύνων της τεχνητής νοημοσύνης που ενισχύει τις προκαταλήψεις, σύμφωνα με τον Οργανισμό.
«Μπορεί να είναι δύσκολο για τα μοντέλα τεχνητής νοημοσύνης να αναπαραστήσουν με ακρίβεια την ποικιλομορφία των πληθυσμών, οδηγώντας σε προκαταλήψεις, ανακρίβειες ή ακόμα και αποτυχίες.
Για τη συμβολή στον μετριασμό αυτών των κινδύνων, μπορούν να χρησιμοποιηθούν κανονισμοί, ώστε να διασφαλιστεί ότι αναφέρονται χαρακτηριστικά όπως το φύλο, η φυλή και η εθνικότητα και ότι τα σύνολα δεδομένων γίνονται σκόπιμα αντιπροσωπευτικά».
Η δέσμευση για ποιοτικά δεδομένα είναι ζωτικής σημασίας για να διασφαλιστεί ότι τα συστήματα δεν ενισχύουν προκαταλήψεις και λάθη, τονίζεται στην έκθεση.