Οι «χειρότεροι εφιάλτες» σχετικά με τις εικόνες σεξουαλικής κακοποίησης παιδιών που δημιουργούνται από τεχνητή νοημοσύνη, γίνονται πραγματικότητα και απειλούν να κατακλύσουν το Διαδίκτυο, όπως προειδοποιεί το Ίδρυμα Internet Watch Foundation (IWF).
Το IWF δήλωσε ότι βρήκε σχεδόν 3.000 τέτοιες εικόνες, που έχουν δημιουργηθεί από τεχνητή νοημοσύνη και παραβιάζουν τη βρετανική νομοθεσία. Ο οργανισμός, που εδρεύει στο Ηνωμένο Βασίλειο, ανέφερε ότι εικόνες θυμάτων κακοποίησης από την πραγματική ζωή ενσωματώνονται σε μοντέλα τεχνητής νοημοσύνης, τα οποία στη συνέχεια παράγουν νέες απεικονίσεις τους.
Πρόσθεσε ότι η τεχνολογία χρησιμοποιήθηκε, επίσης, για τη δημιουργία εικόνων διασημοτήτων, που μετατρέπονται ώστε να απεικονίζονται σε νεαρή ηλικία, και στη συνέχεια εμφανίζονται ως παιδιά σε σενάρια σεξουαλικής κακοποίησης. Άλλα παραδείγματα υλικού σεξουαλικής κακοποίησης παιδιών περιλαμβάνουν τη χρήση εργαλείων AI για επεξεργασία φωτογραφιών παιδιών, ώστε αυτά να εμφανίζονται ως γυμνά.
Η IWF προειδοποίησε το καλοκαίρι ότι είχαν αρχίσει να εμφανίζονται αποδεικτικά στοιχεία για κατάχρηση της τεχνητής νοημοσύνης, αλλά σημείωσε ότι η νεότερη έκθεσή της φέρνει στο προσκήνιο μια επιτάχυνση στη χρήση της τεχνολογίας. Η Susie Hargreaves, διευθύνουσα σύμβουλος της IWF, είπε ότι οι χειρότεροι εφιάλτες της αρχής έγιναν πραγματικότητα.
Η IWF πρόσθεσε ότι έχει δει, επίσης, εικόνες από AI να πωλούνται στο διαδίκτυο. Τα τελευταία ευρήματά της βασίζονται σε μια έρευνα που κράτησε ένα μήνα και που πραγματοποιήθηκε σε ένα φόρουμ που βρίσκεται στο dark web. Διερεύνησε 11.108 εικόνες στο φόρουμ, με 2.978 από αυτές να παραβιάζουν τη βρετανική νομοθεσία, απεικονίζοντας σεξουαλική κακοποίηση παιδιών.
Η IWF φοβάται ότι ένα κύμα τέτοιου υλικού, που δημιουργείται από την τεχνητή νοημοσύνη, θα αποσπάσει την προσοχή των υπηρεσιών επιβολής του νόμου από τον εντοπισμό πραγματικής κακοποίησης και την παροχή βοήθειας στα θύματα. «Αν δεν καταλάβουμε αυτήν την απειλή, αυτό το υλικό απειλεί να κατακλύσει το Διαδίκτυο», τόνισε η Hargreaves.
Ο Dan Sexton, επικεφαλής τεχνολογίας στο IWF, πρόσθεσε ότι το εργαλείο Stable Diffusion –ένα μοντέλο τεχνητής νοημοσύνης που είναι διαθέσιμο στο κοινό και που μπορεί να προσαρμοστεί για να βοηθήσει στην παραγωγή τέτοιου υλικού– ήταν το μόνο προϊόν τεχνητής νοημοσύνης που συζητήθηκε στο φόρουμ. «Έχουμε δει συζητήσεις γύρω από τη δημιουργία περιεχομένου χρησιμοποιώντας το Stable Diffusion».
Η Stability AI, η βρετανική εταιρεία πίσω από το Stable Diffusion, δήλωσε ότι απαγορεύει οποιαδήποτε κατάχρηση για παράνομους ή ανήθικους σκοπούς στις πλατφόρμες της και πως οι πολιτικές της «είναι σαφείς ότι αυτό περιλαμβάνει το υλικό σεξουαλικής κακοποίησης παιδιών».
Η βρετανική κυβέρνηση έχει δηλώσει ότι το CSAM που δημιουργείται από τεχνητή νοημοσύνη θα καλύπτεται από το νομοσχέδιο για την ασφάλεια στο Διαδίκτυο -που αναμένεται να γίνει νόμος- και ότι οι εταιρείες μέσων κοινωνικής δικτύωσης θα πρέπει να εμποδίσουν την εμφάνισή του στις πλατφόρμες τους.