Όλο και πιο διαδεδομένα στο διαδίκτυο έχουν γίνει τα βίντεο και οι εικόνες σεξουαλικής κακοποίησης ανηλίκων που παράγονται με εργαλεία τεχνητής νοημοσύνης, όπως υπογραμμίζει οργάνωση που μεριμνά για την ασφάλεια στο internet.
Το Internet Watch Foundation (IWF), με έδρα το Ηνωμένο Βασίλειο, αναφέρει ότι τους προηγούμενους έξι μήνες έχουν εντοπίσει περισσότερο παράνομο υλικό που έχει δημιουργηθεί με AI από ό,τι στο σύνολο του 2023.
Μάλιστα, στη συντριπτική τους πλειοψηφία, οι εικόνες ήταν διαθέσιμες σε δημόσιες περιοχές του διαδικτύου στις οποίες έχει πρόσβαση ο καθένας και όχι στο dark web, που απαιτεί χρήση εξειδικευμένων browsers.
«Οι τελευταίοι μήνες μας δείχνουν ότι αυτό το πρόβλημα δεν εξαφανίζεται και στην πραγματικότητα επιδεινώνεται», δήλωσε ο υπηρεσιακός διευθύνων σύμβουλος του IWF, Ντέρεκ Ρέι-Χιλ, κρούοντας τον κώδωνα του κινδύνου.
Ιδιαίτερα ανησυχητικό είναι, επίσης, το γεγονός ότι σύμφωνα με τα ευρήματα του Χιλ, η ρεαλιστικότητα του υλικού δείχνει ότι τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιούνται έχουν «εκπαιδευτεί» με εικόνες και βίντεο πραγματικών θυμάτων κακοποίησης.
Πλέον, η τεχνητή νοημοσύνη παράγει τόσο αληθοφανές περιεχόμενο, στο σημείο που οι αρχές δυσκολεύονται να ξεχωρίσουν τις αληθινές από τις ψεύτικες περιπτώσεις κακοποίησης, όπως αναφέρει ένας αναλυτής του IWF, που λέει ότι έχουμε φτάσει σε «σημείο καμπής».
Από την αρχή του φετινού έτους μέχρι τον Σεπτέμβρη, η φιλανθρωπική οργάνωση αντιμετώπισε 74 αναφορές για υλικό σεξουαλικής κακοποίησης ανηλίκων, το οποίο ήταν αρκετά ρεαλιστικό ώστε να παραβιάζει τη βρετανική νομοθεσία, σε σύγκριση με 70 καθ' όλη τη διάρκεια του 2023. Να σημειωθεί ότι μία μόνο αναφορά θα μπορούσε να αφορά μία ιστοσελίδα όπου είναι ανεβασμένες πολλές εικόνες.
Τα «deepfake» των celebrities ως παιδιά
Πέρα από τις εικόνες που έχουν δημιουργηθεί με AI και απεικονίζουν πραγματικά θύματα κακοποίησης, υπάρχουν και αρκετά «deepfake» πορνογραφικά βίντεο ενηλίκων, που έχουν υποστεί επεξεργασία ώστε να μοιάζουν με παιδική πορνογραφία.
Στο παρελθόν, το IWF είχε ενημερωθεί για την χρήση εργαλείων τεχνητής νοημοσύνης που κάνουν celebrities να εμφανίζονται ως παιδιά σε κακοποιητικό υλικό. Σε άλλες περιπτώσεις, το AI χρησιμοποιείται για να απογυμνώσει φωτογραφίες ντυμένων παιδιών που είναι διαθέσιμες στο διαδίκτυο.
Ποιες χώρες φιλοξενούν το παράνομο υλικό
Επί του παρόντος, περισσότερο από το 50% του παράνομου υλικού που καταγράφηκε από το IWF φιλοξενείται σε servers στη Ρωσία και τις ΗΠΑ, ενώ σημαντικές ποσότητες εντοπίστηκαν στην Ιαπωνία και την Ολλανδία. Όταν οι αρχές βρίσκουν μία από αυτές τις ιστοσελίδες, η διεύθυνση URL καταγράφεται και κοινοποιείται στις τεχνολογικές εταιρείες, ώστε να λάβουν τις απαραίτητες ενέργειες.
Τα μέτρα του Instagram
Μία από αυτές, η Meta, έχει ανακοινώσει νέα μέτρα για την καταπολέμησή του «sextortion» στο Instagram, έναν νεολογισμό που απορρέει από την σύνθεση των λέξεων sex και exortion, που σημαίνει εκβιασμός. Συνήθως, τα θύματα του sextortion εξαπατώνται για να στείλουν γυμνές φωτογραφίες τους σε εγκληματίες, οι οποίοι συνήθως προσποιούνται ότι είναι νεαρές γυναίκες και έπειτα υποβάλλονται σε απειλές εκβιασμού.
Ακόμη, το Instagram θα κυκλοφορήσει μία νέα λειτουργία που θα θολώνει κάθε γυμνή εικόνα που στέλνεται μέσω άμεσου μηνύματος (DM). Μόλις λάβει μια θολή εικόνα, ο χρήστης μπορεί να επιλέξει αν θέλει να τη δει ή όχι, ενώ θα λάβει και ένα μήνυμα που του υπενθυμίζει ότι έχει τη δυνατότητα να μπλοκάρει τον αποστολέα και να αναφέρει τη συνομιλία στο Instagram.
Η νέα αυτή λειτουργία αναμένεται να είναι διαθέσιμη παγκοσμίως μέσα στις επόμενες μέρες. Για τους έφηβους χρήστες της εφαρμογής, θα ενεργοποιηθεί αυτόματα, ενώ στους ενήλικες θα δοθεί η επιλογή να το κάνουν.
Με πληροφορίες από Guardian