Δεκάδες μέλη του Κογκρέσου, στη συντριπτική τους πλειονότητα γυναίκες, έχουν πέσει θύματα deepfakes σεξουαλικής φύσεως, δηλαδή ψεύτικων εικόνων που δημιουργήθηκαν με τεχνητή νοημοσύνη, σύμφωνα με μία από τις πρώτες μελέτες πάνω στο θέμα.
Η έρευνα του American Sunlight Project (ASP), ενός thinktank για την καταπολέμηση της παραπληροφόρησης, αναδεικνύει τους κινδύνους της τεχνολογίας παραγωγής εικόνων με τη χρήση AI για όσους επιθυμούν να συμμετέχουν στην πολιτική και γενικότερα στα κοινά, αλλά και το πώς οι γυναίκες επηρεάζονται δυσανάλογα από αυτό το πρόβλημα.
Το ASP εντόπισε περισσότερες από 35.000 αναφορές μη συναινετικών προσωπικών εικόνων (NCII) που απεικονίζουν 26 μέλη του Κογκρέσου - 25 γυναίκες και έναν άνδρα - οι οποίες βρέθηκαν πρόσφατα σε ιστοσελίδες που φιλοξενούν deepfakes. Οι περισσότερες από τις εικόνες αφαιρέθηκαν γρήγορα, καθώς οι ερευνητές μοιράστηκαν τα ευρήματά τους με τα επηρεαζόμενα μέλη του Κογκρέσου.
«Πρέπει κατά κάποιο τρόπο να αναλογιστούμε αυτό το νέο περιβάλλον και το γεγονός ότι το διαδίκτυο έχει δημιουργήσει πολλούς από αυτούς τους κινδύνους που στοχεύουν δυσανάλογα τις γυναίκες και τις περιθωριοποιημένες κοινότητες», δήλωσε η Nina Jankowicz, ειδική σε θέματα διαδικτυακής παραπληροφόρησης και παρενόχλησης, η οποία ίδρυσε το American Sunlight Project και είναι μία από τους συγγραφείς της μελέτης.
Οι μη συναινετικές προσωπικές εικόνες, ευρέως γνωστές ως deepfakes παρότι οι ερευνητές προτιμούν τον επίσημο ορισμό, μπορούν να δημιουργηθούν με εφαρμογές τεχνητής νοημοσύνης ή με εργαλεία επεξεργασίας βίντεο, που επιτρέπουν στους χρήστες να τοποθετήσουν το πρόσωπο κάποιου ανθρώπου στο σώμα ενός πρωταγωνιστή ερωτικών ταινιών. Έτσι, μπορεί εύκολα κανείς να φτιάξει ένα ψεύτικο βίντεο το οποίο δείχνει οποιονδήποτε επώνυμο να συμμετέχει σε σεξουαλικές πράξεις.
Τα deepfakes επηρεάζουν δυσανάλογα τις γυναίκες
Οι ερευνητές του ASP συνέλεξαν δεδομένα από 11 γνωστές ιστοσελίδες με deepfakes και ανακάλυψαν ότι η κομματική ταυτότητα ή η γεωγραφική θέση δεν επηρέαζαν τις πιθανότητες ένας πολιτικός να πέσει θύμα deepfake, αν και οι νεότεροι βουλευτές είχαν περισσότερες πιθανότητες. Ξεκάθαρα, όμως, ο μεγαλύτερος παράγοντας ήταν το φύλο, με τις γυναίκες βουλεύτριες και γερουσιαστές να έχουν 70 φορές περισσότερες πιθανότητες να γίνουν στόχος σε σχέση με τους άνδρες.
Το thinktank δεν έδωσε στη δημοσιότητα τα ονόματα των βουλευτών που απεικονίζονταν στις εικόνες, προκειμένου να αποφευχθεί η ενθάρρυνση των αναζητήσεων για αυτές. Επικοινώνησε, όμως, με τα γραφεία όλων όσων επηρεάστηκαν για να τους ειδοποιήσει, με αποτέλεσμα οι περισσότερες εικόνες να αφαιρεθούν αμέσως μετά. Οι ερευνητές τονίζουν ότι δεν ξέρουν για ποιον ακριβώς λόγο συνέβη αυτό, αλλά υπογραμμίζουν ότι τα περισσότερα άτομα που θα πέσουν θύμα deepfake δεν απολαμβάνουν την ίδια προστασία με τα μέλη του Κογκρέσου.
«Οι άνθρωποι, ιδίως οι γυναίκες, οι οποίοι δεν έχουν πρόσβαση στους πόρους που διαθέτουν τα μέλη του Κογκρέσου, θα ήταν εξαιρετικά δύσκολο να επιτύχουν αυτή την ταχεία ανταπόκριση αν καταθέταν οι ίδιοι αίτημα απόσυρσης των εικόνων», αναφέρει η μελέτη.
Σύμφωνα με τη μελέτη, σχεδόν το 16% του συνόλου των γυναικών που υπηρετούν σήμερα στο Κογκρέσο ή περίπου μία στις 6 βουλεύτριες και γερουσιαστές έχουν πέσει θύματα μη συναινετικών προσωπικών εικόνων που δημιουργήθηκαν με τεχνητή νοημοσύνη.
Η ίδια η Jankowicz έχει γίνει στόχος διαδικτυακής παρενόχλησης και απειλών για το έργο της στην εξάρθρωση της παραπληροφόρησης και έχει μιλήσει δημοσίως για την εμπειρία της ως στόχος deepfakes.
Δεν υπάρχουν συνέπειες για τους δημιουργούς deepfake πορνό
«Μπορεί να σε κάνουν να εμφανιστείς σε αυτές τις ευάλωτες, προσωπικές στιγμές χωρίς τη συγκατάθεσή σου και αυτά τα βίντεο, ακόμη και αν, ας πούμε, επιδιώξεις μια αξίωση πνευματικών δικαιωμάτων κατά του δημιουργού - όπως στην περίπτωσή μου - πολλαπλασιάζονται στο διαδίκτυο χωρίς τον έλεγχό σου και χωρίς κάποιου είδους συνέπειες για τους ανθρώπους που δημιουργούν ή διαδίδουν deepfake πορνό», δήλωσε. «Αυτό συνεχίζει να αποτελεί κίνδυνο για οποιονδήποτε βρίσκεται στο προσκήνιο, που συμμετέχει στο δημόσιο διάλογο, αλλά ιδιαίτερα για τις γυναίκες και τις έγχρωμες γυναίκες».
Η σεξουαλική κακοποίηση μέσω εικόνων μπορεί να έχει καταστροφικές επιπτώσεις στην ψυχική υγεία των θυμάτων, στα οποία συμπεριλαμβάνονται καθημερινοί άνθρωποι που δεν ασχολούνται με την πολιτική, ανάμεσα τους και πολλά παιδιά. Ιδιαίτερα δυσοίωνα ήταν τα ευρήματα έρευνας του Internet Watch Foundation, σύμφωνα με την οποία οι αληθοφανείς εικόνες σεξουαλικής κακοποίησης ανηλίκων που παράγονται με τεχνητή νοημοσύνη γίνονται όλο και πιο διαδεδομένες.
4 στις 10 νεαρές γυναίκες αυτολογοκρίνονται για να αποφύγουν την παρενόχληση
Ο πλήρης αντίκτυπος των deepfakes στην κοινωνία δεν έχει ακόμη αποσαφηνιστεί, αλλά η έρευνα του ASP ήδη δείχνει ότι το 41% των γυναικών ηλικίας 18 έως 29 ετών αυτολογοκρίνονται όταν κάνουν αναρτήσεις στο διαδίκτυο, για να αποφύγουν την παρενόχλησή τους.
«Αυτή είναι μια εξαιρετικά ισχυρή απειλή για τη δημοκρατία και την ελευθερία του λόγου, αν έχουμε σχεδόν τον μισό πληθυσμό να σιωπά επειδή φοβάται την παρενόχληση που θα μπορούσε να βιώσει», δήλωσε η Sophie Maddocks, διευθύντρια έρευνας στο Center for Media at Risk στο Πανεπιστήμιο της Πενσιλβάνια.
Στις ΗΠΑ, δεν υπάρχει ομοσπονδιακός νόμος που να θεσπίζει ποινικές ή αστικές κυρώσεις για κάποιον που παράγει και διανέμει μη συναινετικές οικείες εικόνες που δημιουργούνται με τεχνητή νοημοσύνη. Περίπου δώδεκα πολιτείες έχουν θεσπίσει τέτοιους νόμους τα τελευταία χρόνια, αν και οι περισσότεροι προβλέπουν αστικές και όχι ποινικές κυρώσεις.
Τα deepfakes μπορεί να γίνουν και απειλές εθνικής ασφαλείας, καθώς δημιουργούν τις προϋποθέσεις για εκβιασμούς ατόμων σε θέσεις ισχύος.
«Η ελπίδα μου είναι ότι τα μέλη του Κογκρέσου θα αναλάβουν δράση όταν καταλάβουν ότι αυτό δεν επηρεάζει μόνο τις Αμερικανίδες, αλλά και τους ίδιους», δήλωσε η Jankowicz. «Επηρεάζει τους ίδιους και τους συναδέλφους τους. Και αυτό συμβαίνει απλώς και μόνο επειδή βρίσκονται στο επίκεντρο της δημοσιότητας», καταλήγει.
Με πληροφορίες από Gizmodo