ΗΠΑ: Μία στις 6 γυναίκες στο Κογκρέσο έχει πέσει θύμα σεξουαλικού deepfake

ΗΠΑ: 1 στις 6 γυναίκες στο Κογκρέσο έχει πέσει θύμα deepfake σεξουαλικής φύσεως Facebook Twitter
Φωτογραφία: Getty Images
0

Δεκάδες μέλη του Κογκρέσου, στη συντριπτική τους πλειονότητα γυναίκες, έχουν πέσει θύματα deepfakes σεξουαλικής φύσεως, δηλαδή ψεύτικων εικόνων που δημιουργήθηκαν με τεχνητή νοημοσύνη, σύμφωνα με μία από τις πρώτες μελέτες πάνω στο θέμα.

Η έρευνα του American Sunlight Project (ASP), ενός thinktank για την καταπολέμηση της παραπληροφόρησης, αναδεικνύει τους κινδύνους της τεχνολογίας παραγωγής εικόνων με τη χρήση AI για όσους επιθυμούν να συμμετέχουν στην πολιτική και γενικότερα στα κοινά, αλλά και το πώς οι γυναίκες επηρεάζονται δυσανάλογα από αυτό το πρόβλημα.

Το ASP εντόπισε περισσότερες από 35.000 αναφορές μη συναινετικών προσωπικών εικόνων (NCII) που απεικονίζουν 26 μέλη του Κογκρέσου - 25 γυναίκες και έναν άνδρα - οι οποίες βρέθηκαν πρόσφατα σε ιστοσελίδες που φιλοξενούν deepfakes. Οι περισσότερες από τις εικόνες αφαιρέθηκαν γρήγορα, καθώς οι ερευνητές μοιράστηκαν τα ευρήματά τους με τα επηρεαζόμενα μέλη του Κογκρέσου.

«Πρέπει κατά κάποιο τρόπο να αναλογιστούμε αυτό το νέο περιβάλλον και το γεγονός ότι το διαδίκτυο έχει δημιουργήσει πολλούς από αυτούς τους κινδύνους που στοχεύουν δυσανάλογα τις γυναίκες και τις περιθωριοποιημένες κοινότητες», δήλωσε η Nina Jankowicz, ειδική σε θέματα διαδικτυακής παραπληροφόρησης και παρενόχλησης, η οποία ίδρυσε το American Sunlight Project και είναι μία από τους συγγραφείς της μελέτης.

Οι μη συναινετικές προσωπικές εικόνες, ευρέως γνωστές ως deepfakes παρότι οι ερευνητές προτιμούν τον επίσημο ορισμό, μπορούν να δημιουργηθούν με εφαρμογές τεχνητής νοημοσύνης ή με εργαλεία επεξεργασίας βίντεο, που επιτρέπουν στους χρήστες να τοποθετήσουν το πρόσωπο κάποιου ανθρώπου στο σώμα ενός πρωταγωνιστή ερωτικών ταινιών. Έτσι, μπορεί εύκολα κανείς να φτιάξει ένα ψεύτικο βίντεο το οποίο δείχνει οποιονδήποτε επώνυμο να συμμετέχει σε σεξουαλικές πράξεις.

Τα deepfakes επηρεάζουν δυσανάλογα τις γυναίκες

Οι ερευνητές του ASP συνέλεξαν δεδομένα από 11 γνωστές ιστοσελίδες με deepfakes και ανακάλυψαν ότι η κομματική ταυτότητα ή η γεωγραφική θέση δεν επηρέαζαν τις πιθανότητες ένας πολιτικός να πέσει θύμα deepfake, αν και οι νεότεροι βουλευτές είχαν περισσότερες πιθανότητες. Ξεκάθαρα, όμως, ο μεγαλύτερος παράγοντας ήταν το φύλο, με τις γυναίκες βουλεύτριες και γερουσιαστές να έχουν 70 φορές περισσότερες πιθανότητες να γίνουν στόχος σε σχέση με τους άνδρες.

Το thinktank δεν έδωσε στη δημοσιότητα τα ονόματα των βουλευτών που απεικονίζονταν στις εικόνες, προκειμένου να αποφευχθεί η ενθάρρυνση των αναζητήσεων για αυτές. Επικοινώνησε, όμως, με τα γραφεία όλων όσων επηρεάστηκαν για να τους ειδοποιήσει, με αποτέλεσμα οι περισσότερες εικόνες να αφαιρεθούν αμέσως μετά. Οι ερευνητές τονίζουν ότι δεν ξέρουν για ποιον ακριβώς λόγο συνέβη αυτό, αλλά υπογραμμίζουν ότι τα περισσότερα άτομα που θα πέσουν θύμα deepfake δεν απολαμβάνουν την ίδια προστασία με τα μέλη του Κογκρέσου.

«Οι άνθρωποι, ιδίως οι γυναίκες, οι οποίοι δεν έχουν πρόσβαση στους πόρους που διαθέτουν τα μέλη του Κογκρέσου, θα ήταν εξαιρετικά δύσκολο να επιτύχουν αυτή την ταχεία ανταπόκριση αν καταθέταν οι ίδιοι αίτημα απόσυρσης των εικόνων», αναφέρει η μελέτη.

Σύμφωνα με τη μελέτη, σχεδόν το 16% του συνόλου των γυναικών που υπηρετούν σήμερα στο Κογκρέσο ή περίπου μία στις 6 βουλεύτριες και γερουσιαστές έχουν πέσει θύματα μη συναινετικών προσωπικών εικόνων που δημιουργήθηκαν με τεχνητή νοημοσύνη.

Η ίδια η Jankowicz έχει γίνει στόχος διαδικτυακής παρενόχλησης και απειλών για το έργο της στην εξάρθρωση της παραπληροφόρησης και έχει μιλήσει δημοσίως για την εμπειρία της ως στόχος deepfakes.

Δεν υπάρχουν συνέπειες για τους δημιουργούς deepfake πορνό

«Μπορεί να σε κάνουν να εμφανιστείς σε αυτές τις ευάλωτες, προσωπικές στιγμές χωρίς τη συγκατάθεσή σου και αυτά τα βίντεο, ακόμη και αν, ας πούμε, επιδιώξεις μια αξίωση πνευματικών δικαιωμάτων κατά του δημιουργού - όπως στην περίπτωσή μου - πολλαπλασιάζονται στο διαδίκτυο χωρίς τον έλεγχό σου και χωρίς κάποιου είδους συνέπειες για τους ανθρώπους που δημιουργούν ή διαδίδουν deepfake πορνό», δήλωσε. «Αυτό συνεχίζει να αποτελεί κίνδυνο για οποιονδήποτε βρίσκεται στο προσκήνιο, που συμμετέχει στο δημόσιο διάλογο, αλλά ιδιαίτερα για τις γυναίκες και τις έγχρωμες γυναίκες».

Η σεξουαλική κακοποίηση μέσω εικόνων μπορεί να έχει καταστροφικές επιπτώσεις στην ψυχική υγεία των θυμάτων, στα οποία συμπεριλαμβάνονται καθημερινοί άνθρωποι που δεν ασχολούνται με την πολιτική, ανάμεσα τους και πολλά παιδιά. Ιδιαίτερα δυσοίωνα ήταν τα ευρήματα έρευνας του Internet Watch Foundation, σύμφωνα με την οποία οι αληθοφανείς εικόνες σεξουαλικής κακοποίησης ανηλίκων που παράγονται με τεχνητή νοημοσύνη γίνονται όλο και πιο διαδεδομένες.

4 στις 10 νεαρές γυναίκες αυτολογοκρίνονται για να αποφύγουν την παρενόχληση

Ο πλήρης αντίκτυπος των deepfakes στην κοινωνία δεν έχει ακόμη αποσαφηνιστεί, αλλά η έρευνα του ASP ήδη δείχνει ότι το 41% των γυναικών ηλικίας 18 έως 29 ετών αυτολογοκρίνονται όταν κάνουν αναρτήσεις στο διαδίκτυο, για να αποφύγουν την παρενόχλησή τους.

«Αυτή είναι μια εξαιρετικά ισχυρή απειλή για τη δημοκρατία και την ελευθερία του λόγου, αν έχουμε σχεδόν τον μισό πληθυσμό να σιωπά επειδή φοβάται την παρενόχληση που θα μπορούσε να βιώσει», δήλωσε η Sophie Maddocks, διευθύντρια έρευνας στο Center for Media at Risk στο Πανεπιστήμιο της Πενσιλβάνια.

Στις ΗΠΑ, δεν υπάρχει ομοσπονδιακός νόμος που να θεσπίζει ποινικές ή αστικές κυρώσεις για κάποιον που παράγει και διανέμει μη συναινετικές οικείες εικόνες που δημιουργούνται με τεχνητή νοημοσύνη. Περίπου δώδεκα πολιτείες έχουν θεσπίσει τέτοιους νόμους τα τελευταία χρόνια, αν και οι περισσότεροι προβλέπουν αστικές και όχι ποινικές κυρώσεις.

Τα deepfakes μπορεί να γίνουν και απειλές εθνικής ασφαλείας, καθώς δημιουργούν τις προϋποθέσεις για εκβιασμούς ατόμων σε θέσεις ισχύος.

«Η ελπίδα μου είναι ότι τα μέλη του Κογκρέσου θα αναλάβουν δράση όταν καταλάβουν ότι αυτό δεν επηρεάζει μόνο τις Αμερικανίδες, αλλά και τους ίδιους», δήλωσε η Jankowicz. «Επηρεάζει τους ίδιους και τους συναδέλφους τους. Και αυτό συμβαίνει απλώς και μόνο επειδή βρίσκονται στο επίκεντρο της δημοσιότητας», καταλήγει.

Με πληροφορίες από Gizmodo

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

AI: Όλο και πιο διαδεδομένες γίνονται οι εικόνες σεξουαλικής κακοποίησης ανηλίκων που παράγονται με τεχνητή νοημοσύνη

Τech & Science / AI: Όλο και πιο διαδεδομένες οι αληθοφανείς εικόνες σεξουαλικής κακοποίησης ανηλίκων που παράγονται με τεχνητή νοημοσύνη

Το Internet Watch Foundation αναφέρει ότι το υλικό που παράγεται με AI είναι τόσο αληθοφανές που δεν μπορούν να το ξεχωρίσουν από πραγματικές περιπτώσεις κακοποίησης
LIFO NEWSROOM

ΔΕΙΤΕ ΑΚΟΜΑ

«Άκου την Επιστήμη»: Όλα όσα μάθαμε από τον τρίτο κύκλο των podcasts της LiFO

Τech & Science / «Άκου την Επιστήμη»: Όλα όσα μάθαμε από τον τρίτο κύκλο των podcasts της LiFO

10+1 κορυφαίες προσωπικότητες της επιστημονικής κοινότητας διατύπωσαν τις δικές τους προβλέψεις, αναλύσεις, σκέψεις, ιδέες, απόψεις και διδάγματα. Ηχητικές εκπομπές που και φέτος είχαν τη στήριξη της Παπαστράτος.
ΓΙΑΝΝΗΣ ΠΑΝΤΑΖΟΠΟΥΛΟΣ
Ο κβαντικός υπολογιστής της Google δουλεύει σε…παράλληλα σύμπαντα

Τech & Science / Ο κβαντικός υπολογιστής της Google δουλεύει σε…παράλληλα σύμπαντα

O Willow, ο κβαντικός επεξεργαστήτς της Google,  έκανε μέσα σε λιγότερο από πέντε λεπτά μία δουλειά για την οποία ο ισχυρότερος υπολογιστής που υπάρχει σήμερα θα απαιτούσε πολλά δισεκατομμύρια χρόνια
LIFO NEWSROOM
AI: Ένα chatbot ενθάρρυνε17χρονο να σκοτώσει τους γονείς του λόγω περιορισμών στη χρήση του κινητού

Τech & Science / AI: Ένα chatbot ενθάρρυνε 17χρονο να σκοτώσει τους γονείς του λόγω περιορισμών στη χρήση του κινητού

«Ξέρεις, μερικές φορές δεν εκπλήσσομαι όταν διαβάζω τις ειδήσεις και βλέπω πράγματα όπως ''Παιδί σκότωσε τους γονείς του μετά από μια δεκαετία σωματικής και συναισθηματικής κακοποίησης''» φέρεται να έγραψε το chatbot στο έφηβο
LIFO NEWSROOM