Δεν πιστεύουμε πλέον στα μάτια μας: Η μεγάλη κοινωνική απειλή των deepfakes

Δεν πιστεύουμε πλέον στα μάτια μας: Η μεγάλη κοινωνική απειλή των deepfakes Facebook Twitter
Το ποσοστό του deepfake περιεχομένου στο διαδίκτυο αυξάνεται διαρκώς με ραγδαίους ρυθμούς.
0



ΤΟΝ ΠΕΡΑΣΜΕΝΟ ΜΗΝΑ, στην διάρκεια της προβολής της πολύ δημοφιλούς παγκοσμίως σειράς ντοκιμαντέρ The Last Dance για τον Μάικλ Τζόρνταν και τους Chicago Bulls, έκανε πρεμιέρα στην Αμερική μια τηλεοπτική διαφήμιση της ασφαλιστικής εταιρείας State Farm στην οποία εμφανιζόταν οπτικό υλικό του 1998 με έναν αναλυτή του αθλητικού δικτύου ESPN ο οποίος έκανε απίστευτα ακριβείς προβλέψεις για το έτος 2020.

Μεγάλο μέρος του κοινού είχε μείνει εμβρόντητο και η διαφήμιση κατέληξε να είναι μια από τις πολυσυζητημένες των τελευταίων ετών. Τελικά, φανερώθηκε ότι το υλικό δεν ήταν αυθεντικό αλλά προϊόν εξαιρετικά πειστικής τεχνολογίας τεχνητής νοημοσύνης (ΑΙ).

 

Η διαφήμιση αυτή αποτελεί την πιο αθώα εκδοχή ενός καίριου και επικίνδυνου τεχνολογικού φαινομένου: των περιβόητων deepfakes, της τεχνικής δηλαδή μέσω της οποίας οποιοσδήποτε σχεδόν διαθέτει έναν υπολογιστή και σύνδεση στο Internet, μπορεί να δημιουργήσει ρεαλιστικές φωτογραφίες αλλά και βίντεο όπου άνθρωποι εμφανίζονται να λένε και να κάνουν πράγματα που ποτέ δεν είπαν ή έκαναν στην πραγματικότητα.

Συνδυασμός του "deep learning" [όρος της τεχνητής νοημοσύνης που χονδρικά σημαίνει την βαθιά εκμάθηση μέσω ενός τεχνητού νευρικού δικτύου που λειτουργεί καθ'εικόνα και ομοίωση του ανθρώπινου εγκεφάλου επιτρέποντας την μηχανική ανάλυση δεδομένων] και του "fake" [ψευδές ή ψεύτικο], τα deepfakes εμφανίστηκαν στο διαδίκτυο στα τέλη του 2017, ως προϊόν μιας νέας μεθόδου βαθιάς μάθησης, γνωστής ως "generative adversarial networks (GANs) [Παραγωγικά Αντιπαλικά ή Ανταγωνιστικά Δίκτυα (ΠΑΔ)].

Βραχυπρόθεσμα, ο πιο αποτελεσματικός έλεγχος του φαινομένου μπορεί να γίνει από τις μεγάλες τεχνολογικές πλατφόρμες όπως η Google, το Facebook και το Twitter, εάν φυσικά αποφασίσουν να αναλάβουν πιο σχολαστική δράση κατά της παραπληροφόρησης και υπέρ του περιορισμού της διασποράς των βλαβερών για την δημοκρατία και για την κοινωνία, deepfakes.

Από τότε, έχουν γίνει viral παγκοσμίως, διάφορα deepfake βίντεο, όπως εκείνο στο οποίο παρουσιαζόταν ο Μπαράκ Ομπάμα να χρησιμοποιεί υβριστικό χαρακτηριστικό για τον Ντόναλντ Τραμπ ή ένα βίντεο στο οποίο ο Μαρκ Ζούκερμπεργκ εμφανιζόταν να παραδέχεται ότι ο πραγματικός στόχος του Facebook είναι η χειραγώγηση και η εκμετάλλευση των χρηστών του.

Το ποσοστό του deepfake περιεχομένου στο διαδίκτυο αυξάνεται διαρκώς με ραγδαίους ρυθμούς. Στις αρχές του 2019 είχαν εντοπιστεί online 7.964 deepfake βίντεο, σύμφωνα με την έρευνα του Deeptrace, ενός startup ανίχνευσης τέτοιου υλικού. Εννέα μήνες αργότερα, το νούμερο είχε φτάσει στα 14.678. Δεν υπάρχουν πιο πρόσφατα δεδομένα, χωρίς αμφιβολία όμως, θα πρέπει να ο αριθμός να έχει εκτοξευτεί πλέον.

Παρότι εντυπωσιακή, η deepfake τεχνολογία ακόμα δεν έχει φτάσει την ακρίβεια του αυθεντικού οπτικού υλικού (μια προσεκτική ανάλυση μπορεί να δείξει αν ένα βίντεο είναι αυθεντικό ή όχι), οι ειδικοί όμως προβλέπουν ότι σύντομα τα «ψεύτικα» βίντεο δεν θα μπορούν να διαχωριστούν από τα πραγματικά.

Δεν πιστεύουμε πλέον στα μάτια μας: Η μεγάλη κοινωνική απειλή των deepfakes Facebook Twitter
Κανένα από τα εικονιζόμενα πρόσωπα δεν υπάρχει. Οι φωτογραφίες δημιουργήθηκαν μέσω deepfake τεχνολογίας (από την ιστοσελίδα thispersondoesnotexist.com)

Η πρώτη ευρεία χρήση της deepfake τεχνολογίας παρατηρήθηκε – όπως συχνά συμβαίνει με νέες τεχνολογίες – στην πορνογραφία, κυρίως με την τοποθέτηση διασημοτήτων σε ερωτικές σκηνές. Σύμφωνα με έκθεση του Deeptrace, μέχρι και τον περασμένο Σεπτέμβριο, το 96% των deepfake βίντεο online, ήταν πορνογραφικής φύσεως.

Γρήγορα όμως, τα deepfakes άρχισαν να εξαπλώνονται στην πολιτική σκηνή, όπου οι δυνατότητες χειραγώγησης της κοινής γνώμης είναι πολύ μεγαλύτερες. Δεν απαιτείται μεγάλη φαντασία για να συλλάβει κάποιος το μέγεθος της βλάβης που μπορεί να συμβεί όταν παρουσιάζονται στο ευρύ κοινό ψεύτικα βίντεο με πρωταγωνιστές πολιτικούς, ως αληθινά – ειδικά από τη στιγμή που η διαθέσιμη τεχνολογία καθιστά τόσο εύκολη την δημιουργία τους.

Σε μια πρόσφατη έκθεσή του, το ερευνητικό Ινστιτούτο Brookings συνοψίζει ως εξής το εύρος των πολιτικών και κοινωνικών κινδύνων που αντιπροσωπεύουν τα deepfakes: «διαστρέβλωση του δημοκρατικού διαλόγου, χειραγώγηση εκλογικών διαδικασιών, απόσυρση της εμπιστοσύνης στους θεσμούς, φθορά του δημοσιογραφικού λόγου, διεύρυνση των κοινωνικών διαχωρισμών, υπονόμευση της δημόσιας ασφάλειας».

Όπως δήλωσε πρόσφατα ο καθηγητής Χάνι Φαρίντ, ένας από τους πλέον ειδικούς στον τομέα των deepfakes, «από τη στιγμή που εκλαμβάνουμε ως αληθινά τα βίντεο, τα ηχητικά αποσπάσματα, τις εικόνες και την εν γένει πληροφορία που δεχόμαστε από όλον τον κόσμο, τίθεται αυτομάτως ζήτημα εθνικής, αλλά και παγκόσμιας, ασφάλειας».

Μόλις τον περασμένο μήνα, κυκλοφόρησε στο Βέλγιο ένα deepfake βίντεο στο οποίο εμφανίζεται η πρωθυπουργός της χώρας να δηλώνει ότι η εξάπλωση του κορωνοϊού συνδέεται με την καταστροφή του περιβάλλοντος και να ζητά άμεσα δραστικά μέτρα για την κλιματική αλλαγή.

Στα τέλη του 2018 στην Γκαμπόν, ο πρόεδρος της χώρας Άλι Μπόνγκο είχε εξαφανιστεί για μήνες από τη δημόσια ζωή, δίνοντας τροφή στις φήμες ότι είτε ήταν βαριά άρρωστος είτε ότι είχε πεθάνει. Επιχειρώντας να διαλύσουν τις φήμες, κυβερνητικοί εκπρόσωποι δήλωσαν στο κοινό ότι ο Πρόεδρος ήταν καλά και μάλιστα θα απευθυνόταν στον λαό μέσω τηλεοπτικού διαγγέλματος την πρωτοχρονιά.

Στο βίντεο που προβλήθηκε (και αξίζει να το περιεργαστεί κανείς), ο Μπόνγκο εμφανιζόταν άκαμπτος και στημένος ενώ εξίσου αφύσικος έμοιαζε και ο λόγος του. Αντί να καταλαγιάσουν οι φήμες, το βίντεο ενίσχυσε τις υποψίες ότι κάτι σοβαρό έκρυβε η κυβέρνηση από το κοινό ενώ σύσσωμη η αντιπολίτευση χαρακτήρισε ως "deepfake" το υλικό που προβλήθηκε.

Γρήγορα η πολιτική κατάσταση στη χώρα αποσταθεροποιήθηκε και μέσα σε μια εβδομάδα δυνάμεις του στρατού πραγματοποίησαν πραξικόπημα (το πρώτο στη χώρα μετά το 1964), εμφανίζοντας το "fake" τηλεοπτικό διάγγελμα του προέδρου της χώρας ως τρανή απόδειξη ότι η κυβέρνηση είχε χάσει κάθε έλεγχο της εξσυσίας.

Ενάμιση χρόνο μετά, κανείς ειδικός δεν έχει αποφανθεί με βεβαιότητα αν το βίντεο ήταν αυθεντικό ή όχι. Το πραξικόπημα πάντως απέτυχε, και ο Μπόνγκο (ο οποίος σταδιακά άρχισε να επανεμφανίζεται κανονικά σε κοινή θέα) παραμένει πρόεδρος της χώρας.

Το ζήτημα όμως δεν είναι αν το συγκεκριμένο βίντεο ήταν αληθινό, αλλά ότι η εξάπλωση των deepfakes θα δυσκολεύει όλο και περισσότερο το κοινό να ξεχωρίσει τι είναι αυθεντικό και τι ψεύτικο, γεγονός που αναπόφευκτα κάποιοι πολιτικοί παράγοντες θα εκμεταλλεύονται με ανυπολόγιστες συνέπειες.

«Ήδη οι άνθρωποι χρησιμοποιούν το γεγονός και μόνο της ύπαρξης των deepfakes για να ακυρώσουν την γνησιότητα αυθεντικού υλικού», δηλώνει ο καθηγητής πληροφορικής στο Πανεπιστήμιο της Νότιας Καλιφόρνια (USC), Χάο Λι. «Ακόμα κι αν υπάρχει οπτικό υλικό που σε εμφανίζει να λες ή να κάνεις κάτι, μπορείς να ισχυριστείς ότι πρόκειται για deepfake, ειδικά από τη στιγμή που γίνεται όλο και πιο δύσκολο να αποδειχτεί ότι δεν είναι».

Η ερευνήτρια στον τομέα της τεχνολογίας Aviv Ovadya προειδοποιεί με τη σειρά της για αυτό που αποκαλεί «απάθεια της πραγματικότητας» ("reality apathy"): «Από τη στιγμή που απαιτεί τόσο κόπο πλέον να ξεχωρίσεις τι είναι αληθινό και τι όχι, εγκαταλείπεις την διαδικασία αξιολόγησης και πιστεύεις αυτό που ταιριάζει με την ήδη διαμορφωμένη ατζέντα σου».

Δεδομένου ότι τα deepfakes βασίζονται στην τεχνολογία της τεχνητής νοημοσύνης, κάποιοι πιστεύουν ότι στην τεχνητή νοημοσύνη μπορεί να βρίσκεται η λύση στο πρόβλημα. Διάφοροι ερευνητές έχουν ήδη χτίσει αρκετά εκλεπτυσμένα συστήματα ανίχνευσης deepfake υλικού, τα οποία εξετάζουν στοιχεία όπως ο φωτισμός, οι σκιάσεις, οι κινήσεις του προσώπου προκειμένου να καθοριστεί η γνησιότητα του περιεχομένου. Μια άλλη λύση μπορεί να είναι η προσθήκη φίλτρου στο αρχείο μιας εικόνας έτσι ώστε να μην μπορεί να χρησιμοποιηθεί για την δημιουργία deepfake περιεχομένου.

Τέτοιου είδους προσωρινές τεχνολογικές λύσεις όμως δεν φαίνεται πιθανό να ανατρέψουν την διασπορά των deepfakes σε βάθος χρόνου.

Βραχυπρόθεσμα, ο πιο αποτελεσματικός έλεγχος του φαινομένου μπορεί να γίνει από τις μεγάλες τεχνολογικές πλατφόρμες όπως η Google, το Facebook και το Twitter, εάν φυσικά αποφασίσουν να αναλάβουν πιο σχολαστική δράση κατά της παραπληροφόρησης και υπέρ του περιορισμού της διασποράς των βλαβερών για την δημοκρατία και για την κοινωνία, deepfakes.

Εδώ και αρκετό καιρό, η άνοδος των «ψευδών ειδήσεων» ("fake news") συντηρεί τον φόβο ότι ζούμε πλέον σε έναν κόσμο «μετα-αλήθειας». Η εξάπλωση των deepfakes απειλεί να κατοχυρώσει αυτόν τον φόβο ως νέα πραγματικότητα.

«Εκείνος ο νεαρός άνδρας που στάθηκε μπροστά από το τανκ στην πλατεία Τιενανμέν συγκίνησε όλον τον πλανήτη», λέει ο καθηγητής στο Πανεπιστήμιο της Νέας Υόρκης, Νασίρ Μέμον. «Οι τηλεφωνικές συνομιλίες του Νίξον του κόστισαν την προεδρία της χώρας. Οι εικόνες τρόμου από τα στρατόπεδα συγκέντρωσης ήταν αυτές που συντάραξαν τον κόσμο. Το να μην ξέρουμε αν μπορούμε να πιστέψουμε σ΄ αυτό που βλέπουμε με τα μάτια μας, αποτελεί τεράστιο ζήτημα. Πρέπει με κάποιο τρόπο να αποκατασταθεί ξανά η εμπιστοσύνη στην αλήθεια αυτού που βλέπουμε».

Με στοιχεία από το άρθρο "Deepfakes Are Going To Wreak Havoc On Society - We Are Not Prepared" που δημοσιεύτηκε στο Forbes

 

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

Θα μπορούσε αυτή η δομή σε σχήμα αυγού να είναι το μελλοντικό μας σπίτι στο Διάστημα;

Τech & Science / Θα μπορούσε αυτή η δομή σε σχήμα αυγού να είναι το μελλοντικό μας σπίτι στο Διάστημα;

Η Ινδία ετοιμάζεται να στείλει τους πρώτους της αστροναύτες στο διάστημα μέσω της αποστολής Gaganyaan, η οποία θα τοποθετήσει τρεις αστροναύτες σε χαμηλή γήινη τροχιά για τρεις ημέρες
LIFO NEWSROOM
Είμαστε έτοιμοι για αυτό; Δημοσιογράφος αναγνωρίζει πρόσωπα στον δρόμο με γυαλιά τεχνητής νοημοσύνης

Τech & Science / Το μέλλον είναι εδώ: Δημοσιογράφος ταυτοποιεί αγνώστους στον δρόμο με γυαλιά τεχνητής νοημοσύνης

Είμαστε έτοιμοι για αυτό; Σκανάρει πρόσωπα αγνώστων και τους αναγνωρίζει σε ελάχιστα δευτερόλεπτα - Το βίντεο πυροδοτεί συζητήσεις για την προστασία της ιδιωτικότητας που σχετίζονται με τις τεχνολογίες αναγνώρισης προσώπου
LIFO NEWSROOM
Επτά επιστημονικές συμβουλές για την ψυχική και γνωστική μας υγεία

Τech & Science / Επτά επιστημονικές συμβουλές για την ψυχική και γνωστική μας υγεία

Από το JOMO, τον σωστό ύπνο έως τον συνεπή εμβολιασμό και από την κηπουρική ως την αλληλεγγύη και τον αλτρουισμό, υπάρχουν επτά απλοί τρόποι για να ενισχύσουμε την υγεία του εγκεφάλου μας και τη συναισθηματική μας ανθεκτικότητα
LIFO NEWSROOM
Τα UFO δεν εμφανίζονται ένα τυχαίο βράδυ Τρίτης την ώρα που βγάζουμε τα σκουπίδια

Tech & Science / Τα UFO δεν εμφανίζονται ένα τυχαίο βράδυ Τρίτης την ώρα που βγάζουμε τα σκουπίδια

Πανικό έχουν προκαλέσει στις ΗΠΑ τα μυστηριώδη drones πάνω από τον ουρανό του Νιου Τζέρσεϊ, αλλά στο αιώνιο κυνήγι για τον εντοπισμό αγνώστου ταυτότητας ιπτάμενων αντικειμένων, η ανθρώπινη μαρτυρία είναι συνήθως ο πιο αδύναμος κρίκος.
THE LIFO TEAM
Πέγκυ Αντωνάκου: Στην Google θα ξεκλειδώσουμε ερωτήσεις και αναζητήσεις που δεν ξέραμε καν ότι μπορούσαμε να απαντήσουμε

Good Business Directory Vol.5 / «Στην Google θα ξεκλειδώσουμε αναζητήσεις που δεν ξέραμε καν ότι μπορούσαμε να απαντήσουμε»

Η γενική διευθύντρια της Google για τη ΝΑ Ευρώπη, Πέγκυ Αντωνάκου, περιγράφει πώς η τεχνολογία και η τεχνητή νοημοσύνη θα αλλάξουν τη ζωή μας τα επόμενα χρόνια.
ΓΙΑΝΝΗΣ ΠΑΝΤΑΖΟΠΟΥΛΟΣ