Ένα deepfake βίντεο, με κακή επεξεργασία, που υποτίθεται ότι έδειχνε τον Βολοντίμιρ Ζελένσκι υποχωρεί στις ρωσικές απαιτήσεις, δεν έπεισε κανέναν. Όμως, ειδικοί προειδοποιούν ότι θα μπορούσε να είναι προάγγελος πιο εξελιγμένων τέτοιων ψεύτικων βίντεο.
Το εν λόγω βίντεο υποτίθεται ότι δείχνει έναν κάτωχρο Ζελένσκι να μιλά από το προεδρικό βήμα, καλώντας τους Ουκρανούς να παραδώσουν τα όπλα. Χρήστες του διαδικτύου αμέσως εντόπισαν τις διαφορές στο χρώμα του δέρματος στον λαιμό και το πρόσωπο, όπως και την παράξενη προφορά στο βίντεο, επισημαίνει το Reuters.
Here’s the fake. It’s crude and probably won’t fool you, but just like all other manipulated media this further corrodes trust in all (authentic) visual media too: https://t.co/zKAtP9jUCi
— Nina Schick (@NinaDSchick) March 16, 2022
Το κανάλι Ukraine24 ανέφερε ότι δέχθηκε επίθεση από «εχθρικούς χάκερ» και σε ανάρτηση στο Facebook τόνισε ότι το βίντεο ήταν ψεύτικο.
Λίγο αργότερα, το ουκρανικό υπουργείο Άμυνας δημοσίευσε βίντεο με τον πραγματικό Ζελένσκι, που χαρακτήρισε «παιδαριώδη πρόκληση» το deepfake. «Δεν πρόκειται να παραδώσουμε όπλα μέχρι τη νίκη μας», υπογράμμισε ο Ουκρανός πρόεδρος.
🔊 «Ми вдома і захищаємо Україну. Ніякої зброї ми складати не збираємось. До нашої перемоги», - Президент України @ZelenskyyUa pic.twitter.com/IkfDxLzqne
— Defence of Ukraine (@DefenceU) March 16, 2022
Επίσης, η Meta ανακοίνωσε ότι αφαίρεσε το βίντεο, επειδή παραβίαζε την πολιτική της ενάντια στα «παραπλανητικά παραποιημένα μέσα».
«Νωρίτερα σήμερα οι ομάδες μας ταυτοποίησαν και αφαίρεσαν ένα deepfake βίντεο που υποστήριζε ότι έδειχνε τον πρόεδρο Ζελένσκι να κάνει μια δήλωση που ποτέ δεν έκανε», έγραψε σε ανάρτηση ο Ναθάνιελ Γκλέισερ, επικεφαλής για την πολιτική ασφαλείας στη Meta.
«Γρήγορα ελέγξαμε και αφαιρέσαμε αυτό το βίντεο, για την παραβίαση της πολιτικής μας ενάντια στα παραπλανητικά παραποιημένα μέσα και ενημερώσαμε τους συναδέλφους μας σε άλλες πλατφόρμες», συμπλήρωσε.
2/ We've quickly reviewed and removed this video for violating our policy against misleading manipulated media, and notified our peers at other platforms.
— Nathaniel Gleicher (@ngleicher) March 16, 2022
Η Νίνα Σικ, συγγραφέας του «Deepfakes», επεσήμανε ότι το βίντεο φαινόταν σαν «απολύτως άθλιο faceswap», αναφερόμενη σε προγράμματα που ψηφιακά μπορούν να βάλουν το πρόσωπο κάποιου στο σώμα άλλου.
Αν και χαρακτήρισε «πολύ πρόχειρο» το συγκεκριμένο βίντεο, προειδοποίησε ότι είναι θέμα χρόνου να γίνει πιο προσιτή η τεχνολογία. «Να αναμένετε ότι θα γίνεται πιο εύκολη η παραγωγή fakes όπως αυτό, που θα φαίνονται ιδιαίτερα αυθεντικά», ανέφερε χαρακτηριστικά.
Ουκρανοί αξιωματούχοι προειδοποιούσαν για τον κίνδυνο deepfakes, ιδιαίτερα από τη στιγμή που οι ρωσικές δυνάμεις δεν έχουν φτάσει σε μια γρήγορη νίκη μετά την εισβολή στην Ουκρανία. Πριν από δύο εβδομάδες, η υπηρεσία πληροφοριών του στρατού δημοσίευσε βίντεο που προειδοποιούσε για τον κίνδυνο deepfakes, υποστηρίζοντας ότι το Κρεμλίνο προετοίμαζε ένα.
Με πληροφορίες από Reuters