Σε συνέντευξή της στο Business Insider μία πρώην moderator του Facebook υποστηρίζει πως έπρεπε να ελέγχει 8.000 αναρτήσεις την ημέρα. Μάλιστα, όπως λέει, η πίεση που υφίστατο και ο όγκος αυτού του ατέλειωτου σωρού από ενοχλητικό υλικό, την έκανε λιγότερο ευαίσθητη σε περιπτώσεις παιδικής πορνογραφίας ή κτηνοβασίας.
Η Sarah Katz εργαζόταν ως ελεγκτής περιεχομένου (content reviewer) στα κεντρικά γραφεία του Facebook στο Menlo Park της Καλιφόρνια μέσω μίας τρίτης συμβαλλόμενης εταιρείας, της Vertisystem, για έξι μήνες το 2016.
Η δουλειά της ήταν απλή: να διαπιστώνει αν οι αναρτήσεις που γίνονταν report με την αιτιολογία ότι περιείχαν ακατάλληλο περιεχόμενο παραβίαζαν πράγματι τους κανόνες λειτουργίας του Facebook.
Πρακτικά, αυτό σήμαινε ότι έπρεπε να ελέγχει νέο και πιθανώς περίεργο (ή και ανατριχιαστικό πολλές φορές) περιεχόμενο κάθε 10 δευτερόλεπτα καθώς και να παίρνει αστραπιαίες αποφάσεις για το εάν έπρεπε ή όχι να αφαιρεθεί.
«Το Facebook έχει δισεκατομμύρια χρήστες και υπάρχουν άνθρωποι που δεν ξέρουν πως να χρησιμοποιήσουν σωστά την πλατφόρμα. Οπότε υπάρχει πολύ πορνογραφία, σκηνές κτηνοβασίας αλλά και βίας. Πολύ υλικό που κανείς δε θα περίμενε να δει αναρτημένο εκεί.
Οι αναρτήσεις που χρειάζονταν έλεγχο ονομάζονται «tickets» και σύμφωνα με τα λεγόμενα της (σ.σ. τουλάχιστον για την περίοδο που η ίδια εργαζόταν εκεί) έφταναν περίπου τις 8.000 ανά υπάλληλο την ημέρα.
Προκειμένου ν' αντιμετωπίσει αυτόν τον ορυμαγδό αναρτήσεων το Facebook προσέλαβε τον περασμένο χρόνο 4.500 moderators σαν την Katz, ενώ πρόσφατα ανακοίνωσε τα σχέδιά του για πρόσληψη άλλων 3.000 μέσα στο 2018.
Σποραδικά, μάλιστα, η εταιρία επιστρατεύει προγράμματα τεχνητής νοημοσύνης για να βοηθήσουν στον έλεγχο αναρτήσεων που δεν ακολουθούν τους κανόνες του.
Το μέγεθος του προβλήματος που καλείται να αντιμετωπίσει με το απαγορευμένο υλικό παρουσιάστηκε μία έκθεση διαφάνειας τον περασμένο Μάιο.
Με βάση αυτή, λοιπόν, μόλις τους τρεις πρώτους μήνες του 2018 χρειάστηκε να «κατέβουν» 21 εκατ. αναρτήσεις που περιείχαν γυμνό ή σεξουαλικό περιεχόμενο καθώς και 3.4 εκατ. που περιείχαν σκηνές βίας. Εκατομμύρια αναρτήσεις που συνδέονταν με ρητορική μίσους, τρομοκρατία ή θεωρήθηκαν spam αφαιρέθηκαν επίσης.
Κατά την πρόσληψή τους οι moderators έπρεπε να υπογράψουν και μία δήλωση αποποίησης ευθύνης, με την οποία βεβαίωναν ότι είναι κατάλληλα προετοιμασμένοι για να διαχειριστούν το είδος του υλικού που θα έπρεπε να ελέγχουν καθημερινά. Η συγκεκριμένη δήλωση προστατεύει, επίσης, το Facebook από αγωγές ή άλλες νομικές διεκδικήσεις.
Επιπλέον, προειδοποιεί τους moderators πως ενδέχεται να εκτίθενται σε υλικό «που μπορεί να αποδειχθεί προσβλητικό για κάποιους ανθρώπους», συμπεριλαμβανομένων πορνογραφικών εικόνων. Τέλος, σημειώνει πως οι υπάλληλοι θα πρέπει να «ειδοποιούν άμεσα» σε περίπτωση που νιώθει ότι δεν θέλει να συνεχίσει.
«Το Facebook έχει δισεκατομμύρια χρήστες και υπάρχουν άνθρωποι που δεν ξέρουν πως να χρησιμοποιήσουν σωστά την πλατφόρμα. Οπότε υπάρχει πολύ πορνογραφία, σκηνές κτηνοβασίας αλλά και βίας» αναφέρει η Katz στο Business Insider. «Πολύ υλικό που κανείς δε θα περίμενε να δει αναρτημένο στο Facebook».
Η ίδια δούλευε σε ένα γραφείο ανοικτού τύπου στο Menlo Park, όπου υπήρχαν άφθονα δωρεάν σνακ αλλά και μία εύλογη συντροφικότητα μεταξύ συναδέλφων.
Ξεκινούσαν τη δουλειά με υλικό να τους περιμένει, και μόλις ο φόρτος εργασίας έφτανε στο αποκορύφωμά του, η Katz τονίζει ότι έπρεπε να πάρει αποφάσεις μέσα σε δευτερόλεπτα.
Αν οι στόχοι των «tickets» δεν επιτυγχάνονταν, υπήρχαν συνέπειες. Σε περίπτωση που δεν έπιαναν το στόχο «μία ή δύο φορές» τότε δέχονταν κάποια επίπληξη.
Αν αυτό γινόταν πάνω από τρεις φορές τότε «κατά πάσα πιθανότητα θα σου ζητούσαν να φύγεις». Η Katz λέει ότι δεν είδε ποτέ να συμβαίνει αυτό, αλλά υποστηρίζει ότι ανεπίσημα ήταν γνωστό μεταξύ του προσωπικού.
«Η δουλειά γίνεται μάλλον μονότονη μετά από λίγο. Σίγουρα αρχίζεις να χάνεις την ευαισθησία σου γύρω από το ενοχλητικό υλικό επειδή ακριβώς βλέπεις πάρα πολύ από δαύτο. Μεγάλο μέρος του τείνει να ανακυκλώνεται», επισημαίνει.
Σαν παράδειγμα αναφέρει την περίπτωση μιας ιδιαίτερα ανατριχιαστική εικόνας και ενός βίντεο που επανεμφανιζόταν συνέχεια στην οθόνη του υπολογιστή της και έδειχνε δύο παιδιά ηλικίας 9 έως 12 ετών, γυμνά από τη μέση και κάτω. «Ήταν ξεκάθαρο», λέει η Katz, «πως υπήρχε κάποιος πίσω από την κάμερα που τους έλεγε τι να κάνουν».
«Έφευγε και ερχόταν, εμφανιζόταν πολλές φορές μέσα στην ημέρα. Κάθε φορά η τοποθεσία του χρήστη ήταν διαφορετική. Τη μία μέρα μοιραζόταν από το Πακιστάν, την άλλη μέρα από τις ΗΠΑ. Είναι αρκετά δύσκολο να εντοπίσεις την αρχική πηγή» τονίζει.
Σύμφωνα με την Katz, την περίοδο εκείνη δεν της είχε ζητηθεί να αναφέρει τους λογαριασμούς που μοίραζαν το εν λόγω υλικό – κάτι που όπως ομολογεί την «ανησυχούσε».
«Εάν ο λογαριασμός του χρήστη ήταν ενεργός για λιγότερο από 30 ημέρες θα τον απενεργοποιούσαμε ως έναν πλαστό λογαριασμό. Εάν ήταν ενεργός πάνω από 30 ημέρες απλά θα αφαιρούσαμε το υλικό και θα αφήναμε τον λογαριασμό ενεργό» λέει.
Η εμπειρία της Katz εγείρει ερωτήματα για την αποτελεσματικότητα των προσπαθειών που καταβάλει το Facebook προκειμένου ν' αντιμετωπίσει την παιδική εκμετάλλευση.
Η εταιρεία υπέγραψε μία συμφωνία με τη Microsoft το 2011 για να χρησιμοποιήσει την τεχνολογία PhotoDNA.
Πώς λειτουργεί; Σαρώνει όλες τις εικόνες στο Facebook και το Instagram, «μαρκάρει» αυτές που εμπίπτουν στην κατηγορία της παιδικής πορνογραφίας και αποτρέπει την αναδημοσίευσή τους. Επίσης, οι moderators είναι εκπαιδευμένοι στο να αναγνωρίζουν και να ενημερώνουν εσωτερικά όταν βλέπουν ανάλογο υλικό.
Το 2012, εκπρόσωπος του Facebook είχε δηλώσει στη New York Post ότι «όλα» τα περιστατικά εκμετάλλευσης παιδιών αναφέρονται στο Εθνικό Κέντρο Αγνοούμενων και Εκμεταλλευόμενων Παιδιών στις ΗΠΑ. «Έχουμε μηδενική ανοχή στην παιδική πορνογραφία που αναρτάται στο Facebook και είμαστε άκρως επιθετικοί στην προσπάθεια αποτροπής και αφαίρεσης υλικού παιδικής εκμετάλλευσης» ανέφερε τότε η εταιρία.
Η Katz επισημαίνει πως δεν γνώριζε κάτι τέτοιο το 2016. «Ίσως το Facebook να έχει κάποια πολιτική [τώρα] κατά την οποία υποτίθεται ότι πρέπει να το αναφέρεις, αλλά όχι τότε δεν υπήρχε» επισημαίνει.
Όπως αναφέρει το Business Insider, το Facebook αρνήθηκε να κάνει κάποιο σχόλιο για την ανακολουθία μεταξύ των λεγομένων της πρώην moderator και της επίσημης δήλωσης του εκπροσώπου του στη New York Post.
Η Katz τώρα δουλεύει ως αναλύτρια ασφάλειας κυβερνοχώρου στην εταιρεία «Service Now» και έχει γράψει ένα μυθιστόρημα επιστημονικής φαντασίας με τον τίτλο «APEX FIVE» το οποίο αντλεί στοιχεία από το διάστημα που πέρασε στο Facebook.
Σε γενικές γραμμές είναι πολύ ευχαριστημένη από την εμπειρία της στο Facebook και πιστεύει πως τα μειονεκτήματα της δουλειάς δεν ήταν τόσο σημαντικά σε σχέση με την αίσθηση που ένιωθε ότι προστάτευε τους χρήστες.
«Πρέπει να υπάρχουν πολλά ανθρώπινα μάτια στη συγκεκριμένη δουλειά και αυτό δεν μπορεί να υποκατασταθεί από την τεχνητή νοημοσύνη, ό,τι κι αν λέει ο κόσμος» τονίζει.
«Πάντα θα χρειαζόμαστε αυτή τη λεπτή διαφοροποίηση της ανθρώπινης οπτικής. Η τεχνητή νοημοσύνη θα βοηθούσε να εντοπίσουμε όλο αυτό το υλικό μέσα από δισεκατομμύρια χρήστες. Πρέπει να προσέξουμε, όμως, το ανθρώπινο στοιχείο, ώστε να συνεχίσουμε την καλή δουλειά».
Η Katz προτρέπει τις εταιρίες να δίνουν κίνητρα στους εργαζόμενους για να επιλέγουν το moderation ως καριέρα, έτσι ώστε να μην το βλέπουν μόνο ως ενδιάμεσο στάδιο για μια καλύτερη θέση.
Μία εκπρόσωπος του Facebook σχολίασε τη συνέντευξη της Katz τονίζοντας τα εξής: «Η παγκόσμια ομάδα μας που είναι επιφορτισμένη με τον έλεγχο του περιεχομένου παίζει πολύ σημαντικό ρόλο στη δημιουργία ενός ασφαλούς περιβάλλοντος για την κοινότητά των χρηστών, κάτι το οποίο αποτελεί την πρώτη μας προτεραιότητα.
»» Γι' αυτό το λόγο προσλάβαμε ακόμα 3.000 άτομα στο ήδη υπάρχον προσωπικό των 4.500, ώστε να ελέγχουμε σωστά τις εκατομμύρια αναφορές που έρχονται κάθε εβδομάδα».
Με πληροφορίες από Business Insider