Εκπρόσωπος του Facebook με ανακοίνωση τοποθετήθηκε για την αφαίρεση αναρτήσεων που σχετίζονται με τον Δημήτρη Κουφοντίνα, μεταξύ των οποίων και δημοσιεύσεις από φωτορεπόρτερ και δημοσιογράφους.
Ο εκπρόσωπος του Facebook, σύμφωνα με επίσημη ανακοίνωση της εταιρείας που επικαλείται το ΑΠΕ, επεσήμανε ότι «οι τρομοκράτες, οι βίαιες εξτρεμιστικές ομάδες και οι οργανώσεις μίσους δεν έχουν θέση στο Facebook και το Instagram», αλλά παραδέχθηκε ότι έγιναν λάθη.
«Σύμφωνα με την πολιτική μας για τα Επικίνδυνα Άτομα και Οργανώσεις, απαγορεύουμε σε μέλη τρομοκρατικών οργανώσεων, όπως ο κ. Κουφοντίνας, να χρησιμοποιούν τις πλατφόρμες μας, καθώς επίσης, αποκλείουμε δημοσιεύσεις που επιδοκιμάζουν ή υποστηρίζουν αυτά τα άτομα και τις ενέργειές τους κάθε φορά που λαμβάνουμε σχετική γνώση», διευκρίνισε στη δήλωσή του.
Ωστόσο, ανέφερε ότι: «επιτρέπουμε στους χρήστες μας να συζητούν ουδέτερα για αυτά τα άτομα και να δημοσιεύουν ειδήσεις σχετικές με τις ενέργειές τους. Παρόλο που σημειώνεται μεγάλη πρόοδος στα συστήματά μας, αυτά δεν παύουν να μην είναι τέλεια, με αποτέλεσμα κατά περιπτώσεις να γίνονται λάθη, όπως συνέβη στην προκειμένη. Το περιεχόμενο που αφαιρέθηκε κατά λάθος επαναφέρθηκε, όταν αυτό διαπιστώθηκε».
Στην ανακοίνωση με τη δήλωση του εκπροσώπου της, η Facebook συμπεριλαμβάνει και περαιτέρω πληροφορίες όσον αφορά τις διαδικασίες και την πολιτική του Facebook. Μεταξύ άλλων διευκρινίζεται ότι το περιεχόμενο «το οποίο αναφέρεται ουδέτερα στον κ. Κουφοντίνα ή στην απεργία πείνας του ή στις διαμαρτυρίες που σχετίζονται με την απεργία πείνας του, δεν παραβιάζει μεμονωμένα τις εν λόγω πολιτικές».
Συγκεκριμένα αναφέρει τα εξής:
«Η «17 Νοέμβρη» και η ηγεσία της, συμπεριλαμβανομένου του κ. Κουφοντίνα, απαγορεύεται να χρησιμοποιούν τις πλατφόρμες του Facebook, καθώς παραβιάζουν τις πολιτικές του σχετικά με τα Επικίνδυνα Άτομα και Οργανώσεις.
Ως συνέπεια αυτού, και όταν λαμβάνεται σχετική γνώση, αποκλείεται επίσης περιεχόμενο που επιδοκιμάζει ή υποστηρίζει τον κ. Κουφοντίνα και τις ενέργειές του.
Το περιεχόμενο, το οποίο αναφέρεται ουδέτερα στον κ. Κουφοντίνα ή στην απεργία πείνας του ή στις διαμαρτυρίες που σχετίζονται με την απεργία πείνας του, δεν παραβιάζει μεμονωμένα τις εν λόγω πολιτικές.
Το Facebook προσδιορίζει ως παραβιάσεις των πολιτικών του, άτομα και οργανισμούς με βάση τη συμπεριφορά τους και το εάν εμπλέκονται, υποστηρίζουν ή παρέχουν σημαντική υποστήριξη σε σκόπιμες και προγραμματισμένες πράξεις βίας με σκοπό να εξαναγκάσουν, να εκφοβίσουν και / ή να επηρεάσουν έναν άμαχο πληθυσμό, μία κυβέρνηση ή έναν διεθνή οργανισμό προκειμένου να επιτευχθεί ένας πολιτικός, θρησκευτικός ή ιδεολογικός στόχος.
Ο ορισμός της τρομοκρατίας είναι ιδεολογικά αγνωστικός και μέχρι σήμερα, έχει εντοπιστεί ένα ευρύ φάσμα ομάδων ως τρομοκρατικές οργανώσεις, με βάση τη συμπεριφορά τους.
Το Facebook χρησιμοποιεί έναν συνδυασμό αναφορών χρηστών και τεχνολογίας για τον εντοπισμό περιεχομένου που παραβιάζει τις πολιτικές του. Οι εξελίξεις στην τεχνητή νοημοσύνη (AI) έχουν ως αποτέλεσμα να εντοπίζεται ακατάλληλο περιεχόμενο σε ένα μεγάλο εύρος θεμάτων, πριν ακόμη οι χρήστες χρειαστεί να κάνουν κάποια σχετική αναφορά. Συχνά η ακρίβεια των συστημάτων του Facebook είναι μεγαλύτερη από αυτή των αναφορών που λαμβάνει από τους χρήστες.
Δε λαμβάνονται μέτρα εναντίον περιεχομένου βασιζόμενο σε μαζικές αναφορές. Ακόμη και μία μοναδική αναφορά είναι αρκετή για να αποκλειστεί μέρος περιεχομένου, εφόσον επιβεβαιωθεί ότι παραβιάζει τις πολιτικές του.
Το Facebook, επίσης, κάνει χρήση ενός συνδυασμού τεχνολογίας και ανθρώπινου δυναμικού για να εξεταστεί το περιεχόμενο που αναγνωρίζεται ως παραβίαση των πολιτικών του. Παρόλο που η τεχνολογία έχει προχωρήσει αρκετά, εξακολουθούν να υπάρχουν τομείς στους οποίους είναι ζωτικής σημασίας να ελέγχεται το περιεχόμενο από ανθρώπινο παράγοντα. Σε αυτές τις περιπτώσεις, απαιτείται ανθρώπινη τεχνογνωσία για να προσδιοριστεί εάν το περιεχόμενο προβαίνει σε παραβιάσεις – όπως, για παράδειγμα, σε περιστατικά που η λήψη αποφάσεων είναι περίπλοκη και το ευρύτερο πλαίσιο κοινοποίησής του είναι μέγιστης σημασίας ή όταν η λήψη της απόφασης κρίνεται οριακά.
Το Facebook απασχολεί 15.000 επιμελητές περιεχομένου που εδρεύουν σε περιοχές σε όλο τον κόσμο. Συνολικά, εργάζονται 24 ώρες την ημέρα / 7 ημέρες την εβδομάδα, έτσι ώστε να μπορούν να ελεγχθούν γρήγορα οι αναφορές, σε περισσότερες από 50 γλώσσες συμπεριλαμβανομένων και των ελληνικών.
Δεδομένου ότι πρόκειται για συστήματα, περιστασιακά ενδέχεται να συμβούν λάθη και περιεχόμενο που δεν παραβιάζει τις πολιτικές του Facebook να αφαιρεθεί, όπως συνέβη σε κάποιες περιπτώσεις στην προκειμένη. Για αυτόν τον λόγο, έχει δημιουργηθεί μία διαδικασία προσφυγής, έτσι ώστε οι χρήστες να μπορούν να απευθυνθούν στο Facebook, όταν πιστεύουν ότι έχει γίνει κάποιο λάθος, έτσι ώστε το περιεχόμενο να επανεξεταστεί.
Το Facebook ανά τρίμηνο κοινοποιεί δημοσίως το σύνολο του περιεχομένου που αφαιρέθηκε, τον αριθμό του περιεχομένου για το οποίο έχουν υποβληθεί ενστάσεις και το ποσοστό των ενστάσεων που είναι επιτυχείς στον παρακάτω σύνδεσμο: Αναφορά Εφαρμογής των Προτύπων Κοινότητας».