Το μυστήριο του «David Mayer» κατέκλυσε το Διαδίκτυο, καθώς το ChatGPT δεν μπορούσε να προφέρει το όνομα ή να παρέχει πληροφορίες για αυτό και όλοι αναρωτιόντουσαν γιατί.
Το απίθανο αίνιγμα προσέλκυσε μια στρατιά τεχνολόγων του Διαδικτύου - και εγείρει σημαντικά ερωτήματα σχετικά με το απόρρητο και το μέλλον της τεχνητής νοημοσύνης.
Το «David Mayer» δεν ήταν ένα ιδιαίτερα γνωστό όνομα μέχρι πρόσφατα, που βρέθηκε στο προσκήνιο του Διαδικτύου. Ο λόγος δεν ήταν κάτι που είπε ή έκανε ένα άτομο με το όνομα «David Mayer», αλλά ο τρόπος με τον οποίο το chatbot ChatGPT αντιμετώπιζε οποιαδήποτε αναφορά του συγκεκριμένου ονόματος, προκαλώντας τους πάντες να λύσουν το «μυστήριο».
Χρήστες που ρώτησαν το ChatGPT «Ποιος είναι ο David Mayer;», εξεπλάγησαν όταν διαπίστωσαν ότι το chatbot εγκατέλειψε την προσπάθεια απάντησης και ενώ προσπαθούσε να συνθέσει ένα κείμενο, τελικά το έσβηνε, εμφανίζοντας ένα μήνυμα σφάλματος: «Δεν μπορώ να παράξω απάντηση».
Καθώς η είδηση για το «μυστήριο με το ChatGPT» διαδόθηκε και οι χρήστες ανακάλυψαν ότι μια χούφτα άλλα ονόματα προκάλεσαν παρόμοια ανταπόκριση, οι τεχνικοί του Διαδικτύου άρχισαν να εργάζονται προς τη λύση. Η OpenAI, η εταιρεία πίσω από το ChatGPT , δημοσίευσε αρχικά μια δήλωση λέγοντας: «Μπορεί να υπάρχουν περιπτώσεις όπου το ChatGPT δεν παρέχει συγκεκριμένες πληροφορίες για άτομα για να προστατεύσει το απόρρητό τους». Αργότερα πρόσθεσε: «Ένα από τα εργαλεία μας επισήμανε κατά λάθος αυτό το όνομα και το εμπόδισε να εμφανίζεται στις απαντήσεις, κάτι που δεν θα έπρεπε να έχει κάνει». Εκπρόσωπος του OpenAI επιβεβαίωσε ότι το πρόβλημα διορθώθηκε.
Αλλά ήταν πια πολύ αργά για να σταματήσει η ευρέως διαδεδομένη διαδικτυακή εικασία ότι η OpenAI προσπαθούσε να εμποδίσει το chatbot να δώσει απαντήσεις που θα μπορούσαν να οδηγήσουν την εταιρεία σε νομικές περιπέτειες. Τα τελευταία χρόνια, αρκετοί άνθρωποι επέκριναν δημοσίως ή μήνυσαν την OpenAI ισχυριζόμενοι ότι το ChatGPT τους δυσφημούσε παράγοντας ψευδείς δηλώσεις για αυτούς. Μεταξύ αυτών, ο Jonathan Turley, καθηγητής νομικής στο Πανεπιστήμιο George Washington τον οποίο το ChatGPT κατηγόρησε για σεξουαλική παρενόχληση. Επίσης, ο Brian Hood, δήμαρχος στην Αυστραλία, τον οποίο το ChatGPT κατηγόρησε για δωροδοκία. Ακόμη, ο Μαρκ Γουόλτερς, ένας ραδιοφωνικός παρουσιαστής της Τζόρτζια για τον οποίο το ChatGPT ισχυρίστηκε ότι υπεξαίρεσε χρήματα. Δεν υπάρχουν στοιχεία που να υποστηρίζουν κανέναν από τους ισχυρισμούς αυτούς που έγιναν μέσω AI.
Η απαγόρευση του «David Mayer» είχε σκοπό να εμποδίσει το ChatGPT να εφεύρει πράγματα για ένα πραγματικό πρόσωπο με αυτό το όνομα;
Οι εμπειρογνώμονες για την προστασία δεδομένων θεωρούν ότι αυτό θα μπορούσε να έχει συμβεί αφού εντοπίστηκε ότι και άλλα ονόματα θα μπορούσαν επίσης να προκαλέσουν το ίδιο πρόβλημα. Ένα από αυτά είναι ο Γκουίντο Σκόρτσα, ένας Ιταλός δικηγόρος που δοκιμάζει τακτικά τους κανόνες προστασίας δεδομένων χρησιμοποιώντας τον εαυτό του ως παράδειγμα. Ένα άλλο απαγορευμένο όνομα είναι ο Τζόναθαν Τέρλι, ο Αμερικανός καθηγητής Νομικής. Η OpenAI μπορεί κάλλιστα να αποφάσισε να αποφύγει να ξανασυμβεί το ζήτημα εισάγοντας μια απαγόρευση στο chatbot ώστε να μην τον αναφέρει καθόλου.
Με το όνομα «David Mayer», ωστόσο, δεν υπήρχε κάποιος προφανής υποψήφιος στον πραγματικό κόσμο. Πολλοί διαδικτυακοί σχολιαστές θεώρησαν πως ίσως πρόκειται για τον David Mayer de Rothschild, έναν Βρετανό παραγωγό ταινιών που είναι μέλος της διάσημης οικογένειας τραπεζιτών - αλλά είναι μάλλον απίθανο η απαγόρευση του ονόματος να σχετίζεται με αυτόν, καθώς το ChatGPT απάντησε με χαρά σε ερωτήσεις σχετικά με τον "David de Rothschild". Άλλοι πιστεύουν ότι ο εν λόγω «David Mayer» θα μπορούσε να είναι ένας ιστορικός που πέθανε το 2023 και που έγινε πρωτοσέλιδο το 2018 όταν οι επίσημες υπηρεσίες τον μπέρδεψαν με έναν Τσετσένο τρομοκράτη που χρησιμοποίησε το ίδιο όνομα ως ψευδώνυμο.
Από την άλλη, κάποιος «David Mayer» θα μπορούσε, θεωρητικά, να έχει εκμεταλλευτεί το «δικαίωμα στη λήθη» σύμφωνα με τη νομοθεσία της ΕΕ υποβάλλοντας αίτημα για την κατάργηση του ονόματός του από εργαλεία διαδικτύου, όπως μηχανές αναζήτησης και chatbots. Πάντως, ο Rothschild είπε στον Guardian ότι δεν ζήτησε να αφαιρεθεί το όνομά του από το ChatGPT, λέγοντας ότι η εικασία «οδηγείται από θεωρίες συνωμοσίας».
«Παρά τις θεωρίες, δεν νομίζω ότι υπάρχει καμία πρόθεση εδώ», δήλωσε η Σίλια Λαμ, καθηγήτρια ΜΜΕ και πολιτιστικών σπουδών, και ειδικός σε θέματα διασημοτήτων, στο Πανεπιστήμιο του Νότιγχαμ Ningbo της Κίνας. Σύμφωνα με την πολιτική της OpenAI, οποιοσδήποτε μπορεί να ζητήσει από την εταιρεία να καταργήσει ή να περιορίσει την πρόσβαση σε δεδομένα σχετικά με αυτόν. Αλλά «το απόρρητο δεν είναι τόσο απλό όσο η κατάργηση του ονόματός σας από το Διαδίκτυο ή ο αποκλεισμός της πρόσβασης», είπε η Λαμ.
Ακόμα κι αν η απαγόρευση του «David Mayer» ήταν αποτέλεσμα ενός απλού σφάλματος, η υπόθεση υπογραμμίζει μια θεμελιώδη πρόκληση για την προστασία των δεδομένων στην εποχή της τεχνητής νοημοσύνης, εξηγεί ο Ρόμπεν Μπινς, καθηγητής ανθρωποκεντρικής πληροφορικής και τεχνητής νοημοσύνης στο Πανεπιστήμιο της Οξφόρδης: «Πρέπει να βρούμε τρόπους να κάνουμε μοναδικά τα κοινά ονόματα - γιατί προφανώς υπάρχουν πολλοί "David Mayers" εκεί έξω».
Ο Μπινς, κάποτε, αναφέρθηκε σε ένα διαδικτυακό άρθρο που έλεγε ότι εάν ο ηθοποιός Robbie Coltrane θα μπορούσε να αντικατασταθεί από ένα avatar AI σε ταινίες που έγιναν μετά τον θάνατό του. Μόνο που δεν το είπε ποτέ, στην πραγματικότητα, και ο ιστότοπος στον οποίο φιλοξενήθηκε το άρθρο ήταν γεμάτος περιεχόμενο που δημιουργήθηκε από AI.
Η υποκείμενη τεχνολογία για το ChatGPT και άλλα chatbots που βασίζονται σε μεγάλα γλωσσικά μοντέλα είναι το νευρωνικό δίκτυο, το οποίο προορίζεται να αναπαράγει σε πυρίτιο τις διαδικασίες του ανθρώπινου εγκεφάλου. Επειδή όμως οι εταιρείες πίσω από αυτά τα μοντέλα τεχνητής νοημοσύνης δεν κατανοούν πλήρως πώς λειτουργούν κάτω από την κουκούλα, αναγκάζονται να βασιστούν σε μια παλαιότερη μέθοδο για την εισαγωγή ελέγχων και ισορροπιών: ένα σύστημα, βασισμένο σε κανόνες.
Η συμπεριφορά του ChatGPT όταν αρνείται να εμφανίσει το όνομα «David Mayer» υποδηλώνει ότι του έχει δοθεί ένας αυστηρός κανόνας που μοιάζει περισσότερο με μια προηγούμενη εποχή υπολογιστών: ΑΝ αναφέρεται το "David Mayer", ΤΟΤΕ διαγράψτε μανιωδώς όσα έχετε γράψει και ΕΚΤΥΠΩΣΤΕ «Δεν μπορώ να δώσω απάντηση».
Το ChatGPT έχει αιχμαλωτίσει τη φαντασία του κόσμου τα τελευταία δύο χρόνια παράγοντας κείμενα σαν άνθρωπος. Αλλά σε αυτές τις περιπτώσεις, χτυπά τα σκληρά κωδικοποιημένα προστατευτικά κιγκλιδώματά του και επιστρέφει σε μια πολύ πιο βασική προσέγγιση: Ο υπολογιστής λέει "όχι". Είναι μια ταραχώδης, αποσυντονιστική εμπειρία.
Παρά τις εντυπωσιακές εκτιμήσεις των εταιρειών τεχνητής νοημοσύνης και τους τίτλους που προκαλούν δέος σχετικά με τη νοημοσύνη των μηχανών, η ιστορία του «David Mayer» υποδηλώνει ότι ολόκληρη η επιχείρηση βασίζεται σε μια κακώς ελεγχόμενη τεχνική. Καθώς περισσότεροι από εμάς συνειδητοποιούμε τους τρόπους με τους οποίους μπορούμε να καταλήξουμε ακούσια στην απάντηση ενός chatbot, θα μπορούσαμε να αντιμετωπίσουμε περισσότερα προβλήματα που μοιάζουν με τον David Mayer στο μέλλον.
Με πληροφορίες από The Wall Street Journal