Καθώς τα μοντέλα τεχνητής νοημοσύνης, όπως το ChatGPT της OpenAI, εξελίσσονται, χρησιμοποιούνται από όλο και περισσότερους ανθρώπους για μια ευρεία γκάμα αναζητήσεων: από επαγγελματικές συμβουλές μέχρι ζητήματα υγείας και προσωπικούς προβληματισμούς.
Η συνεχής τριβή και η αποθήκευση νέων πληροφοριών κάνει τα LLMs, τα λεγόμενα μεγάλα γλωσσικά μοντέλα, πιο αποδοτικά. Όμως το γεγονός ότι τα chatbot γίνονται όλο και πιο «ανθρώπινα», δημιουργεί και νέα ρίσκα, καθώς πίσω τους βρίσκονται φορείς που αξιοποιούν το περιεχόμενο των συνομιλιών για να εκπαιδεύσουν τα συστήματα.
Παρότι οι εταιρείες αποθαρρύνουν ρητά την κοινοποίηση ευαίσθητων πληροφοριών, η ευκολία με την οποία οι χρήστες μοιράζονται δεδομένα για την υγεία, τα οικονομικά ή την εργασία τους προκαλεί ανησυχία.
Ακολουθούν πέντε κατηγορίες προσωπικών πληροφοριών που, σύμφωνα με τους ειδικούς, καλό είναι να μην μοιράζονται με chatbot:
1. Προσωπικά στοιχεία ταυτοποίησης
Στοιχεία όπως ημερομηνία γέννησης, διεύθυνση ή αριθμοί τηλεφώνου και ταυτοτήτων μπορεί να αξιοποιηθούν για παραβιάσεις λογαριασμών, από τραπεζικούς μέχρι social media. Ορισμένα μοντέλα επιχειρούν να τα αναγνωρίσουν και να τα αποκρύψουν, αλλά αυτό δεν είναι πάντα εγγυημένο.
2. Ιατρικά δεδομένα και αποτελέσματα εξετάσεων
Πολλά chatbot καταγράφουν τις πληροφορίες που τους παρέχονται και τις χρησιμοποιούν για την εκπαίδευση του μοντέλου. Έγγραφα ή εικόνες με ιατρικά στοιχεία μπορεί να αποθηκευτούν σε συστήματα που δεν διαθέτουν τα απαραίτητα πρωτόκολλα ασφαλείας. Αν είναι απαραίτητο να σταλούν, προτείνεται η ανωνυμοποίηση τους.
3. Οικονομικά στοιχεία και λογαριασμοί
Αριθμοί τραπεζικών ή επενδυτικών λογαριασμών δεν πρέπει να κοινοποιούνται σε chatbot. Ακόμη και φαινομενικά αθώες ερωτήσεις, όπως «γιατί δεν ταιριάζουν οι αριθμοί στην τελευταία μου δήλωση;», ενδέχεται να αποκαλύψουν ευαίσθητα δεδομένα.
4. Εμπιστευτικές εταιρικές πληροφορίες
Η χρήση AI για απλές εργασιακές ανάγκες, όπως πρόχειρα drafts ή έλεγχος αρχείων, μπορεί να οδηγήσει στην ακούσια διαρροή μη δημοσιοποιημένων πληροφοριών. Γι’ αυτό αρκετές εταιρείες έχουν ήδη απαγορεύσει τη χρήση δημόσιων chatbot στις εσωτερικές τους διαδικασίες.
5. Κωδικοί και στοιχεία πρόσβασης
Μπορεί να μοιάζει αυτονόητο, αλλά τα chatbot δεν είναι κατάλληλοι χώροι για αποθήκευση κωδικών ή PIN. Δεν διαθέτουν τα πρωτόκολλα ασφάλειας ενός password manager και δεν έχουν σχεδιαστεί με αυτόν τον σκοπό.
Εδώ πρέπει να σημειωθεί ότι η πολιτική απορρήτου διαφέρει σημαντικά από πλατφόρμα σε πλατφόρμα. Για παράδειγμα, η Anthropic που κατασκευάζει το Claude αναφέρει ότι δεν χρησιμοποιεί τα δεδομένα για εκπαίδευση και τα διαγράφει μετά από δύο χρόνια. Αντίθετα, η DeepSeek, εταιρεία με έδρα την Κίνα, μπορεί να τα διατηρεί επ’ αόριστον, χωρίς δυνατότητα εξαίρεσης.
Με πληροφορίες από Wall Street Journal