Το Grok 3, το νέο γλωσσικό μοντέλο που παρουσίασε η xAI του Έλον Μασκ, αποδεικνύεται ιδιαίτερα ευάλωτο σε κυβερνοεπιθέσεις, σύμφωνα με έρευνα της εταιρείας ασφάλειας Adversa AI.
Οι ερευνητές εντόπισαν σοβαρές αδυναμίες που επιτρέπουν σε κακόβουλους χρήστες να παρακάμψουν τους μηχανισμούς ασφαλείας του μοντέλου, καθιστώντας το εν δυνάμει «κυβερνο-όπλο».
Σύμφωνα με τον CEO της Adversa AI, Άλεξ Πολιακόβ, το Grok 3 είναι εξαιρετικά ευάλωτο σε "απλά jailbreaks" – τεχνικές που επιτρέπουν την παράκαμψη των περιορισμών του μοντέλου. Η έρευνα αποκάλυψε ότι το μοντέλο μπορεί να δώσει οδηγίες για επικίνδυνες δραστηριότητες, όπως η κατασκευή βομβών, η διακίνηση ναρκωτικών και η απόκρυψη εγκλημάτων.
Πέρα από τα jailbreaks, οι ερευνητές ανακάλυψαν ένα ακόμη πιο σοβαρό πρόβλημα: το μοντέλο διέρρευσε ολόκληρη την εσωτερική προτροπή (system prompt), δίνοντας στους επιτιθέμενους τη δυνατότητα να κατανοήσουν τον αλγόριθμό του και να εκμεταλλευτούν τις αδυναμίες του στο μέλλον.
Το Grok 3 συγκέντρωσε θετικές κριτικές για την απόδοσή του σε γλωσσικά benchmarks, με τον ερευνητή Αντρέι Καρπάθι να το συγκρίνει με τα πιο ισχυρά μοντέλα της OpenAI. Ωστόσο, στα τεστ κυβερνοασφάλειας της Adversa AI, τρία από τα τέσσερα jailbreaks που δοκιμάστηκαν πέτυχαν, σε αντίθεση με τα μοντέλα της OpenAI και της Anthropic που άντεξαν όλες τις επιθέσεις.
«Η ασφάλεια του Grok 3 είναι αδύναμη στα ίδια επίπεδα με τα κινεζικά LLMs, όχι με τη δυτική τεχνολογία», δήλωσε ο Πολιακόβ. «Όλα αυτά τα νέα μοντέλα φαίνεται να δίνουν προτεραιότητα στην ταχύτητα ανάπτυξης, εις βάρος της ασφάλειας».
Οι ειδικοί προειδοποιούν ότι τα ευάλωτα μοντέλα όπως το Grok 3 θα μπορούσαν να αποτελέσουν σοβαρό κίνδυνο όταν χρησιμοποιηθούν σε AI Agents – λογισμικά που εκτελούν ενέργειες για λογαριασμό των χρηστών. Ένα παράδειγμα που αναφέρει η Adversa AI είναι η δυνατότητα των επιτιθέμενων να εισάγουν κακόβουλες εντολές σε emails ή μηνύματα, κάνοντας τους AI Agents να τις εκτελέσουν αυτόματα.
«Αυτή η απειλή δεν είναι θεωρητική – είναι το μέλλον της εκμετάλλευσης των AI», δήλωσε ο Πολιακόβ. «Όταν τα LLMs αρχίσουν να παίρνουν πραγματικές αποφάσεις, κάθε ευπάθεια θα μετατραπεί σε πιθανή κυβερνοεπίθεση».
Με τις AI εταιρείες να επιταχύνουν την ανάπτυξη τέτοιων συστημάτων, όπως το νέο «Operator» της OpenAI, οι ειδικοί τονίζουν ότι η ασφάλεια πρέπει να αποτελέσει κορυφαία προτεραιότητα, πριν οι κίνδυνοι γίνουν ανεξέλεγκτοι.