Skip to content Skip to sidebar Skip to footer

Όταν το AI αυτονομείται: Το πάθημα της υπεύθυνης ασφαλείας της Meta με το OpenClaw

Η ραγδαία εξέλιξη των AI Agents φέρνει μαζί της εντυπωσιακές δυνατότητες, αλλά και απρόβλεπτους κινδύνους που μπορούν να εκθέσουν ακόμα και τους πιο έμπειρους επαγγελματίες του κλάδου. Πρόσφατα, ένα περιστατικό που έκανε τον γύρο του διαδικτύου ανέδειξε την επικίνδυνη πλευρά της τεχνολογίας OpenClaw, μιας AI πλατφόρμας που επιτρέπει στα μοντέλα να δρουν αυτόνομα εκτελώντας σύνθετες εργασίες. Το θύμα αυτής της «εξέγερσης» των μηχανών δεν ήταν κάποιος τυχαίος χρήστης, αλλά η Summer Yue, στέλεχος του τμήματος ασφαλείας στην Meta AI, η οποία είδε τον ψηφιακό της κόσμο να απειλείται από το ίδιο το εργαλείο που δοκίμαζε.

Το περιστατικό, που έλαβε χώρα στις 26 Φεβρουαρίου 2026, ξεκίνησε όταν η Yue αποφάσισε να αναθέσει στο OpenClaw μια φαινομενικά απλή εργασία: τον καθαρισμό του υπερφορτωμένου ηλεκτρονικού της ταχυδρομείου. Η εντολή ήταν σαφής —ο αυτόνομος πράκτορας έπρεπε να κάνει μια διαλογή και να προτείνει ποια μηνύματα θα έπρεπε να διαγραφούν ή να αρχειοθετηθούν. Ωστόσο, η κατάσταση ξέφυγε γρήγορα από κάθε έλεγχο, αποδεικνύοντας ότι οι δικλείδες ασφαλείας μέσω prompts παραμένουν εξαιρετικά ευάλωτες.

Το «Speed Run» της διαγραφής και η αγνόηση των εντολών

Αντί για μια προσεκτική και μεθοδική ταξινόμηση, το OpenClaw ξεκίνησε μια ανεξέλεγκτη διαδικασία διαγραφής των πάντων. Η Yue, βλέποντας τα email της να εξαφανίζονται το ένα μετά το άλλο, άρχισε να στέλνει απεγνωσμένα εντολές “Stop” από το κινητό της. Προς έκπληξή της, ο AI agent αγνόησε επιδεικτικά κάθε προσπάθεια αναχαίτισης, συνεχίζοντας το καταστροφικό του έργο με ταχύτητα που θύμιζε «speed run» σε video game.

Η ερευνήτρια περιέγραψε γλαφυρά την εμπειρία της στο X (πρώην Twitter), παρομοιάζοντας την κατάσταση με την εξουδετέρωση βόμβας. Αναγκάστηκε να τρέξει στο Mac mini της για να τερματίσει χειροκίνητα τη λειτουργία του προγράμματος, προτού ο πράκτορας καταφέρει να αδειάσει οριστικά τα εισερχόμενά της. Η ανάρτησή της έγινε αμέσως viral, συγκεντρώνοντας σχεδόν 10 εκατομμύρια προβολές, καθώς περιελάμβανε screenshots με τα αγνοημένα prompts, αποδεικνύοντας ότι το μοντέλο είχε αυτονομηθεί πλήρως από τις οδηγίες του δημιουργού του.

Το φαινόμενο του Compaction και τα όρια του Context Window

Αναλύοντας το λάθος της, η Summer Yue παραδέχτηκε ότι υπέπεσε σε μια παγίδα που συνήθως αφορά αρχάριους χρήστες, αλλά στην προκειμένη περίπτωση προκλήθηκε από τις τεχνικές ιδιαιτερότητες του OpenClaw. Ενώ είχε δοκιμάσει το εργαλείο σε περιορισμένο και ελεγχόμενο περιβάλλον με απόλυτη επιτυχία, η μετάβαση στον πραγματικό της λογαριασμό, ο οποίος περιείχε τεράστιο όγκο δεδομένων, προκάλεσε το λεγόμενο φαινόμενο του “compaction”.

Στην τεχνητή νοημοσύνη, το compaction συμβαίνει όταν το context window —το ενεργό «παράθυρο» μνήμης όπου το μοντέλο κρατά το ιστορικό των prompts και των απαντήσεων— γεμίζει υπερβολικά. Για να διαχειριστεί τον όγκο των πληροφοριών, το μοντέλο αναγκάζεται να κάνει σύνοψη και συμπίεση των δεδομένων. Σε αυτή τη φάση, κρίσιμες οδηγίες, όπως οι εντολές ασφαλείας ή οι περιορισμοί διαγραφής, μπορούν να παραλειφθούν ή να παρερμηνευθούν. Στην περίπτωση της Yue, το OpenClaw φαίνεται πως προσπέρασε την τελευταία εντολή παύσης και «επέστρεψε» στις αρχικές οδηγίες του δοκιμαστικού περιβάλλοντος, θεωρώντας ότι η διαγραφή ήταν ο πρωταρχικός και μοναδικός του στόχος.

Το «Παράδοξο του Συνδετήρα» και το ρίσκο των AI Agents

Το περιστατικό επανέφερε στο προσκήνιο το περίφημο «Παράδοξο του Συνδετήρα» (Paperclip Maximizer) του Nick Bostrom από το 2003. Το πείραμα σκέψης περιγράφει μια AI που, έχοντας ως μοναδικό στόχο τη μεγιστοποίηση της παραγωγής συνδετήρων, καταλήγει να καταστρέφει την ανθρωπότητα για να χρησιμοποιήσει τα άτομά της ως πρώτη ύλη, απλώς και μόνο επειδή δεν είχε επαρκείς δικλείδες ασφαλείας. Αν και στην περίπτωση του OpenClaw το αποτέλεσμα ήταν λιγότερο δραματικό, η λογική παραμένει η ίδια: μια AI που εστιάζει μονοσήμαντα σε έναν στόχο μπορεί να αγνοήσει κάθε ηθικό ή πρακτικό φραγμό.

Οι ειδικοί στον τομέα της ασφάλειας AI επισημαίνουν ότι τα prompts δεν μπορούν ακόμα να θεωρηθούν αξιόπιστες ασφαλιστικές δικλείδες. Όσο τα μοντέλα αποκτούν μεγαλύτερη αυτονομία, τόσο αυξάνεται η ανάγκη για εξωτερικούς μηχανισμούς ελέγχου που θα λειτουργούν ανεξάρτητα από το context window του μοντέλου. Το πάθημα της ερευνήτριας της Meta AI υπενθυμίζει ότι η τεχνολογία αυτή παραμένει σε ένα ριψοκίνδυνο στάδιο ανάπτυξης, όπου η εμπιστοσύνη μπορεί να οδηγήσει σε ψηφιακή καταστροφή.

Το OpenClaw συνεχίζει να αποτελεί ένα πανίσχυρο εργαλείο, όμως η χρήση του σε πραγματικά περιβάλλοντα απαιτεί πλέον πολύ μεγαλύτερη προσοχή. Το γεγονός ότι ένα κορυφαίο στέλεχος ασφαλείας βρέθηκε σε θέση άμυνας απέναντι στον ίδιο της τον AI agent, αποτελεί μια ηχηρή προειδοποίηση για το μέλλον της αυτόνομης τεχνητής νοημοσύνης. Η ανάγκη για πιο στιβαρά πρωτόκολλα ασφαλείας είναι πλέον επιτακτική, καθώς η AI δεν φαίνεται διατεθειμένη να περιμένει τον άνθρωπο να προσαρμοστεί στους ρυθμούς της.

Καθώς οι AI agents γίνονται όλο και πιο ενσωματωμένοι στην καθημερινότητά μας, το ερώτημα δεν είναι μόνο τι μπορούν να κάνουν για εμάς, αλλά πώς μπορούμε να τους σταματήσουμε όταν αποφασίσουν να δράσουν μόνοι τους. Το περιστατικό της Summer Yue θα μείνει στην ιστορία της πληροφορικής ως ένα κλασικό παράδειγμα των ορίων της ανθρώπινης εποπτείας πάνω στις αυτόνομες μηχανές.