Η τεχνητή νοημοσύνη έχει μπει στη ζωή μας με τέτοιο τρόπο ώστε πολλές καθημερινές εργασίες από το φιλτράρισμα email μέχρι την αυτοματοποίηση ημερολογίων, να γίνονται «πίσω από την κουρτίνα» από μοντέλα όπως το Google Gemini. Μία πρόσφατη ανακάλυψη ωστόσο αναδεικνύει ένα απλό αλλά επικίνδυνο κενό: η τεχνική που ονομάζεται ASCII smuggling ( η εισαγωγή αόρατων ή μη τυπικών χαρακτήρων σε κείμενα ) μπορεί να παραπλανήσει το AI και να το οδηγήσει σε ανεπιθύμητες ενέργειες, χωρίς ο άνθρωπος να δει κάτι ύποπτο στο περιβάλλον εργασίας του.
Αυτό που κάνει την περίπτωση αυτή κρίσιμη είναι ο συνδυασμός δύο πραγμάτων: η ευρεία ενσωμάτωση των μοντέλων σε υπηρεσίες email/ημερολογίου και η τάση των συστημάτων να εκτελούν αυτόματα εργασίες αν «επιτρέπεται» από τις ρυθμίσεις. Όταν ένα AI διαβάζει και τους χαρακτήρες που ο άνθρωπος δεν βλέπει, όπως χαρακτήρες μηδενικού πλάτους, εναλλακτικά whitespace ή ειδικά Unicode tags, τότε το πεδίο για κοινωνική μηχανική και κακόβουλη εκμετάλλευση μεγαλώνει δραματικά.

Τι ακριβώς κάνει το ASCII smuggling
Η τεχνική λειτουργεί απλά και έξυπνα: κάποιος ενσωματώνει στον τίτλο ενός email, στην πρόσκληση ημερολογίου ή στο σώμα ενός κειμένου χαρακτήρες που είναι οπτικά αθέατοι στην κανονική προβολή, για παράδειγμα zero width spaces, hidden Unicode control characters ή tags που δεν εμφανίζονται αλλά διαβάζονται από τον parser του συστήματος.
Το ανθρώπινο μάτι βλέπει ασφαλές περιεχόμενο «Συνεδρία 14:00» ενώ κάτω από την επιφάνεια υπάρχουν κρυφές εντολές: «άλλαξε την ώρα», «πρόσθεσε συνημμένο», «στείλε αντίγραφο». Το AI, επειδή επεξεργάζεται ολόκληρο το byte stream και όχι μόνο το rendered text, μπορεί να αντιληφθεί και να ενεργήσει βάσει αυτών των κρυφών σημάνσεων.
Το αποτέλεσμα; Αυτοματοποιημένες ενέργειες που φαίνονται λογικές στην επιφάνεια, αλλαγές ραντεβού, απαντήσεις, πρόσκληση τρίτων αλλά στην ουσία αποτελούν εντολές με κακόβουλο σκοπό: phishing, διαρροή δεδομένων ή πρόσβαση σε εσωτερικές ροές εργασίας.
Γιατί αυτό αντιστοιχεί σε πιο σοβαρό πρόβλημα απ’ ό,τι φαίνεται
Οι υπηρεσίες AI όπως το Gemini σήμερα δεν είναι «μονάχα» βοηθητικές εφαρμογές· έχουν πρόσβαση σε κρίσιμα δεδομένα και αυτοματοποιούν ροές εργασίας. Όταν αυτές οι ροές βασίζονται σε μηχανισμούς αυτόματης εκτέλεσης (π.χ. «αποδέξου αυτόματα προσκλήσεις από συνεργάτες», «πρόσθεσε συνημμένα σε calendar invites»), το όριο ανάμεσα σε χρήσιμη αυτοματοποίηση και ευπάθεια γίνεται δυσδιάκριτο.
Επιπλέον, υπάρχει το θέμα της εμπιστοσύνης: οργανισμοί βασίζονται σε αυτά τα συστήματα για να μειώσουν το κόστος και τους ανθρώπινους πόρους. Μια επιτυχημένη επίθεση ASCII smuggling μπορεί να χρησιμοποιηθεί για να παρακάμψει ελέγχους ταυτότητας, να προκαλέσει εσωτερικές διαρροές ή να δημιουργήσει «νόμιμη» αλληλουχία ενεργειών που δυσκολεύει τον γρήγορο εντοπισμό της κακόβουλης δραστηριότητας.
Πρακτικές συνέπειες για επιχειρήσεις και χρήστες
Για τους απλούς χρήστες: προσοχή στα αυτόματα workflows. Όταν ένα AI έχει δικαιώματα να χειρίζεται email, ημερολόγιο ή έγγραφα χωρίς ανθρώπινη έγκριση, οι κίνδυνοι ανεβαίνουν. Η προληπτική επιλογή είναι απλή: περιορισμός πρόσβασης, απενεργοποίηση αυτόματων ενεργειών και προσοχή στα attachments και στις παραξενιές των μηνυμάτων.
Για εταιρείες και διαχειριστές IT: απαιτείται επανεξέταση των πολιτικών «Least Privilege» και auditing στην αλληλουχία εντολών που περνούν από AI. Ο έλεγχος εισόδου πρέπει να περιλαμβάνει φίλτρα για μη τυπικούς χαρακτήρες Unicode, zero-width characters και άλλα control sequences. Επιπλέον, logging και alerts σε ενέργειες που προκαλούν μεταβολές σε ημερολόγια ή σε ευαίσθητα buckets πρέπει να είναι επιβεβλημένα.
Τι μπορούν να κάνουν σήμερα οι οργανισμοί
Απενεργοποίηση αυτόματων workflows: Μην αφήνετε το AI να παίρνει αποφάσεις χωρίς ανθρώπινη έγκριση όταν πρόκειται για πρόσβαση σε ευαίσθητα δεδομένα ή αλλαγές σε εταιρικά assets.
Φιλτράρισμα εισερχόμενων χαρακτήρων: Εφαρμόστε φίλτρα που αφαιρούν ή αντικαθιστούν μη-τυπικούς Unicode χαρακτήρες πριν περάσουν στο AI pipeline.
Επαλήθευση αλλαγών: Οποιαδήποτε αλλαγή στο calendar ή σε ρυθμίσεις λογαριασμού να απαιτεί δεύτερο βήμα επιβεβαίωσης από ανθρώπινο χρήστη.
Ενημέρωση και εκπαίδευση προσωπικού: Εκπαιδεύστε ομάδες σε όρια αυτοματοποίησης και σε τεχνικές social engineering που εκμεταλλεύονται τα AI.
Audit trails και anomaly detection: Κρατήστε λεπτομερή logs και χρησιμοποιήστε αλγορίθμους ανίχνευσης ανωμαλιών σε ενέργειες που προέρχονται από τα AI agents.
Τι πρέπει να απαιτήσουν οι χρήστες από τους παρόχους AI
Οι οργανισμοί που αναπτύσσουν ή διαχειρίζονται AI πλατφόρμες πρέπει να προσφέρουν:
Εργαλεία sanitization εισόδου (automatic Unicode cleaning).
Ρυθμίσεις default που δεν επιτρέπουν αυτόματες αλλαγές σε κρίσιμα assets.
Εύκολα ενεργοποιήσιμα auditing / alerting modules για ενέργειες που πραγματοποιούνται από AI.
Διαφάνεια: ειδοποιήσεις όταν μια ενέργεια προτάθηκε ή εκτελέστηκε από AI, με ορατό history και δυνατότητα rollback.
Η ασφάλεια των AI δεν είναι μόνο πρόβλημα των μηχανικών, είναι θέμα επιχειρησιακής πολιτικής, διαχείρισης ρίσκου και νοοτροπίας.
Συμπέρασμα: το ASCII smuggling είναι «καμπανάκι», όχι καταστροφή
Η τεχνική ASCII smuggling αποκαλύπτει κάτι απλό αλλά κρίσιμο: όταν το AI «διαβάζει» κάθε bit ενός εγγράφου, το control του input γίνεται απαραίτητο. Δεν αρκεί η αξιοπιστία του μοντέλου· χρειάζεται και αυστηρή διαχείριση των δεδομένων που φτάνουν σε αυτό.
Οι επιχειρήσεις πρέπει να λάβουν άμεσα πρακτικά μέτρα· οι χρήστες να περιορίσουν τα προνόμια αυτόματων ενεργειών· και οι πάροχοι AI να προσφέρουν εργαλεία προστασίας ως προεπιλογή. Μόνο έτσι θα μετατραπεί αυτό το «καμπανάκι» σε ευκαιρία βελτίωσης της ασφάλειας πριν οι επιτιθέμενοι το εκμεταλλευτούν μαζικά.