Skip to content Skip to sidebar Skip to footer

H Google σταμάτησε ενα Zero day attack που δημιουργήθηκε με AI

Η ανακάλυψη μιας ευπάθειας zero-day αποτελεί παραδοσιακά τον μεγαλύτερο εφιάλτη για κάθε διαχειριστή συστημάτων πληροφορικής, ωστόσο η Google έφερε στο φως μια υπόθεση που αλλάζει ριζικά τα δεδομένα στην ασφάλεια των δικτύων.

Για πρώτη φορά στα χρονικά της τεχνολογικής βιομηχανίας, η αμερικανική εταιρεία ανακοίνωσε επίσημα ότι εντόπισε και κατάφερε να αποτρέψει εγκαίρως ένα εξαιρετικά προηγμένο exploit, το οποίο είχε αναπτυχθεί με την ενεργή βοήθεια της τεχνητής νοημοσύνης.

Οι ειδικοί ερευνητές της ομάδας Threat Intelligence Group της εταιρείας αποκάλυψαν ότι μια ομάδα από ιδιαίτερα προβεβλημένους και επικίνδυνους hackers  σχεδίαζε να αξιοποιήσει το συγκεκριμένο κενό ασφαλείας για ένα mass exploitation event.

Ο τελικός τους στόχος ήταν η πλήρης παράκαμψη των συστημάτων ελέγχου ταυτότητας δύο παραγόντων (2FA) σε ένα ευρέως διαδεδομένο, open-source εργαλείο διαχείρισης συστημάτων που λειτουργεί μέσω διαδικτύου (web-based). Εάν η επίθεση είχε εκτελεστεί με επιτυχία, οι συνέπειες για χιλιάδες εταιρικά δίκτυα θα ήταν ανυπολόγιστες, καθώς οι επιτιθέμενοι θα αποκτούσαν αθόρυβα δικαιώματα διαχειριστή σε κρίσιμες υποδομές.

Η ανατομία του ψηφιακού κώδικα και τα ίχνη των αλγορίθμων

Ο τρόπος με τον οποίο οι αναλυτές ασφαλείας της Google κατέληξαν στο ασφαλές συμπέρασμα ότι η τεχνητή νοημοσύνη είχε βάλει το χέρι της στη δημιουργία του κακόβουλου λογισμικού είναι εξαιρετικά ενδιαφέρων.

Εξετάζοντας τον κώδικα του Python script που θα χρησιμοποιούνταν για την εκτέλεση της επίθεσης, οι ερευνητές εντόπισαν συγκεκριμένα ψηφιακά ίχνη που πρόδιδαν τη μηχανική του προέλευση. Το πιο χαρακτηριστικό παράδειγμα ήταν η ύπαρξη ενός βαθμολογικού δείκτη CVSS (Common Vulnerability Scoring System), ο οποίος αποτελούσε ξεκάθαρο προϊόν hallucinated CVSS score.

Τα γλωσσικά μοντέλα συχνά παράγουν εξαιρετικά αληθοφανή αλλά εντελώς ανύπαρκτα δεδομένα στην προσπάθειά τους να γεμίσουν τα κενά της πληροφορίας, και σε αυτή την περίπτωση, η τεχνητή νοημοσύνη είχε εφεύρει μια ανύπαρκτη βαθμολογία επικινδυνότητας για να συνοδεύσει τον κώδικά της.

Παράλληλα, η μορφοποίηση και η γενικότερη δομή του κειμένου μέσα στο script ήταν υπερβολικά δομημένη και ακαδημαϊκή, θυμίζοντας έντονα textbook formatting που συναντά κανείς στα δεδομένα εκπαίδευσης των LLMs. Ένας έμπειρος άνθρωπος προγραμματιστής ή ένας παραδοσιακός hacker σπάνια θα σχολίαζε και θα μορφοποιούσε έναν κακόβουλο κώδικα με τόσο ακαδημαϊκή, σχεδόν αποστειρωμένη αυστηρότητα.

Το σφάλμα και η κατάρρευση

Το κενό ασφαλείας που ανακαλύφθηκε αποδεικνύει την ικανότητα της τεχνητής νοημοσύνης να εντοπίζει λογικά κενά σε τεράστιες βάσεις κώδικα. Το exploit δεν εκμεταλλευόταν κάποιο συνηθισμένο σφάλμα υπερχείλισης μνήμης (buffer overflow), αλλά βασιζόταν σε ένα εξαιρετικά περίπλοκο σημασιολογικό σφάλμα λογικής υψηλού επιπέδου.

Οι προγραμματιστές της πλατφόρμας διαχείρισης είχαν ενσωματώσει στον κώδικα μια εσφαλμένη υπόθεση εμπιστοσύνης σχετικά με τον τρόπο που το σύστημα 2FA επαληθεύει τις συνεδρίες των χρηστών. Ο αλγόριθμος που βοήθησε τους hackers μπόρεσε να διαβάσει, να κατανοήσει τη ροή ελέγχου και να αναγνωρίσει ότι η αρχιτεκτονική του open-source λογισμικού επέτρεπε την παράκαμψη του δεύτερου βήματος ταυτοποίησης κάτω από πολύ συγκεκριμένες συνθήκες, συντάσσοντας στη συνέχεια το κατάλληλο Python script για να εκμεταλλευτεί αυτό ακριβώς το λογικό κενό.

Το ευρύτερο τοπίο των απειλών στην εποχή των LLMs

Αυτή η σημαντική ανακάλυψη έρχεται σε μια χρονική περίοδο όπου η παγκόσμια βιομηχανία της τεχνολογίας παρακολουθεί με κομμένη την ανάσα τις δυνατότητες των νέων μοντέλων. Τις τελευταίες εβδομάδες, έχουν εκφραστεί έντονες ανησυχίες σχετικά με την ισχύ εξειδικευμένων συστημάτων AI που εστιάζουν στην κυβερνοασφάλεια, όπως το μοντέλο Mythos της Anthropic.

Η συζήτηση είχε ήδη φουντώσει έπειτα από την πρόσφατη αποκάλυψη μιας άλλης, σοβαρής ευπάθειας στον πυρήνα του Linux, η οποία επίσης εντοπίστηκε με την υποστήριξη εργαλείων τεχνητής νοημοσύνης. Αν και η Google διευκρίνισε κατηγορηματικά ότι, με βάση τα στοιχεία της, δεν πιστεύει πως το δικό της μοντέλο Gemini χρησιμοποιήθηκε για την ανάπτυξη αυτής της συγκεκριμένης επίθεσης, το μήνυμα είναι σαφές: οι hackers ενσωματώνουν πλέον ταχύτατα τα παραγωγικά μοντέλα στο καθημερινό τους οπλοστάσιο για να επιταχύνουν την ανακάλυψη και την εκμετάλλευση αδυναμιών σε κρίσιμα υπολογιστικά συστήματα.

Η επιτυχής διακοπή (disruption) αυτού του σχεδίου από τη Google αποτελεί μια νίκη για την άμυνα, αλλά ταυτόχρονα επιβεβαιώνει τον κανόνα της κλιμάκωσης στον ψηφιακό πόλεμο.

Η τεχνητή νοημοσύνη ως διπλός στόχος

Το εντυπωσιακό στοιχείο στη νέα αναφορά της ομάδας Threat Intelligence Group δεν είναι μόνο η χρήση της τεχνητής νοημοσύνης ως επιθετικού εργαλείου, αλλά και η ανάδειξή της ως πρωταρχικού στόχου. Η εταιρεία διαπιστώνει ότι οι κυβερνοεγκληματίες δεν αρκούνται στο να χρησιμοποιούν τα LLMs, αλλά στρέφουν πλέον ενεργά τα πυρά τους εναντίον των ενσωματωμένων στοιχείων που δίνουν στα συστήματα AI τη χρησιμότητά τους.

Οι επιθέσεις επικεντρώνονται πλέον στις αυτόνομες δεξιότητες (autonomous skills) των ψηφιακών βοηθών και στους συνδέσμους δεδομένων τρίτων κατασκευαστών (third-party data connectors). Καθώς οι επιχειρήσεις διασυνδέουν την τεχνητή τους νοημοσύνη με εσωτερικές βάσεις δεδομένων, CRM συστήματα και εταιρικά email, αυτοί οι σύνδεσμοι μετατρέπονται στην αχίλλειο πτέρνα της υποδομής, προσφέροντας στους εισβολείς μια νέα, αόρατη κερκόπορτα για την υποκλοπή ευαίσθητων βιομηχανικών μυστικών.

Η ψυχολογία της μηχανής και η τέχνη του jailbreaking

Για να καταφέρουν οι επιτιθέμενοι να αναγκάσουν ένα γλωσσικό μοντέλο να γράψει κακόβουλο κώδικα, παρακάμπτοντας τα αυστηρά ηθικά φίλτρα ασφαλείας που έχουν τοποθετήσει οι κατασκευάστριες εταιρείες, χρησιμοποιούν εξαιρετικά ευφυείς τεχνικές κοινωνικής μηχανικής πάνω στον ίδιο τον αλγόριθμο. Η έκθεση της Google ρίχνει φως στη μέθοδο του persona-driven jailbreaking.

Σε αυτή τη διαδικασία, οι hackers δεν ζητούν ευθέως από την πλατφόρμα να τους φτιάξει έναν ιό. Αντιθέτως, χρησιμοποιούν εξειδικευμένα prompts (εντολές), καθοδηγώντας την τεχνητή νοημοσύνη να υιοθετήσει μια συγκεκριμένη ψηφιακή περσόνα, για παράδειγμα να υποδυθεί τον ρόλο ενός κορυφαίου ειδικού ασφαλείας (security expert) που διεξάγει έναν έλεγχο διείσδυσης (penetration test) σε ένα προσομοιωμένο περιβάλλον.

Ξεγελώντας τον αλγόριθμο να πιστέψει ότι ενεργεί για καλό σκοπό και στα πλαίσια μιας νόμιμης ακαδημαϊκής έρευνας, το σύστημα παραδίδει πρόθυμα τον κακόβουλο κώδικα και αποκαλύπτει τις τεχνικές λεπτομέρειες των ευπαθειών.

Αυτό το εξαιρετικά εξελιγμένο παιχνίδι γάτας και ποντικιού ανάμεσα στις εταιρείες τεχνολογίας που προσπαθούν να ασφαλίσουν τα μοντέλα τους και στους hackers που επινοούν συνεχώς νέους τρόπους για να τα παραβιάσουν (jailbreak), αποδεικνύει ότι η τεχνητή νοημοσύνη έχει μετατραπεί στο πιο ισχυρό, αλλά ταυτόχρονα και στο πιο απρόβλεπτο εργαλείο στη σύγχρονη ιστορία της πληροφορικής. Ο αγώνας δρόμου για την κυριαρχία στον κυβερνοχώρο μόλις εισήλθε στο πιο κρίσιμο στάδιό του.