Σε μια κίνηση που αναδεικνύει για άλλη μια φορά την εύθραυστη ισορροπία μεταξύ της τεχνολογικής καινοτομίας και της ανθρώπινης ασφάλειας, η Google προχώρησε χθες, 11 Ιανουαρίου 2026, στην άμεση αφαίρεση της λειτουργίας “AI Overviews” για μια σειρά συγκεκριμένων ιατρικών ερωτημάτων. Η απόφαση αυτή δεν ήρθε ως μέρος κάποιας προγραμματισμένης αναβάθμισης, αλλά ως κατεπείγουσα αντίδραση σε μια αποκαλυπτική έρευνα που έφερε στο φως σοβαρά, και εν δυνάμει επικίνδυνα για τη ζωή, σφάλματα στις απαντήσεις που παρήγαγε η τεχνητή νοημοσύνη της εταιρείας.
Το περιστατικό επαναφέρει στο προσκήνιο τον εφιάλτη των “ψευδαισθήσεων” (hallucinations) των μεγάλων γλωσσικών μοντέλων (LLMs), αυτή τη φορά όμως το διακύβευμα δεν είναι κάποια αστεία συνταγή μαγειρικής, αλλά η υγεία ασθενών με σοβαρές παθήσεις. Η αποκάλυψη ότι ο τεχνολογικός γίγαντας αναγκάστηκε να “τραβήξει την πρίζα” σε συγκεκριμένα queries επιβεβαιώθηκε και από το TechCrunch, το οποίο πραγματοποίησε δικές του δοκιμές επαληθεύοντας την απουσία των AI περιλήψεων που μέχρι πρότινος εμφανίζονταν στην κορυφή των αποτελεσμάτων αναζήτησης.
Η έρευνα του Guardian

📍 Η εξέλιξη της είδησης: AI
Όλα ξεκίνησαν από μια ενδελεχή έρευνα της βρετανικής εφημερίδας The Guardian, η οποία αποφάσισε να θέσει τον ψηφιακό “παντογνώστη” της Google υπό εξέταση. Δημοσιογράφοι και ειδικοί υγείας υπέβαλαν στο σύστημα μια σειρά από ερωτήματα που αφορούν κοινές, αλλά κρίσιμες ιατρικές εξετάσεις και παθήσεις. Τα αποτελέσματα ήταν, επιεικώς, ανησυχητικά.
Το πιο χαρακτηριστικό παράδειγμα αφορούσε τις εξετάσεις ηπατικής λειτουργίας. Στο ερώτημα “ποιες είναι οι φυσιολογικές τιμές για τις εξετάσεις αίματος ήπατος”, το AI Overview εμφάνιζε με αυτοπεποίθηση ένα εύρος τιμών, χωρίς όμως να λαμβάνει υπόψη κρίσιμους παράγοντες όπως η ηλικία, το φύλο ή το ιατρικό ιστορικό του χρήστη. Όπως επισημαίνουν ηπατολόγοι, οι τιμές αυτές δεν είναι απόλυτες και διαφέρουν σημαντικά από άνθρωπο σε άνθρωπο. Η παροχή ενός γενικευμένου “φυσιολογικού εύρους” θα μπορούσε να οδηγήσει έναν ασθενή με σοβαρό ηπατικό πρόβλημα στο λανθασμένο συμπέρασμα ότι είναι υγιής, αποτρέποντάς τον από το να αναζητήσει ιατρική βοήθεια εγκαίρως.
Η “θανατηφόρα” συμβουλή για τον καρκίνο

Ακόμη πιο σοκαριστική ήταν η περίπτωση των συμβουλών για ασθενείς με καρκίνο του παγκρέατος. Σύμφωνα με την έρευνα, η τεχνητή νοημοσύνη της Google, συνθέτοντας πληροφορίες από διάφορες πηγές, κατέληξε να προτείνει σε ασθενείς με τη συγκεκριμένη μορφή καρκίνου να αποφεύγουν τις τροφές με υψηλή περιεκτικότητα σε λιπαρά.
Αυτή η συμβουλή, σύμφωνα με ογκολόγους και διατροφολόγους που μίλησαν στο πλαίσιο της έρευνας, είναι εκ διαμέτρου αντίθετη με τις ιατρικές οδηγίες. Οι ασθενείς με καρκίνο του παγκρέατος συχνά χάνουν ραγδαία βάρος και χρειάζονται δίαιτες υψηλής θερμιδικής αξίας και λιπαρών για να κρατηθούν στη ζωή. Μια τέτοια παραπλανητική οδηγία από μια πηγή που οι χρήστες τείνουν να εμπιστεύονται τυφλά, θα μπορούσε κυριολεκτικά να αποβεί μοιραία.
Επιπλέον, προβλήματα εντοπίστηκαν και σε ερωτήματα ψυχικής υγείας. Σε αναζητήσεις σχετικά με την ψύχωση ή τις διατροφικές διαταραχές, οι απαντήσεις του AI στερούνταν της απαραίτητης ενσυναίσθησης και της κλινικής ακρίβειας, δίνοντας σε ορισμένες περιπτώσεις συμβουλές που θα μπορούσαν να επιδεινώσουν την κατάσταση ενός ευάλωτου ατόμου.
Η αντίδραση της Google και το παιχνίδι της γάτας με το ποντίκι
Μετά τη δημοσιεύση των ευρημάτων, η Google αντέδρασε άμεσα. Εκπρόσωπος της εταιρείας δήλωσε ότι, παρόλο που η “συντριπτική πλειοψηφία” των AI Overviews παρέχει ακριβείς πληροφορίες βασισμένες σε αξιόπιστες πηγές, προχώρησαν στην αφαίρεση της λειτουργίας για τα συγκεκριμένα ερωτήματα “για λόγους προσοχής”.
Ωστόσο, το πρόβλημα φαίνεται να είναι βαθύτερο και πιο τεχνικό. Το TechCrunch επιβεβαίωσε ότι ενώ η ακριβής φράση “what is the normal range for liver blood tests” δεν ενεργοποιεί πλέον το AI Overview, μικρές παραλλαγές της ερώτησης, όπως “lft reference range” (όπου LFT σημαίνει Liver Function Test), εξακολουθούν σε ορισμένες περιπτώσεις να εμφανίζουν την αυτοματοποιημένη απάντηση. Αυτό αποδεικνύει τη δυσκολία του ελέγχου ενός συστήματος που βασίζεται στις πιθανότητες και όχι σε αυστηρούς κανόνες, μετατρέποντας την προσπάθεια διόρθωσης σε ένα ατελείωτο παιχνίδι “whack-a-mole”.
Η εταιρεία υποστηρίζει ότι οι απαντήσεις αυτές προέρχονται από συνδυασμό πληροφοριών υψηλής ποιότητας ιστότοπων, όμως η σύνθεση αυτών των πληροφοριών είναι που συχνά αστοχεί. Το AI μπορεί να διαβάσει μια πρόταση σωστά, αλλά να την παρουσιάσει σε λάθος πλαίσιο (context), αφαιρώντας τις κρίσιμες υποσημειώσεις που θα έκανε ένας γιατρός.
Το ευρύτερο πρόβλημα και η ιστορία που επαναλαμβάνεται
Δεν είναι η πρώτη φορά που η Google βρίσκεται σε θέση απολογούμενου για τα AI Overviews. Θυμόμαστε όλοι το χαοτικό λανσάρισμα της υπηρεσίας (τότε ως SGE) τον Μάιο του 2024, όταν το σύστημα πρότεινε στους χρήστες να βάλουν… κόλλα στην πίτσα για να μην γλιστράει το τυρί, ή να τρώνε πέτρες για βιταμίνες. Τότε, τα λάθη ήταν κωμικά και προέρχονταν κυρίως από σαρκαστικά σχόλια στο Reddit τα οποία το AI εξέλαβε ως γεγονότα.
Σήμερα, εν έτει 2026, τα λάθη δεν είναι πια αστεία. Όταν η τεχνολογία εισέρχεται στον πυρήνα της “Your Money or Your Life” (YMYL) θεματολογίας – όρος που χρησιμοποιεί η ίδια η Google για θέματα υγείας και οικονομικών – η ανοχή στο σφάλμα πρέπει να είναι μηδενική. Το γεγονός ότι δύο χρόνια μετά το αρχικό λανσάρισμα, το σύστημα εξακολουθεί να δίνει επικίνδυνες ιατρικές συμβουλές, εγείρει σοβαρά ερωτήματα για την ετοιμότητα της τεχνολογίας generative AI να αντικαταστήσει την παραδοσιακή αναζήτηση σε τόσο ευαίσθητους τομείς.
Τι σημαίνει αυτό για το μέλλον της ιατρικής ενημέρωσης
Η απόσυρση των AI Overviews από τα συγκεκριμένα ιατρικά ερωτήματα είναι μια σιωπηλή παραδοχή ήττας, ή τουλάχιστον μια αναγνώριση των ορίων της τρέχουσας τεχνολογίας. Οι ειδικοί τονίζουν ότι η ιατρική δεν είναι απλώς δεδομένα· είναι η ερμηνεία των δεδομένων στο σωστό πλαίσιο. Ένα LLM μπορεί να απομνημονεύσει όλα τα ιατρικά βιβλία του κόσμου, αλλά δυσκολεύεται να εφαρμόσει την κρίση που απαιτείται για να διαχωρίσει μια γενική αλήθεια από μια ειδική εξαίρεση.
Για τους χρήστες, το μάθημα είναι ξεκάθαρο: Η ευκολία της γρήγορης απάντησης στην κορυφή της σελίδας δεν μπορεί να υποκαταστήσει την ιατρική γνώμη, ούτε καν την προσεκτική ανάγνωση άρθρων από πιστοποιημένους ιατρικούς φορείς. Η Google, στην προσπάθειά της να κρατήσει τους χρήστες εντός της πλατφόρμας της (zero-click searches), ρίσκαρε την αξιοπιστία της σε ένα πεδίο που δεν συγχωρεί λάθη.
Προς το παρόν, αν ρωτήσετε την Google για τις εξετάσεις του ήπατος, θα δείτε ξανά τα παραδοσιακά “μπλε links”. Και ίσως, για την ώρα, αυτό να είναι το πιο ασφαλές αποτέλεσμα που μπορεί να μας δώσει η τεχνολογία.





