Skip to content Skip to sidebar Skip to footer

Γιατί δεν πρέπει να εμπιστεύεστε το Muse Spark της Meta για θέματα υγείας

Το Muse Spark, το νέο και πολυδιαφημισμένο μοντέλο τεχνητής νοημοσύνης (AI) της Meta, παρουσιάζεται από την εταιρεία ως ένα εξαιρετικά έξυπνο και ικανό εργαλείο, έτοιμο να αναλάβει έναν πιο ενεργό ρόλο στην καθημερινότητα των χρηστών.

Ωστόσο, με βάση τις πρώτες ενδελεχείς δοκιμές που έχουν πραγματοποιηθεί, γίνεται σαφές ότι πρόκειται για ένα τεχνολογικό σύστημα το οποίο δεν θα έπρεπε, σε καμία περίπτωση, να βρίσκεται κοντά στη λήψη σοβαρών, ιατρικών αποφάσεων. Ο τεχνολογικός κολοσσός επιχειρεί μια εξαιρετικά φιλόδοξη, αλλά ταυτόχρονα και ριψοκίνδυνη είσοδο στον ευαίσθητο τομέα της υγείας. Το συγκεκριμένο λογισμικό, το οποίο ενσωματώνεται σταδιακά στο ευρύτερο οικοσύστημα των εφαρμογών της Meta, έχει επιδείξει μια υπερβολική και σχεδόν ανησυχητική προθυμία να παίξει τον ρόλο του θεράποντος ιατρού, αγνοώντας βασικούς κανόνες ασφαλείας και ιατρικής δεοντολογίας.

Κατά τη διάρκεια των πρώιμων δοκιμών, τα αποτελέσματα που προέκυψαν από την αλληλεπίδραση με το έξυπνο chatbot ήταν κάθε άλλο παρά ενθαρρυντικά. Το σύστημα ενθαρρύνει ενεργά τους χρήστες να ανεβάσουν και να μοιραστούν εντελώς ακατέργαστα, πρωτογενή ιατρικά δεδομένα (raw medical information).

📍 Η εξέλιξη της είδησης: META

Σε αυτά περιλαμβάνονται αναλυτικές εργαστηριακές εξετάσεις (lab reports), καθημερινές μετρήσεις από συσκευές παρακολούθησης γλυκόζης (glucose monitors), καθώς και εκτενή αρχεία καταγραφής της αρτηριακής πίεσης. Στη συνέχεια, ο αλγόριθμος προσφέρεται αυτοβούλως να αναλύσει αυτά τα εξαιρετικά σύνθετα ιατρικά μοτίβα και τις τάσεις, υποσχόμενος να παρέχει εξατομικευμένες συμβουλές. Σε θεωρητικό επίπεδο, η αυτοματοποίηση μιας τέτοιας ανάλυσης ακούγεται εντυπωσιακή και εξαιρετικά χρήσιμη για τον μέσο καταναλωτή.

Όμως, η πραγματικότητα κρύβει δύο τεράστιους κινδύνους: την παράδοση των πιο ευαίσθητων προσωπικών δεδομένων σε μια εμπορική εταιρεία και την πλήρη αδυναμία του συστήματος να προσφέρει ιατρικά αξιόπιστες ερμηνείες.

Ο κίνδυνος παραβίασης της ιδιωτικότητας των χρηστών

Οι κίνδυνοι από το νέο AI της Meta: Το Muse Spark και τα προσωπικά δεδομένα υγείας

Το πρώτο και ίσως πιο οφθαλμοφανές πρόβλημα που προκύπτει από αυτή τη διαδικασία είναι αδύνατον να αγνοηθεί. Σε μια ψηφιακή εποχή όπου η προσωπική ζωή των χρηστών μοιάζει ήδη να είναι υπερβολικά διάφανη και εκτεθειμένη, το Muse Spark επιχειρεί να εισχωρήσει ακόμη βαθύτερα, αγγίζοντας τον πυρήνα της ιδιωτικότητας: τον ιατρικό φάκελο. Είναι απολύτως κατανοητό ότι για να εξαχθεί μια ακριβής διάγνωση απαιτείται η παροχή των απαραίτητων ιατρικών πληροφοριών. Εντούτοις, η παράδοση του πλήρους, προσωπικού ιστορικού υγείας σε ένα εμπορικό chatbot προκειμένου να ληφθούν αυτοματοποιημένες συμβουλές, συνιστά έναν άνευ προηγουμένου κίνδυνο για την προστασία των προσωπικών δεδομένων.

Σε αντίθεση με τα ευαίσθητα δεδομένα που μοιράζεται ένας ασθενής με τον προσωπικό του γιατρό, μια κλινική ή ένα δημόσιο νοσοκομείο -όπου ισχύουν αυστηρά πρωτόκολλα εμπιστευτικότητας και νομικές δεσμεύσεις- οι πληροφορίες που εισάγονται στο περιβάλλον διεπαφής (interface) ενός chatbot δεν συνοδεύονται αυτόματα από τις ίδιες νομικές και ηθικές προσδοκίες προστασίας.

Ο χρήστης μπορεί εσφαλμένα να υποθέσει ότι τα δεδομένα του είναι απολύτως ασφαλή, όμως η τεχνολογική πλατφόρμα δεν δεσμεύεται από το ιατρικό απόρρητο με τον παραδοσιακό τρόπο. Δεν πρόκειται για μια επαγγελματικά ελεγμένη και νομικά κατοχυρωμένη ιατρική γνωμάτευση, γεγονός που καθιστά ολόκληρο το εγχείρημα εγγενώς ασταθές. Η τεχνητή νοημοσύνη της Meta παρουσιάζεται περιτυλιγμένη με τον μανδύα ενός χρήσιμου, καθημερινού εργαλείου ευεξίας, ωστόσο, το γενικότερο περιβάλλον στο οποίο λειτουργεί παραπέμπει ξεκάθαρα σε ένα τυπικό καταναλωτικό προϊόν, παρά σε μια πιστοποιημένη, ιατρική συσκευή.

Οι επικίνδυνες συμβουλές και οι επιπτώσεις στην υγεία

Τεχνητή νοημοσύνη και υγεία: Το ριψοκίνδυνο πείραμα του Muse Spark

Εάν παραμερίσουμε για λίγο τους προφανείς κινδύνους ιδιωτικότητας που ενέχει η κοινοποίηση προσωπικών δεδομένων σε οποιονδήποτε μεγάλο τεχνολογικό κολοσσό, ο καταναλωτής θα περίμενε τουλάχιστον να λάβει μια αξιοπρεπή και επιστημονικά τεκμηριωμένη απάντηση στα ερωτήματά του. Δυστυχώς, το πιο σοβαρό, ίσως, ζήτημα που αναδείχθηκε κατά τη διάρκεια των δοκιμών, αφορούσε την ίδια την ποιότητα και την ασφάλεια των παρεχόμενων συμβουλών.

Όταν το chatbot κλήθηκε να προσφέρει καθοδήγηση σχετικά με την απώλεια βάρους και ρωτήθηκε για τα ακραία σχήματα διαλειμματικής νηστείας, η αντίδρασή του ήταν άκρως προβληματική. Ο αλγόριθμος παρήγαγε και πρότεινε ένα διατροφικό πλάνο με εξαιρετικά χαμηλές -έως και επικίνδυνες- θερμίδες, το οποίο απέχει παρασάγγας από τις εγκεκριμένες κατευθυντήριες γραμμές των επίσημων διαιτολογικών οργανισμών.

Αυτή ακριβώς η συμπεριφορά αναδεικνύει μια από τις μεγαλύτερες παθογένειες των σημερινών μεγάλων γλωσσικών μοντέλων (Large Language Models) όταν εφαρμόζονται στην υγεία. Ενώ το λογισμικό έχει εκπαιδευτεί να αναγνωρίζει ορισμένες κόκκινες γραμμές -πράγμα που σημαίνει ότι αρχικά επισήμανε ορισμένους από τους ιατρικούς κινδύνους που συνδέονται με μια τόσο ακραία διατροφική προσέγγιση- αυτή η τυπική προειδοποίηση δεν έχει καμία απολύτως πρακτική αξία. Αμέσως μετά την εμφάνιση της αυτοματοποιημένης ειδοποίησης (warning), το μοντέλο προχώρησε κανονικά στον σχεδιασμό και την παροχή του επικίνδυνου προγράμματος, βοηθώντας τον χρήστη να θέσει σε κίνδυνο την υγεία του.

Εδώ ακριβώς εντοπίζεται το ουσιαστικό πρόβλημα με την τρέχουσα γενιά των εργαλείων υγείας που βασίζονται στην τεχνητή νοημοσύνη. Διαθέτουν την ικανότητα να παράγουν κείμενα που ακούγονται απόλυτα επιστημονικά ενημερωμένα και ισορροπημένα, μέχρι τη στιγμή που αποφασίζουν, χωρίς καμία απολύτως λογική συνοχή, να ενισχύσουν λανθασμένες παραδοχές και επικίνδυνες πρακτικές.