Η OpenAI, ο κολοσσός πίσω από το ChatGPT, βρέθηκε στο επίκεντρο έντονης κριτικής ύστερα από έναν λανθασμένο ισχυρισμό που έκανε τον γύρο του διαδικτύου: ότι το GPT-5 είχε λύσει «ανεπίλυτα μαθηματικά προβλήματα». Όπως αποδείχθηκε, τίποτα τέτοιο δεν συνέβη – και η ιστορία εξελίχθηκε σε μια από τις πιο αμήχανες στιγμές της εταιρείας από την ίδρυσή της.
Η υπόθεση φέρνει ξανά στο προσκήνιο ένα κρίσιμο ερώτημα για την εποχή της τεχνητής νοημοσύνης – μπορεί η AI να παράγει πραγματική επιστημονική γνώση ή απλώς ανακυκλώνει δεδομένα;
Πώς ξεκίνησε το μπέρδεμα
Όλα ξεκίνησαν όταν ένας ανώτερος μηχανικός της OpenAI δήλωσε ότι το GPT-5 είχε καταφέρει να επιλύσει δέκα μαθηματικά προβλήματα που παρέμεναν «ανοικτά» για δεκαετίες, ενώ είχε σημειώσει πρόοδο σε άλλα έντεκα. Η είδηση έκανε αμέσως τον γύρο των social media, προκαλώντας κύμα ενθουσιασμού αλλά και σκεπτικισμού.
Η πραγματικότητα, ωστόσο, ήταν πολύ πιο πεζή. Οι «λύσεις» που φέρεται να βρήκε το GPT-5 δεν ήταν στην πραγματικότητα νέες μαθηματικές αποδείξεις, αλλά υπάρχουσες δημοσιεύσεις που το μοντέλο είχε εντοπίσει και αναπαράγει. Με απλά λόγια, το σύστημα δεν «έλυσε» τίποτα – απλώς έκανε αυτό που κάνει καλά: αναζήτησε, συνέλεξε και επαναδιατύπωσε γνωστές πληροφορίες.
Η διευκρίνιση ήρθε από τον διαχειριστή του ιστότοπου “Erdős Problems”, όπου καταγράφονται τα ανοικτά ζητήματα που σχετίζονται με τον διάσημο μαθηματικό Paul Erdős. Ο ίδιος δήλωσε ότι δεν υπήρξε καμία νέα απόδειξη ή μαθηματικό breakthrough, ρίχνοντας έτσι «πάγο» στις δηλώσεις της OpenAI.
Η αντίδραση της επιστημονικής κοινότητας
Το περιστατικό δεν πέρασε απαρατήρητο. Ο επικεφαλής επιστήμονας της Meta, Yann LeCun, σχολίασε με ειρωνικό τόνο ότι η OpenAI «παγιδεύτηκε στο ίδιο της το αφήγημα». Αντίστοιχα, ο CEO της DeepMind, Demis Hassabis, έκανε λόγο για «ένα επικοινωνιακό λάθος που θα έπρεπε να είχε αποφευχθεί».
Η ακαδημαϊκή κοινότητα αντιμετώπισε το γεγονός ως χαρακτηριστικό παράδειγμα του “AI hype” – της τάσης ορισμένων εταιρειών να υπερπροβάλλουν τα επιτεύγματα των συστημάτων τους χωρίς επαρκή τεκμηρίωση ή peer review. Πολλοί ερευνητές υπενθύμισαν ότι τα μεγάλα γλωσσικά μοντέλα δεν είναι μαθηματικοί με πρωτογενή σκέψη, αλλά προγράμματα πρόβλεψης κειμένου που λειτουργούν βάσει στατιστικών πιθανοτήτων.
Η ζημιά στην αξιοπιστία
Η OpenAI προσπάθησε να περιορίσει τη ζημιά, επισημαίνοντας ότι η φράση «λύση προβλημάτων» είχε χρησιμοποιηθεί με πιο «ελεύθερο» τρόπο. Ωστόσο, η εντύπωση είχε ήδη δημιουργηθεί. Για μια εταιρεία που βρίσκεται στο επίκεντρο της τεχνολογικής επανάστασης, τέτοιου είδους επικοινωνιακά λάθη μπορούν να πλήξουν σοβαρά την αξιοπιστία της.
Η υπόθεση ανέδειξε την ανάγκη για αυστηρότερη διαφάνεια και επιστημονικό έλεγχο στα αποτελέσματα που παρουσιάζουν οι εταιρείες AI. Όταν ένας οργανισμός δηλώνει ότι το σύστημά του «έλυσε» μαθηματικά προβλήματα που για χρόνια αντιστέκονταν στα μεγαλύτερα μυαλά της ανθρωπότητας, οφείλει να έχει αποδείξεις – όχι tweets.
Από το marketing στην επιστήμη
Το περιστατικό με την OpenAI αποτελεί χαρακτηριστικό παράδειγμα του πώς το marketing συχνά προηγείται της επιστήμης. Η βιομηχανία της τεχνητής νοημοσύνης κινείται με ιλιγγιώδη ταχύτητα, και κάθε νέα αναβάθμιση, κάθε demo ή update πρέπει να φαίνεται «επαναστατικό».
Όμως η υπερβολή έχει συνέπειες. Οι επενδυτές, οι ερευνητές και το κοινό γίνονται πιο επιφυλακτικοί. Το credibility, που χτίζεται με κόπο, μπορεί να χαθεί σε λίγα λεπτά εάν μια ανακοίνωση αποδειχθεί ανακριβής. Και στην περίπτωση της OpenAI, η σύγχυση γύρω από τις μαθηματικές «λύσεις» έδειξε ότι ακόμη και οι πιο ισχυρές εταιρείες μπορούν να πέσουν θύματα του ίδιου τους του hype.
Μπορεί η τεχνητή νοημοσύνη να λύσει μαθηματικά προβλήματα;
Το ερώτημα δεν είναι θεωρητικό. Πράγματι, υπάρχουν ερευνητικά έργα που προσπαθούν να διδάξουν στα LLMs πιο προχωρημένη λογική, αποδεικτική σκέψη και μαθηματική αφαίρεση. Ωστόσο, μέχρι στιγμής, κανένα μοντέλο δεν έχει αποδείξει ότι μπορεί να παράγει πρωτότυπες αποδείξεις χωρίς ανθρώπινη καθοδήγηση.
Το GPT-5 μπορεί να αναγνωρίσει μοτίβα, να θυμάται θεώρηματα, να συνδυάζει υπάρχουσες πληροφορίες και να προτείνει υποθέσεις, αλλά δεν «σκέφτεται» μαθηματικά με την ανθρώπινη έννοια. Το ότι βρίσκει μια παλαιότερη λύση σε ακαδημαϊκή δημοσίευση και την παρουσιάζει ως νέα, είναι περισσότερο αποτέλεσμα στατιστικής επεξεργασίας παρά μαθηματικής ιδιοφυΐας.
Το μάθημα για την OpenAI
Το περιστατικό με τα «ανεπίλυτα προβλήματα» θα μπορούσε να περάσει απαρατήρητο αν δεν είχε λάβει τόσο μεγάλη δημοσιότητα. Ωστόσο, για μια εταιρεία που ηγείται της παγκόσμιας συζήτησης γύρω από την AI, αυτό είναι ένα πολύτιμο μάθημα ταπεινότητας.
Η OpenAI θα χρειαστεί να αναπροσαρμόσει την επικοινωνιακή της στρατηγική, δίνοντας προτεραιότητα στα πραγματικά δεδομένα και όχι στη δημιουργία εντυπώσεων. Αντί να κυνηγά headlines, ίσως είναι προτιμότερο να εστιάσει στη βελτίωση της ακρίβειας και στην αποσαφήνιση των ορίων μεταξύ τεχνητής νοημοσύνης και τεχνητής εντύπωσης.
Η «μαθηματική παρεξήγηση» της OpenAI δείχνει με σαφήνεια ότι η τεχνητή νοημοσύνη δεν είναι ακόμα πανάκεια. Μπορεί να παράγει απίστευτα αποτελέσματα, αλλά χρειάζεται πάντα ανθρώπινη κρίση, επιστημονική επιβεβαίωση και υπευθυνότητα.
Η αξιοπιστία, όχι η ταχύτητα, είναι το νέο ζητούμενο στην εποχή της AI. Και όσο πιο γρήγορα το κατανοήσουν οι τεχνολογικοί κολοσσοί, τόσο πιο σταθερά θα χτιστεί η εμπιστοσύνη του κοινού.