Skip to content Skip to sidebar Skip to footer

Θύελλα αντιδράσεων για την συμφωνία OpenAI – Πενταγώνου: Το Claude ξεπέρασε το Chatgpt στο App Store

Το τοπίο της τεχνητής νοημοσύνης στον τομέα της εθνικής ασφάλειας αλλάζει ραγδαία, με τη συμφωνία μεταξύ της OpenAI και του αμερικανικού Department of Defense (DoD) να βρίσκεται στο επίκεντρο μιας έντονης δημόσιας και πολιτικής συζήτησης. Μετά την κατάρρευση των διαπραγματεύσεων μεταξύ της Anthropic και του Πενταγώνου την προηγούμενη Παρασκευή, οι εξελίξεις πήραν δραματική τροπή. Η διοίκηση των ΗΠΑ, υπό την καθοδήγηση του Προέδρου Donald Trump, έδωσε εντολή στις ομοσπονδιακές υπηρεσίες να διακόψουν τη χρήση της τεχνολογίας της Anthropic εντός εξαμήνου, ενώ ο Secretary of Defense χαρακτήρισε την εταιρεία ως «κίνδυνο για την εφοδιαστική αλυσίδα» (supply-chain risk).

Σε αυτό το τεταμένο κλίμα, η OpenAI προχώρησε σε μια κίνηση που πολλοί χαρακτήρισαν ως τακτική ευκαιρία, ανακοινώνοντας τη δική της συμφωνία για τη χρήση των μοντέλων της σε διαβαθμισμένα περιβάλλοντα. Ο Sam Altman, CEO της εταιρείας, παραδέχθηκε δημόσια ότι η διαδικασία ήταν «οπωσδήποτε βιαστική» και ότι η οπτική της συμφωνίας «δεν δείχνει καλή» (the optics don’t look good). Η αντίθεση μεταξύ των δύο εταιρειών —με την Anthropic να θέτει αυστηρές «κόκκινες γραμμές» για τη χρήση της τεχνολογίας της σε αυτόνομα οπλικά συστήματα και τη μαζική εσωτερική επιτήρηση— και την OpenAI, που τελικά συμφώνησε με το Πεντάγωνο, δημιούργησε ένα κύμα ερωτημάτων σχετικά με την ηθική της τεχνητής νοημοσύνης στην άμυνα.

Οι κόκκινες γραμμές και η αμυντική στρατηγική

OpenAI: Έρχεται έως το 2028 ο πρώτος “ερευνητής” τεχνητής νοημοσύνης
photo by openai devday 2025

Σε μια προσπάθεια να κατευνάσει τις ανησυχίες, η OpenAI δημοσίευσε ένα αναλυτικό κείμενο περιγράφοντας τους περιορισμούς που θέτει στη χρήση των μοντέλων της. Η εταιρεία προσδιόρισε τρεις κρίσιμους τομείς όπου η τεχνολογία της δεν επιτρέπεται να χρησιμοποιηθεί: τη μαζική εσωτερική επιτήρηση (mass domestic surveillance), τα αυτόνομα οπλικά συστήματα και τις αποφάσεις υψηλού ρίσκου που αυτοματοποιούνται, όπως για παράδειγμα συστήματα «κοινωνικής πίστωσης» (social credit).

📍 Η εξέλιξη της είδησης: Anthropic

Η εταιρεία υποστήριξε ότι, σε αντίθεση με άλλους οργανισμούς που φέρεται να χαλάρωσαν τις δικλίδες ασφαλείας τους για να ευθυγραμμιστούν με τις απαιτήσεις του τομέα Defense, η δική της συμφωνία προστατεύει τις αρχές της μέσω μιας «πολυεπίπεδης προσέγγισης». Σύμφωνα με την επίσημη θέση της, η OpenAI διατηρεί πλήρη έλεγχο πάνω στο «safety stack» της, η ανάπτυξη γίνεται μέσω cloud, ενώ εξουσιοδοτημένο προσωπικό της εταιρείας έχει άμεση εμπλοκή στη διαδικασία. Όλα αυτά, όπως τονίζεται, έρχονται να προστεθούν στις ήδη ισχυρές προστασίες που προβλέπει η αμερικανική νομοθεσία.

Το ζήτημα της ερμηνείας των όρων

Το αποσυρθέν AI της Anthropic ξεκινά καριέρα αρθρογράφου στο Substack
Photo by anthropic

Ωστόσο, η επιχειρηματολογία της OpenAI δεν έπεισε τους πάντες στον χώρο της ανάλυσης τεχνολογίας. Πολλοί παρατηρητές επισημαίνουν ότι το συμβόλαιο, αν και περιλαμβάνει αναφορές στη συμμόρφωση με το Εκτελεστικό Διάταγμα 12333, αφήνει ανοιχτά «παραθυράκια» για εσωτερική επιτήρηση. Το εν λόγω διάταγμα έχει αποτελέσει αντικείμενο κριτικής στο παρελθόν, καθώς επιτρέπει την παρακολούθηση επικοινωνιών που αγγίζουν Αμερικανούς πολίτες, υπό το πρόσχημα της συλλογής δεδομένων από γραμμές εκτός των ΗΠΑ.

Η επικεφαλής των συνεργασιών εθνικής ασφάλειας της OpenAI, Katrina Mulligan, απάντησε στις επικρίσεις μέσω δημόσιας ανάρτησης, υποστηρίζοντας ότι η συζήτηση για τις διατυπώσεις του συμβολαίου παραβλέπει το γεγονός ότι η αρχιτεκτονική ανάπτυξης (deployment architecture) είναι πιο σημαντική από το κείμενο του συμβολαίου. Σύμφωνα με την ίδια, περιορίζοντας την ανάπτυξη των μοντέλων της μέσω cloud API, η εταιρεία μπορεί να διασφαλίσει ότι τα μοντέλα της δεν ενσωματώνονται απευθείας σε οπλικά συστήματα, αισθητήρες ή άλλο επιχειρησιακό υλικό. Πρόκειται για μια τεχνική δικλείδα που, κατά την OpenAI, αποτελεί το πιο ισχυρό εχέγγυο για την ασφάλεια.

Γιατί η βιασύνη; Η στρατηγική του de-escalation

Ο Sam Altman, απαντώντας σε ερωτήσεις χρηστών στα social media, παραδέχθηκε ότι η βιασύνη για το κλείσιμο της συμφωνίας οδήγησε σε σημαντική αρνητική αντίδραση από το κοινό  – τόσο έντονη, που η εφαρμογή της Anthropic ξεπέρασε το ChatGPT στο App Store της Apple μέσα σε ένα Σαββατοκύριακο. Το ερώτημα παραμένει: γιατί η εταιρεία επέλεξε να ρισκάρει τη φήμη της με μια συμφωνία που εξαρχής φαινόταν προβληματική;

Ο Altman εξήγησε ότι ο βασικός στόχος ήταν η «αποκλιμάκωση» (de-escalation) των σχέσεων μεταξύ του αμυντικού κατεστημένου και της βιομηχανίας της τεχνητής νοημοσύνης. Η ηγεσία της OpenAI θεωρεί ότι, αν η συμφωνία επιτύχει τον στόχο της να καθιερώσει ένα μοντέλο ασφαλούς χρήσης, τότε η εταιρεία θα δικαιωθεί ως πρωτοπόρος που ανέλαβε το πολιτικό κόστος για να βοηθήσει τον κλάδο να βρει μια βιώσιμη ισορροπία. «Αν κάνουμε λάθος, θα συνεχίσουμε να χαρακτηριζόμαστε ως βιαστικοί και απρόσεκτοι», παραδέχθηκε ο Altman, αναγνωρίζοντας το μέγεθος του ρίσκου που ανέλαβε η εταιρεία.

Στην πραγματικότητα, η σύγκρουση αυτή αναδεικνύει μια βαθύτερη διάσταση: το ρόλο των ιδιωτικών εταιρειών AI στη διαμόρφωση της αμερικανικής στρατηγικής Defense. Καθώς τα όρια μεταξύ πολιτικής τεχνολογίας και στρατιωτικής χρήσης γίνονται όλο και πιο ασαφή, οι εταιρείες όπως η OpenAI βρίσκονται σε μια δύσκολη θέση. Πρέπει να πείσουν το κοινό τους ότι δεν μετατρέπονται σε «εργολάβους πολέμου», διατηρώντας ταυτόχρονα τις σχέσεις τους με το Πεντάγωνο, το οποίο θεωρεί την τεχνητή νοημοσύνη ως τον πιο κρίσιμο τομέα για την εθνική ασφάλεια του 21ου αιώνα.

Η OpenAI ποντάρει στο ότι η «αρχιτεκτονική» της, δηλαδή ο περιορισμός της πρόσβασης μέσω cloud API, θα είναι αρκετή για να καθησυχάσει τους σκεπτικιστές. Όμως, όπως δείχνει η έντονη κριτική, η εμπιστοσύνη του κοινού δεν κερδίζεται μόνο με συμβόλαια και τεχνικούς περιορισμούς, αλλά με διαφάνεια —κάτι που, κατά την παραδοχή της ίδιας της ηγεσίας, έλειψε από αυτή την «βιαστική» απόφαση. Καθώς το τοπίο εξελίσσεται, η επιτυχία ή αποτυχία αυτού του εγχειρήματος θα καθορίσει σε μεγάλο βαθμό πώς θα αλληλεπιδρά η τεχνολογία αιχμής με τον τομέα Defense για τα επόμενα χρόνια.