Η ανακοίνωση του FBI για δύο θολές φωτογραφίες ενός υπόπτου για την δολοφονία του Charlie Kirk πυροδότησε αμέσως αντίδραση στα social media. Χρήστες άρχισαν να “βελτιώνουν” τις φωτογραφίες αυτές με εργαλεία τεχνητής νοημοσύνης, όπως AI upscaling, δημιουργώντας εικόνες υψηλής ευκρίνειας. Το αποτέλεσμα είναι πιο κοντά στην φαντασία και λιγότερο στην πραγματικότητα — και τα περιθώρια λάθους είναι μεγαλύτερα απ’ ό,τι φαίνονται με την πρώτη ματιά.
Τι συνέβη
Το FBI δημοσίευσε δύο φωτογραφίες με τον ύποπτο να φοράει καπέλο, γυαλιά ηλίου και σκοτεινά ρούχα. Οι φωτογραφίες ήταν θολές και με περιορισμένες λεπτομέρειες. Μέσα σε σύντομο χρόνο, κάποιοι χρήστες ξεκίνησαν να εφαρμόζουν AI upscaling: δηλαδή να χρησιμοποιούν αλγόριθμους που υπολογίζουν τι θα μπορούσαν να είναι τα pixel που λείπουν και να δημιουργούν πιο καθαρές, πιο λεπτομερείς εκδόσεις των φωτογραφιών.
Αυτό που προέκυψε ήταν εικόνες που φαίνονται “καλύτερες” — με ορισμένα στοιχεία που μοιάζουν πιο καθαρά, όπως πιο ευδιάκριτο πρόσωπο ή ρούχα. Όμως αυτές οι “βελτιωμένες” εικόνες περιλαμβάνουν αλλαγές που δεν υπάρχουν στις αρχικές φωτογραφίες. Η AI δεν ανακτά πληροφορίες που έχουν χαθεί· απλώς “μαντεύει” βασισμένη σε μοτίβα από τις εικόνες που έχει εκπαιδευτεί να αναγνωρίζει.
Οι επιπτώσεις του AI upscaling
Οι εικόνες αυτές γίνονται viral — κοινοποιούνται, σχολιάζονται, “μοιράζονται” ως αν ήταν αποδεικτικά στοιχεία. Όμως ο κίνδυνος είναι ότι παρότι φαίνονται πειστικές, μπορούν να παραπλανήσουν. Μπορεί κάποιο χαρακτηριστικό να αλλάξει — το χρώμα ενός πουκαμίσου, η μορφή του προσώπου, η στάση. Όλα αυτά μπορεί να οδηγήσουν σε λανθασμένες αναγνώσεις, σε σφαλμένη ταύτιση ή σε διαστρεβλωμένη εικόνα.
Αυτή η πρακτική ενέχει κίνδυνο για τη δικαιοσύνη και την ασφάλεια. Αν κάποιος βασιστεί σε τέτοιες εικόνες ως αποδεικτικά στοιχεία χωρίς επιβεβαίωση, μπορεί να οδηγηθούν σε άδικες κατηγορίες ή λάθος ταυτίσεις.
Γιατί η εικόνα δεν φτάνει
The FBI continues to work alongside our law enforcement partners to seek justice in the murder of Charlie Kirk at Utah Valley University on September 10, 2025. We are releasing additional photos of a person of interest. Information about this developing investigation can be found… pic.twitter.com/woZacCxYgE
— FBI Salt Lake City (@FBISaltLakeCity) September 12, 2025
Η ουσία είναι ότι οι αρχικές θολές φωτογραφίες έχουν όρια. Οι αλγόριθμοι AI δεν κάνουν μαγικά. Αν μια εικόνα δεν έχει αρκετά στοιχεία — αν τα pixel είναι πολύ λίγα ή έχει υπερβολικό θόρυβο — τότε οποιαδήποτε προσπάθεια “βελτίωσης” γίνεται με βάση πιθανότητες και υποθέσεις.
Όταν η AI “μαντεύει”, μπορεί να προσθέσει στοιχεία που δεν υπάρχουν. Για παράδειγμα, μπορεί να εμφανιστεί σκιά στο πρόσωπο ή να φανεί κάποιο μοτίβο ρούχου που δεν υπήρχε στην αρχική φωτογραφία. Αυτό σημαίνει ότι ό,τι βλέπεις στις “βελτιωμένες” εικόνες είναι τόσο αξιόπιστο όσο η ποιότητα των δεδομένων που χρησιμοποιήθηκε στην εκπαίδευση της AI, μαζί με την τύχη.
Το κοινωνικό κομμάτι και η ευθύνη
Η τάση αυτή δείχνει κάτι μεγαλύτερο: πόσο εύκολα η κοινή γνώμη, τα μέσα κοινωνικής δικτύωσης και το crowd-investigating μπορούν να καταλήξουν να πιστεύουν γραφικά που φαίνονται αληθινά, αλλά δεν είναι. Η πίεση της ταχύτητας, το viral στοιχείο, το “όλοι βλέπουν αυτό”, δημιουργούν έδαφος για παραπληροφόρηση.
Η ευθύνη πέφτει σε πολλούς: η αστυνομία που επιλέγει να δημοσιεύσει θολές εικόνες, τα μέσα που τις διαδίδουν χωρίς σαφή προειδοποίηση, οι χρήστες που δημιουργούν “enhanced” εκδόσεις και οι κοινοί πολίτες που τις αποδέχονται ως γεγονός.
Ποιο είναι το συμφέρον της αλήθειας
The FBI is releasing video of the shooter who murdered Charlie Kirk at Utah Valley University on September 10, 2025. Following the shooting, the individual jumps from a rooftop and runs away from the location. Trace evidence collected from the rooftop includes shoe impressions, a… pic.twitter.com/hDVVFKUhYl
— FBI Salt Lake City (@FBISaltLakeCity) September 12, 2025
Σε μια έρευνα για φόνο, δεν αρκεί η εικόνα· χρειάζονται αποδεικτικά στοιχεία, DNA, αποτυπώματα, μαρτυρίες. Οι θολές φωτογραφίες είναι μόνο σημείο εκκίνησης. Οι αρχές αναζητούν: όπλο, ίχνη παπουτσιών, αποτυπώματα χεριών και άλλες φυσικές αποδείξεις.
Όσο για τις AI “βελτιώσεις”, μάλλον δεν προσφέρουν κάτι νέο από τη σκοπιά της έρευνας· εκτός αν χρησιμοποιούνται με πλήρη επιφύλαξη και με τη συνδρομή ειδικών που επιβεβαιώνουν τι πραγματικά ανταποκρίνεται στην αρχική εικόνα και τι είναι επινόηση.
Η χρήση τεχνητής νοημοσύνης για να “διορθώσει” θολές φωτογραφίες υπόπτων μπορεί να φαίνεται δελεαστική — αλλά είναι επικίνδυνη όταν λαμβάνεται ως απόδειξη. Οι εικόνες που παράγονται από καλλιέργεια μέσω AI είναι καλές για συζήτηση ή για κοινή χρήση, όχι για δικαστική χρήση ή έρευνα χωρίς επιβεβαίωση.
Η υπόθεση της δολοφονίας του Charlie Kirk δείχνει πόσο εύκολα η εικόνα μπορεί να γίνει αντικείμενο εικασίας — και πώς η ανάγκη του κοινού για απαντήσεις μπορεί να ωθήσει σε παραπληροφόρηση. Στο τέλος, η αλήθεια απαιτεί υπομονή, ακρίβεια και σεβασμό προς την πραγματικότητα — όχι να γεμίσουμε θόρυβο με εικόνες που φαίνονται “καλύτερες” από όσο είναι.