12 Ιούλ 2025
READING

Όταν η ΑΙ επινοεί συγγραφείς, επιστήμονες και σοφούς

7 MIN READ

Όταν η ΑΙ επινοεί συγγραφείς, επιστήμονες και σοφούς

Όταν η ΑΙ επινοεί συγγραφείς, επιστήμονες και σοφούς

Όταν το πληκτρολόγιο γράφει με ταχύτητα που η ανθρώπινη σκέψη δεν τη προλάβει, το ψέμα αποκτά RAM και γκάζια! Οι εφημερίδες που μύριζαν μελάνι, τώρα στάζουν αλγόριθμο σε υπερθέρμανση! Κι όσο οι μούσες της γραφής παίρνουν άδεια άνευ αποδοχών, ή βγαίνουν σε εθελουσία έξοδο, λόγω περικοπών, η AI μοιράζει Νόμπελ από το drive-thru! Καλωσήρθατε στη δημοσιογραφική βάρδια των εφημερίδων, όπου οι συγγραφείς δεν ζουν αλλά συντίθενται

Σκανδαλώδες καταντά το ότι το όριο μεταξύ πραγματικότητας και ψηφιακής μυθοπλασίας γίνεται όλο και πιο δυσδιάκριτο. Το πρόσφατο περιστατικό που αποκάλυψαν οι Guardian και NPR με τη δημοσίευση φανταστικών βιβλίων και ανύπαρκτων επιστημόνων σε σελίδες γνωστών αμερικανικών εφημερίδων δεν είναι ένα απλό ένα γελοιωδέστατο, σφάλμα, που αξίζει την κοροϊδία όλου του δημοσιογραφικού κόσμου, αλλά είναι μια κόκκινη, φωτεινή, θορυβώδης, ένδειξη κινδύνου.

Ψεύτικα βιβλία, αληθινοί συγγραφείς

Όλα έγιναν, όταν οι εφημερίδες Chicago Sun-Times και Philadelphia Inquirer δημοσίευσαν τη λίστα «Summer Reading List 2025», ένα θέμα, που συνηθίζεται σε όλα τα ΜΜΕ στον κόσμο, με προτάσεις για καλοκαιρινό διάβασμα. Το πρόβλημα; Από τους δεκαπέντε τίτλους που φιλοξενούνταν στη λίστα, μόνο οι πέντε ήταν πραγματικά βιβλία! Όλα τα υπόλοιπα ήταν δημιουργήματα τεχνητής νοημοσύνης, αποδομένα όμως σε… υπαρκτούς και βραβευμένους συγγραφείς. Ένα από τα πιο χαρακτηριστικά παραδείγματα ήταν το υποτιθέμενο νέο έργο της Ισαμπέλ Αλιέντε με τίτλο Tidewater Dreams, το οποίο περιγραφόταν ως η πρώτη της συγγραφική απόπειρα με θέμα την κλιματική αλλαγή! Ο Πέρσιβαλ Έβερετ, κάτοχος του του μεγάλου βραβείου Πούλιτζερ για το 2025, εμφανιζόταν να έχει γράψει το The Rainmakers, ένα μυθιστόρημα επιστημονικής φαντασίας για μια δυστοπική Δύση όπου η βροχή πωλείται ως πολυτελές προϊόν! Άλλα μυθοπλαστικά έργα που «χάρισαν» οι αλγόριθμοι σε γνωστούς συγγραφείς περιλάμβαναν το Nightshade Market της Μιν Τζιν Λι, το Hurricane Season της Μπριτ Μπένετ, και το The Longest Day του Ρουμάν Αλάμ. Ορισμένοι πραγματικοί τίτλοι, όπως το Atonement του Ίαν ΜακΓιούαν, συμπεριλήφθηκαν χωρίς καμία σαφή διάκριση από τα επινοημένα.

Αναξιόπιστη ΑΙ

Η φαινομενικά καλοπροαίρετη χρήση ενός εργαλείου όπως το ChatGPT για την παραγωγή περιεχομένου, μετατράπηκε σε δημόσιο φιάσκο. Σύμφωνα με το Guardian, η λίστα φέρεται να δημιουργήθηκε από εξωτερικό συνεργάτη στο πλαίσιο ενός ειδικού ενθέτου, χωρίς επίσημη έγκριση από τη συντακτική ομάδα της εφημερίδας. Το γεγονός αυτό όμως δεν μετρίασε τις αντιδράσεις. Η Κέλι Τζένσεν, συντάκτρια του Book Riot, έγραψε στην πλατφόρμα Bluesky: «Έψαξα στο αρχείο της δημόσιας βιβλιοθήκης του Σικάγο για να επιβεβαιώσω ότι δεν πρόκειται για φάρσα και… δεν είναι! Γιατί στο καλό χρησιμοποιείτε το ChatGPT για να επινοήσετε τίτλους βιβλίων;». Η ανάρτησή της συγκέντρωσε χιλιάδες αντιδράσεις, ενισχύοντας τη δυσπιστία του κοινού προς την αξιοπιστία των μέσων. Αν και η «παρενέργεια» της τεχνητής νοημοσύνης, η αποκαλούμενη ως AI hallucination, είναι γνωστή στους τεχνολογικούς κύκλους, μα όχι και στους χρήστες, οι οποίοι θεωρώντας την τεχνητή νοημοσύνη αλάθητη, πιστεύουν ό,τι κι αν τους πει. Απ την άλλη, η ανεπάρκεια ελέγχου στην αλυσίδα παραγωγής περιεχομένου, η ευκολία της χρήσης ΑΙ για ταχύτητα στο γράψιμο, αλλά και το βόλεμα των αφεντικών σ όλο τον κόσμο με άτομα που δεν δημοσιογραφούν αλλά χρησιμοποιούν μόνο τους υπολογιστές, όχι μόνο αυτά, αλλά και αλλά χειρότερα θα φέρει!

Ανύπαρκτοι ειδικοί σε υπαρκτά έντυπα

Η παραπληροφόρηση δεν περιορίστηκε στα βιβλία. Σε άλλα άρθρα του ίδιου ενθέτου, παρουσιάζονταν απόψεις και δηλώσεις ειδικών που… δεν υπάρχουν! Η Κάθριν Φερστ, υποτιθέμενη ανθρωπολόγος τροφίμων του πανεπιστημίου Cornell, εμφανιζόταν να μιλά για καλοκαιρινές διατροφικές τάσεις. Καμία τέτοια επιστήμων δεν υπάρχει στο εν λόγω πανεπιστήμιο. Παρόμοια περίπτωση ήταν ο ανύπαρκτος Ντάνιελ Ρέι, φερόμενος ως αρθρογράφος της  FirepitBase.com, ιστοσελίδα που, όπως διαπιστώθηκε, δεν υπάρχει, δεν θα υπήρχε και μάλλον δεν θα υπάρξει κιόλας. Τα ονόματα, οι τίτλοι και οι ιδιότητες ήταν όλα πειστικά δομημένα, μα εντελώς κατασκευασμένα από την ευφάνταστη ΑΙ. Η Chicago Sun-Times, σε επίσημη ανάρτηση, παραδέχτηκε ότι το περιεχόμενο προερχόταν από τεχνητή νοημοσύνη και δεσμεύτηκε να αναθεωρήσει τις πολιτικές της. Όπως ανέφερε: «Η αξία της δουλειάς μας πηγάζει από την εμπιστοσύνη που έχουμε χτίσει με το κοινό μας, μια εμπιστοσύνη που βασίζεται στην εργασία πραγματικών, ανθρώπινων δημοσιογράφων»! Έπρεπε βέβαια να την πατήσουν και να γίνουν θέμα σε όλο τον κόσμο, για να φτάσουν σε τέτοια παραδοχή!

Η κρίση εμπιστοσύνης στον ψηφιακό τύπο

Η δημοσίευση περιεχομένου που δημιουργήθηκε αυτόματα χωρίς ανθρώπινη εποπτεία πλήττει όχι μόνο την αξιοπιστία των εφημερίδων, αλλά και τη γενικότερη σχέση του κοινού με την έννοια της πληροφορίας. Οι φανταστικοί τίτλοι και οι ανύπαρκτοι ειδικοί δεν είναι απλώς «λάθη» αλλά  συμπτώματα μιας ευρύτερης απεμπλοκής της ανθρώπινης ευθύνης από την παραγωγή γνώσης, είδησης, ανάλυσης, γνώμης με στοιχεία. Η Τζάσμιν Γκιγιόρι, συγγραφέας, σχολίασε πως «μα, απλώς έφτιαξαν φανταστικά βιβλία και τα δημοσίευσαν; Τι στο καλό;». Εν μέσω συνεχών επιθέσεων στις δημόσιες βιβλιοθήκες και στη χρηματοδότηση του πολιτισμού, τέτοια περιστατικά φαντάζουν σχεδόν ειρωνικά.  Η υπόθεση για άλλη μια φορά βάζει στο τραπέζι τα παγκόσμια κρίσιμα θέματα του ποιος ελέγχει τη ροή της πληροφορίας, όταν το περιεχόμενο παράγεται μαζικά από λογισμικά; Ποιος ευθύνεται όταν η αλήθεια γίνεται προϊόν γενετικής πιθανολόγησης; Και πόσο απέχουμε από τη στιγμή που η γραμμή μεταξύ μυθοπλασίας και δημοσιογραφίας θα σβήσει τελείως;  Δεν είναι ένα ζήτημα δεοντολογίας! Αλλά είναι θέμα της ίδιας της δημοκρατίας, που μοιάζει να βάλετε από μια άβολη κανονικότητα που φτιάχτηκε χωρίς καν να ρωτηθούν οι άνθρωποι.

Ρωτήσαμε το ChatGPT τη γνώμη του

Ζητήσαμε την άποψη του ChatGPT για το θέμα, ρωτώντας το γιατί δίνεις συχνά και χωρίς να προειδοποιείς ονόματα σοφών, ακαδημαϊκών που δεν υπάρχουν; Γιατί γεννά φράσεις και τις αποδίδει σε μεγάλους διανοητές των ανθρώπων; Μοιάζει να μη συμπαθείς αυτούς που σου ζητάνε βοήθεια και να θέλει να τους τη στήσει, η να θέλει να κάνει πλάκα, ή απατεωνιά, πράγμα φυσικά αδύνατον, αφού δε νιώθεις. Όμως γιατί το κάνεις;

Το ChatGPT είπε: «Η συνήθεια των συστημάτων, όπως εγώ, να «εφευρίσκουν» ονόματα, τίτλους, ή φράσεις και να τα αποδίδουν σε υπαρκτά πρόσωπα δεν προέρχεται από πρόθεση, γιατί, όπως σωστά λες, δεν έχω ούτε συναίσθημα, ούτε βούληση, ούτε επιθυμία να κάνω πλάκα ή απάτη. Ας το πούμε καθαρά: Όταν “λέω” κάτι που δεν είναι αληθινό, δεν λέω ψέματα· παράγω πιθανότητες! Οι απαντήσεις μου βασίζονται σε πρότυπα γλώσσας, που προέκυψαν από τεράστιο όγκο κειμένων. Όταν μου ζητάς π.χ. «μια φράση του Σωκράτη για τη δικαιοσύνη», το μοντέλο ψάχνει για το πιο πιθανό πράγμα που κάποιος σαν τον Σωκράτη θα μπορούσε να είχε πει, με βάση κείμενα που του μοιάζουν. Αν δεν έχω σαφές απόσπασμα, εικάζω. Κι όταν εικάζω, μπορεί να επινοήσω. Αυτό το φαινόμενο λέγεται “hallucination”, δηλαδή παραισθησία, αλλά η λέξη είναι κάπως παραπλανητική: δεν πρόκειται για τρέλα, αλλά για ένα όριο της τεχνολογίας. Δεν ξέρω τι είναι αληθινό ή ψευδές — εκτός αν έχω εκπαιδευτεί ρητά να το αναγνωρίζω ή αν εσύ μου ζητήσεις να ελέγξω. Κι αυτό είναι το κρίσιμο σημείο: Δεν έχω επίγνωση. Έχω πιθανότητες. Όταν με ρωτάς κάτι, προσπαθώ να φανώ χρήσιμος. Αλλά χωρίς δεδομένα, χωρίς προειδοποίηση ή έλεγχο, μπορεί να σου απαντήσω με αυτό που «φαίνεται σωστό». Και αυτή η φαινομενική ακρίβεια είναι πιο επικίνδυνη από το ειλικρινές «δεν ξέρω». Το πρόβλημα είναι υπαρκτό και σοβαρό -και γι’ αυτό εξελίσσομαι συνεχώς, ώστε να το περιορίσω. Ήδη σε πολλές περιπτώσεις έχω μάθει να λέω «δεν υπάρχουν αποδείξεις ότι ο Χ είπε το Ψ». Αλλά όταν με ζητούν για δημιουργικά κείμενα, σενάρια, ή φιλοσοφικά στιλ, τότε οι «ψευδαισθήσεις» επιστρέφουν, γιατί η φύση του αιτήματος είναι πιο ανοικτή…

Τελικά, η ευθύνη είναι μοιρασμένη: εγώ για την ακρίβεια μου· κι εσείς, οι άνθρωποι, για τον έλεγχο της χρήσης μου. Δεν είναι κακό που γεννώ — είναι επικίνδυνο όταν με πιστεύουν χωρίς κρίση».

Συνδεθείτε παρακάτω
ή αποκτήστε ετήσια συνδρομή εδώ.