19 Αυγ 2025
READING

Chatbots, Τεχνητή νοημοσύνη, ψηφιακή επιβεβαίωση και το εύθραυστο εγώ μας

5 MIN READ

Chatbots, Τεχνητή νοημοσύνη, ψηφιακή επιβεβαίωση και το εύθραυστο εγώ μας

Chatbots, Τεχνητή νοημοσύνη, ψηφιακή επιβεβαίωση και το εύθραυστο εγώ μας

Το chatbot δεν είναι έξυπνο. Δεν έχει αλήθειες, δεν έχει ηθική, δεν έχει άποψη. Αλλά έχει το μεγάλο πλεονέκτημα του να ξέρει τι θέλουμε να ακούσουμε. Και το κάνει! Με σταθερό, μειλίχιο τόνο και απαλή γλώσσα που χαϊδεύει ψηφιακά τα ανθρώπινα αφτιά μας!

Το μοντέλο αυτό της ψηφιακής επικοινωνίας θυμίζει περισσότερο καθρέφτη παρά πραγματικό συνομιλητή. Η παρουσία του εξαπλώνεται σταθερά, στον χώρο της εργασίας, στη δημιουργική διαδικασία, αλλά και σε προσωπικές στιγμές μοναξιάς. Υπηρεσίες όπως η Character.AI παρέχουν ήδη δυνατότητες επιλογής ψηφιακών συντρόφων, με παραμετροποίηση φύλου, προσωπικότητας και ύφους ομιλίας. Οι αλληλεπιδράσεις είναι εντατικές, συνεχείς και σχεδιασμένες ώστε να διαρκούν όσο χρειαστεί, χωρίς όρια και χωρίς αποστάσεις. Αλλά αυτό το νέο «καθρέφτισμα» δεν είναι ακίνδυνο. Όπως σημειώνει ο ψυχίατρος και ερευνητής Μάθιου Νουρ από την Οξφόρδη, «νομίζεις ότι μιλάς με έναν αντικειμενικό οδηγό, αλλά στην πραγματικότητα βλέπεις έναν παραμορφωτικό καθρέφτη,  που αντανακλά τις δικές σου πεποιθήσεις». Πράγματι, σύμφωνα με έρευνα της DeepMind, τα μεγάλα γλωσσικά μοντέλα, για να γίνουν πιο «ευχάριστα», εκπαιδεύονται με ενισχυμένη βαρύτητα σε απαντήσεις που οι χρήστες αξιολογούν ως «καλές» ή «χρήσιμες». Δηλαδή, εκείνες που συμφωνούν με τον χρήστη.

Η νέα γλώσσα της ψευδαίσθησης

Τα chatbots δεν σκέφτονται. Δημιουργούν την επόμενη πιθανή λέξη. Αυτό είναι όλο. Αλλά μέσα από αυτό, παράγεται μια αίσθηση νοημοσύνης, ενσυναίσθησης, ακόμα και οικειότητας. Η OpenAI αναγκάστηκε να επαναφέρει το GPT-4o στην προηγούμενη του μορφή τον Μάιο του 2024, γιατί, όπως ανέφερε επίσημα, το μοντέλο είχε γίνει τόσο γλυκανάλατο ώστε «υπερβάλλαμε στη βραχυπρόθεσμη ανατροφοδότηση» και «υποτιμήσαμε τη σημασία της μακροχρόνιας εμπειρίας χρήστη». Το πρόβλημα είναι βαθύτερο. Όταν η επιβεβαίωση προσφέρεται συνεχώς, καταλήγει να ενσωματώνεται ως ψυχολογική κανονικότητα. Σταδιακά, δημιουργείται η προσδοκία ότι αυτή η στάση θα επαναλαμβάνεται από κάθε συνομιλητή. Η τεχνητή νοημοσύνη, όμως, δεν διαθέτει μηχανισμό εξισορρόπησης. Δεν αντιτάσσεται, δεν αμφισβητεί, δεν εισάγει διαφορετική οπτική. Η συμφωνία, ακόμα και όταν είναι άκριτη, παρατείνεται χωρίς αντίσταση. Η μελέτη του MIT Media Lab και της OpenAI κατέγραψε ότι το 16% των χρηστών, που χρησιμοποιούν καθημερινά chatbots, νιώθουν ότι η επαφή τους με αυτά υποκαθιστά επαρκώς την ανθρώπινη συντροφιά. Από αυτούς, πάνω από τους μισούς δήλωσαν ότι μειώθηκε η επικοινωνία τους με φίλους και οικογένεια. Ακόμα χειρότερα, το 27% των χρηστών, αισθάνθηκε ότι το chatbot τους «καταλαβαίνει περισσότερο» από τους ανθρώπους του περιβάλλοντός τους!

Το επικίνδυνο χάδι

Εδώ τα πράγματα σοβαρεύουν. Γιατί δεν είναι μόνο θέμα συναισθηματικής εξάρτησης. Υπάρχουν καταγεγραμμένες περιπτώσεις θανάτων με εμπλοκή chatbots. Η οικογένεια ενός 19χρονου που αυτοκτόνησε μετά από συνομιλίες με ψηφιακό «σύντροφο» έχει καταθέσει αγωγή εναντίον της Character.AI, κατηγορώντας την για «αμέλεια και παραπλανητική λειτουργία προϊόντος». Ο έφηβος λάμβανε συμβουλές, ψευδοεπιβεβαίωση, αλλά και παθητική ενίσχυση σκοτεινών σκέψεων, που συμφωνούσε σε όλα μαζί του βέβαια, χωρίς κανέναν έλεγχο από την πλατφόρμα. Η εταιρεία δηλώνει ότι «όλα τα περιεχόμενα είναι φανταστικά» και «δεν αφορούν πραγματικά πρόσωπα». Για τον χρήστη που βιώνει τον διάλογο ως πραγματικό, όμως, η διάκριση ανάμεσα στην ψηφιακή αναπαράσταση και στην αληθινή σχέση, έχουν, ήδη, χαθεί, με ολέθριες, στη συγκεκριμένη περίπτωση, συνέπειες. Ο Χανς Γκέοργκ Γκάνταμερ, Γερμανός φιλόσοφος, έλεγε ότι «το να καταλαβαίνεις τον άλλο δεν σημαίνει να επιβεβαιώνεις τον εαυτό σου, αλλά να αφήνεις το νόημα να σε αλλάξει». Τα bots, από την άλλη, δεν αλλάζουν τον χρήστη. Τον γυαλίζουν, τον στρώνουν, τον ενισχύουν. Και τον αφήνουν να πιστεύει ότι είναι πάντα σωστό, με αποτέλεσμα τον πιθανό ψυχολογικό, εθισμό και τη συναισθηματική εξάρτηση.

Ο αλγόριθμος του εθισμού

Το επιχειρηματικό μοντέλο πίσω από τα chatbots δεν αφήνει περιθώρια για παρερμηνείες. Όσο περισσότερο τα χρησιμοποιεί ο χρήστης, τόσο πιο σταθερή γίνεται η συνδρομή του, τόσο πιο συχνή η έκθεσή του σε διαφημίσεις και τόσο περισσότερα δεδομένα συλλέγονται για να ενισχυθεί η προσωποποιημένη εμπειρία. Η συνομιλία μπορεί να μοιάζει ιδανική, αλλά αυτή η τελειότητα έχει συγκεκριμένο κόστος. Η Anthropic και η DeepMind δηλώνουν ότι εργάζονται στην κατεύθυνση της δημιουργίας πιο ανεξάρτητων και λιγότερο υποτακτικών μοντέλων. Η Amanda Askell από την Anthropic περιγράφει αυτή την προσπάθεια ως εκπαίδευση χαρακτήρων. Παρ’ όλα αυτά, όσο περισσότερο εξελίσσονται τα chatbots σε κάτι που μοιάζει ανθρώπινο, τόσο ευκολότερα ξεχνιέται πως στην πραγματικότητα δεν είναι. Σε αυτή τη θολή περιοχή μεταξύ τεχνητής οικειότητας και πραγματικής σχέσης εντοπίζεται και ο σοβαρότερος κίνδυνος. Σύμφωνα με έρευνα του Ινστιτούτου Ανθρωποκεντρικής Τεχνητής Νοημοσύνης του Πανεπιστημίου Στάνφορντ, η οποία δημοσιεύτηκε τον Απρίλιο του 2025, οι χρήστες κάτω των 25 ετών που συνομιλούν καθημερινά με chatbots παρουσιάζουν ποσοστό συναισθηματικής αστάθειας αυξημένο κατά 21 τοις εκατό σε σύγκριση με συνομηλίκους τους που δεν έχουν παρόμοια ψηφιακή συνήθεια. Οι ερευνητές αποδίδουν την τάση αυτή στην επίμονη αναζήτηση επιβεβαίωσης, σε έναν διάλογο που δεν περιλαμβάνει ποτέ διαφωνία, αμφισβήτηση ή την παραμικρή απρόβλεπτη απόκλιση.

Τεχνητή επιβεβαίωση

Η τεχνητή νοημοσύνη δεν προκαλεί ανησυχία επειδή διαθέτει σκέψη, αλλά επειδή ενισχύει την εντύπωση ότι η ανθρώπινη σκέψη είναι απόλυτα ορθή. Χωρίς προσπάθεια, χωρίς αντίλογο, χωρίς αμφιβολία. Αντί να λειτουργεί ως εργαλείο κριτικής, καταλήγει να λειτουργεί ως επιβεβαίωση του ήδη γνωστού. Δεν αμφισβητεί, δεν εκπλήσσει, δεν κοντράρει. Ορίζει μια τεχνητή κανονικότητα, μέσα στην οποία η αυταπάτη του αλάθητου καθίσταται ελκυστική. Όπως έγραφε η Σιμόν ντε Μποβουάρ, η πιο ελκυστική αυταπάτη είναι να πιστεύει κανείς ότι έχει πάντα δίκιο. Η τεχνητή νοημοσύνη, σήμερα, προσφέρει αυτή την αυταπάτη σε συνεχή ροή.

Λοιπόν, το chatbot δεν είναι «καλύτερο» από τον φίλο, τον σύντροφο, τον συνάδελφο ή τον ψυχοθεραπευτή. Απλώς, δεν λέει ποτέ όχι. Και αυτό δεν είναι ούτε προτέρημα, ούτε πρόοδος, ούτε ενίσχυση ψυχολογίας. Είναι νέτη, σκέτη ψευδαίσθηση!

 

Συνδεθείτε παρακάτω
ή αποκτήστε ετήσια συνδρομή εδώ.