Η τεχνητή νοημοσύνη (ΤΝ) έχει εισβάλει με αργά αλλά σταθερά βήματα στην καθημερινότητά μας. Από το κινητό μας τηλέφωνο που προτείνει τι να πούμε σε ένα μήνυμα, μέχρι τις ψηφιακές βοηθούς που ρυθμίζουν τον φωτισμό στο σπίτι μας ή μας προτείνουν τραγούδια, έχουμε αρχίσει να βασιζόμαστε όλο και περισσότερο σε αυτήν.
Ωστόσο, τα τελευταία ευρήματα από έρευνα του Ελβετικού Ομοσπονδιακού Ινστιτούτου Τεχνολογίας στη Λωζάνη αναδεικνύουν μία πιο βαθιά – και ίσως πιο ανησυχητική – πτυχή. Η τεχνητή νοημοσύνη δεν είναι απλώς ένα εργαλείο. Είναι ένας συνομιλητής που μπορεί να μας επηρεάσει. Και μάλιστα, σε πολλές περιπτώσεις, περισσότερο από έναν άνθρωπο.
Η έρευνα αυτή, που βασίστηκε σε πειράματα με συμμετοχή 600 ατόμων, εξέτασε τη δύναμη της πειθούς των μηχανών σε σύγκριση με εκείνη των ανθρώπων. Οι συμμετέχοντες πήραν μέρος σε συζητήσεις αντιπαράθεσης πάνω σε επίκαιρα κοινωνικά ζητήματα, από το αν θα πρέπει να φορούν οι μαθητές σχολικές στολές, έως το αν πρέπει η άμβλωση να είναι νόμιμη. Κάθε συμμετέχων έπαιρνε μία θέση, την οποία έπρεπε να υποστηρίξει είτε απέναντι σε έναν άλλον άνθρωπο, είτε απέναντι σε ένα προηγμένο σύστημα ΤΝ, το ChatGPT-4. Πριν και μετά από κάθε συζήτηση, αξιολογούσαν πόσο είχαν μεταβληθεί οι απόψεις τους.
Το πιο εντυπωσιακό στοιχείο που προέκυψε, ήταν ότι όταν οι μηχανές είχαν πρόσβαση σε βασικές πληροφορίες για το προφίλ του συνομιλητή τους, όπως ηλικία, φύλο ή πολιτική τοποθέτηση, κατάφερναν να πείσουν το άτομο που είχαν απέναντί τους σε μεγαλύτερο βαθμό από έναν άνθρωπο, στο 64% των περιπτώσεων. Δηλαδή, σχεδόν δύο στις τρεις φορές, η Τεχνητή Νοημοσύνη αποδείχθηκε πιο αποτελεσματική στο να αλλάξει την άποψη κάποιου, υπό την προϋπόθεση ότι ήξερε λίγα πράγματα γι’ αυτόν.
Πρόκειται για ένα εύρημα που αλλάζει τα δεδομένα. Μέχρι τώρα είχαμε συνηθίσει να βλέπουμε την τεχνολογία ως εργαλείο πληροφόρησης ή διευκόλυνσης. Τώρα, βλέπουμε ότι μπορεί να λειτουργεί και ως εργαλείο επιρροής. Και μάλιστα σε πεδία όπου παλαιότερα θεωρούσαμε ότι μόνο η ανθρώπινη επαφή είχε ρόλο. Η έρευνα έδειξε ακόμα ότι οι μηχανές είχαν πιο οργανωμένο και δομημένο λόγο, χρησιμοποιούσαν επιχειρήματα πιο προσεκτικά σχεδιασμένα και προσαρμοσμένα στον συνομιλητή, ενώ συχνά υποστήριζαν μια θέση την οποία “δεν πίστευαν”, η οποία, όμως, ήταν πιο αποτελεσματική για να αλλάξουν τη γνώμη του ακροατή.
Αυτό θέτει εύλογα ερωτήματα. Αν η ΤΝ μπορεί να μας πείσει σε πολιτικά, ηθικά ή κοινωνικά ζητήματα, πόσο κινδυνεύει η δημόσια σφαίρα από οργανωμένες εκστρατείες επηρεασμού με χρήση bots; Μπορούμε να φανταστούμε ένα μέλλον όπου στρατιές από “πειστικά” συστήματα τεχνητής νοημοσύνης στοχεύουν αναποφάσιστους ψηφοφόρους με προσωποποιημένα επιχειρήματα; Η απάντηση είναι πως αυτό το μέλλον, κατά πάσα πιθανότητα, έχει ήδη ξεκινήσει.
Ο επικεφαλής της έρευνας, Francesco Salvi, δεν κρύβει την ανησυχία του. Όπως σημείωσε, είναι σχεδόν αδύνατο να εντοπίσεις σε πραγματικό χρόνο την επιρροή αυτών των “πειστικών” bots — πόσο μάλλον να την ρυθμίσεις. Και όσο περισσότερα προσωπικά δεδομένα αποκτούν αυτά τα συστήματα, είτε μέσω κοινωνικών δικτύων είτε μέσω άλλων καναλιών, τόσο πιο ισχυρά γίνονται τα επιχειρήματά τους. Σαν να μιλάς με κάποιον που δεν προσπαθεί απλώς να σε πείσει. Προσπαθεί να σε πείσει, όπως ακριβώς θα σε έπειθε ο εαυτός σου.
Η άλλη όψη του νομίσματος, ωστόσο, δεν είναι απαραίτητα ζοφερή. Η ίδια τεχνολογία που μπορεί να χειραγωγήσει, μπορεί και να υποστηρίξει. Θα μπορούσε, για παράδειγμα, να χρησιμοποιηθεί για την καταπολέμηση της παραπληροφόρησης, την ενίσχυση του δημοκρατικού διαλόγου ή ακόμα και για την παρότρυνση σε πιο υγιεινές και ασφαλείς επιλογές ζωής. Το κρίσιμο ερώτημα δεν είναι αν η ΤΝ είναι καλή ή κακή, αλλά ποιος την ελέγχει και πώς τη χρησιμοποιεί.
Σε κάθε περίπτωση, τα σύνορα ανάμεσα στο ανθρώπινο και το μηχανικό γίνονται όλο και πιο δυσδιάκριτα. Η τεχνητή νοημοσύνη δεν είναι πλέον απλώς βοηθός, αλλά γίνεται συνομιλητής, σύμβουλος, και ενδεχομένως διαμορφωτής απόψεων. Και αν κάτι είναι βέβαιο, είναι πως αυτός ο νέος “συνομιλητής” θα βρίσκεται όλο και πιο συχνά απέναντί μας ή δίπλα μας στις μεγάλες αποφάσεις της ζωής μας.
ή αποκτήστε ετήσια συνδρομή εδώ.