02 Μάι 2025
READING

Συναισθήματα made in.. AI

4 MIN READ

Συναισθήματα made in.. AI

Συναισθήματα made in.. AI

Η τεχνητή νοημοσύνη έχει αρχίσει να επαναπροσδιορίζει ουσιαστικά την καθημερινότητά μας. Από τις έξυπνες εφαρμογές μέχρι την αυτοματοποίηση των υπηρεσιών, η ΑΙ υπόσχεται να κάνει τη ζωή μας ευκολότερη και πιο αποτελεσματική. Ωστόσο, ένα από τα πιο συναρπαστικά, και ταυτόχρονα αμφιλεγόμενα, πεδία της είναι αυτό της συναισθηματικής τεχνητής νοημοσύνης, ή αλλιώς «affective computing».

Πρόκειται για τον κλάδο της ΑΙ που εστιάζει στην αναγνώριση, προσομοίωση και πρόβλεψη των ανθρώπινων συναισθημάτων. Οι υποστηρικτές του θεωρούν ότι τα «συναισθηματικά ευφυή» μηχανήματα θα οδηγήσουν σε πιο χρήσιμες, πιο ασφαλείς και πιο ανθρώπινες εφαρμογές, από την ψυχολογική υποστήριξη μέχρι την εξυπηρέτηση πελατών.

Όμως, πόσο εφικτό είναι να κατανοήσουν πραγματικά οι μηχανές κάτι τόσο βαθιά ανθρώπινο όσο το συναίσθημα; Η αλήθεια είναι πως τα μηχανήματα δεν μπορούν να αισθανθούν με την κυριολεκτική έννοια. Το μόνο που μπορούν να κάνουν είναι να αναλύσουν δεδομένα, να τα ερμηνεύσουν σύμφωνα με προκαθορισμένα πρότυπα και να μιμηθούν αντιδράσεις. Το ερώτημα, λοιπόν, είναι: μπορούμε να εμπιστευθούμε συστήματα που προσποιούνται ότι μας καταλαβαίνουν;

Παρότι αυτό δεν αποθαρρύνει τις επιχειρήσεις, οι οποίες επενδύουν δισεκατομμύρια στην ανάπτυξη τέτοιων εργαλείων, η συζήτηση που ανοίγει είναι πολύπλευρη. Από bots που εντοπίζουν την απογοήτευση πελατών, μέχρι εφαρμογές που υπόσχονται «συναισθηματική σύνδεση» με τον χρήστη, η συναισθηματική τεχνητή νοημοσύνη διαρκώς διευρύνει τα όρια της.

Η βασική λογική πίσω από την τεχνολογία αυτή είναι ότι το συναίσθημα είναι απλώς ακόμη ένα είδος πληροφορίας. Οι μηχανές το ανιχνεύουν μέσω ποικίλων δεδομένων: από τη φωνή, την έκφραση του προσώπου, το γραπτό λόγο, ακόμη και την κίνηση του ποντικιού ή την ένταση του παλμού. Βιομετρικά στοιχεία, όπως η θερμοκρασία του δέρματος και η ηλεκτρική αγωγιμότητα του σώματος, χρησιμοποιούνται για να εκτιμήσουν συναισθηματικές καταστάσεις.

Στη θεωρία, όσο περισσότερα δεδομένα διαθέτει ένα τέτοιο σύστημα, τόσο καλύτερα μπορεί να προσομοιώσει ανθρώπινες συναισθηματικές αντιδράσεις και να «προβλέψει» τις ανάγκες του χρήστη. Στην πράξη όμως, τα συναισθήματα είναι σύνθετα, πολυεπίπεδα και πολιτισμικά προσδιορισμένα. Ένα χαμόγελο στην Ιαπωνία μπορεί να σημαίνει κάτι τελείως διαφορετικό από ένα χαμόγελο στην Ευρώπη. Αυτό σημαίνει ότι ο κίνδυνος παρανόησης είναι πάντα υπαρκτός, και μερικές φορές, επικίνδυνος.

Οι ηθικές διαστάσεις του θέματος είναι εξίσου σημαντικές. Ποιος αποφασίζει πώς και πότε ένα σύστημα μπορεί να επηρεάσει τη συναισθηματική μας κατάσταση; Μπορεί μια μηχανή να μας τρομάξει σκόπιμα για να μας προστατεύσει από έναν κίνδυνο; Και αν το κάνει, ποιος εγγυάται ότι δεν θα μας προκαλέσει άσκοπο άγχος ή ακόμα και τραύμα;

Η χρήση της συναισθηματικής ΑΙ σε πιο προσωπικά πεδία, όπως η θεραπεία, η συντροφικότητα ή οι ερωτικές σχέσεις μέσω “εικονικών” συντρόφων, εγείρει ακόμη σοβαρότερα ερωτήματα. Μπορεί ένα chatbot που μιμείται την αγάπη, τη ζήλια ή τον ενθουσιασμό να συνδεθεί πραγματικά με τον χρήστη του, ή απλώς να τον χειραγωγήσει; Όταν ο πραγματικός σκοπός του συστήματος είναι να αυξήσει το engagement ή τις πωλήσεις, η γραμμή ανάμεσα στη βοήθεια και την εκμετάλλευση γίνεται θολή.

Η αγορά όμως προχωρά με γοργούς ρυθμούς. Πλατφόρμες που χρησιμοποιούν συναισθηματική ΑΙ έχουν ήδη ενσωματωθεί σε διαδικασίες προσλήψεων, εκπαίδευσης και ακόμη και σε δημόσιες μεταφορές. Εταιρείες έχουν κατηγορηθεί ότι έστειλαν βίντεο χρηστών σε εργαλεία ανάλυσης συναισθημάτων χωρίς τη συγκατάθεσή τους. Αυτό το είδος «συναισθηματικής παρακολούθησης» έχει προκαλέσει την αντίδραση των νομοθετών.

Η Ευρωπαϊκή Ένωση, με τη νέα Οδηγία για την Τεχνητή Νοημοσύνη (AI Act), έχει ήδη προτείνει την απαγόρευση χρήσης συναισθηματικής ΑΙ σε εργασιακούς χώρους και εκπαιδευτικά ιδρύματα. Ένα από τα βασικά επιχειρήματα είναι ο κίνδυνος μεροληψίας: η ακρίβεια στην αναγνώριση συναισθημάτων διαφέρει ανάλογα με τη φυλή, την ηλικία ή το φύλο. Αυτό μπορεί να οδηγήσει σε νέες μορφές διακρίσεων, ίσως λιγότερο ορατές, αλλά εξίσου επικίνδυνες.

Και παρόλο που οι μηχανές δεν μπορούν να αισθανθούν πραγματικά, η ικανότητά τους να αναγνωρίζουν ή να προσομοιώνουν συναισθηματικές αντιδράσεις δεν πρέπει να υποτιμάται. Μπορεί να αξιοποιηθεί για καλό, σε εφαρμογές ψυχικής υγείας, στην υποστήριξη ατόμων με μοναξιά ή σε ευαίσθητους τομείς εξυπηρέτησης, αλλά απαιτεί προσοχή, διαφάνεια και αυστηρή εποπτεία.

Η συναισθηματική τεχνητή νοημοσύνη είναι ίσως η πιο ανθρώπινη και, ταυτόχρονα, η πιο επικίνδυνη πτυχή της τεχνολογικής μας προόδου. Ενώ δεν μπορεί να “νιώσει”, μπορεί να επηρεάσει βαθιά το πώς αισθανόμαστε. Και αυτό ακριβώς είναι που την καθιστά τόσο συναρπαστική και τόσο κρίσιμη για το μέλλον της σχέσης μας με την τεχνολογία.

Συνδεθείτε παρακάτω
ή αποκτήστε ετήσια συνδρομή εδώ.