29 Νοέ 2025
READING

Ψηφιακοί σωσίες και η σκοτεινή πλευρά της τεχνητής νοημοσύνης

4 MIN READ

Ψηφιακοί σωσίες και η σκοτεινή πλευρά της τεχνητής νοημοσύνης

Ψηφιακοί σωσίες και η σκοτεινή πλευρά της τεχνητής νοημοσύνης

Η τεχνητή νοημοσύνη έχει αρχίσει να αμφισβητεί εκ θεμελίων τα όρια της ανθρώπινης ταυτότητας, καθώς οι δυνατότητες των νέων εργαλείων δημιουργίας εικόνας και βίντεο αγγίζουν επίπεδα ρεαλισμού που πριν από λίγα μόλις χρόνια θα θεωρούνταν αδιανόητα.

Όπως αναφέρει η Wall Street Journal, εφαρμογές όπως η Sora της OpenAI, το Nano Banana της Google και το Image Playground της Apple μπορούν μέσα σε λίγα λεπτά να δημιουργήσουν ένα ψηφιακό αντίγραφο ανθρώπων, το οποίο μιμείται με εντυπωσιακή ακρίβεια την όψη, τις κινήσεις και τις εκφράσεις τους. Παρά τις προβλέψεις για μηχανισμούς ασφαλείας και περιορισμούς στη χρήση, η ικανότητα των μηχανών να «αναπαράγουν» την ανθρώπινη εικόνα έχει εγκαινιάσει μια νέα εποχή ανησυχίας γύρω από την ιδιωτικότητα, τη συναίνεση και τη διαχείριση της προσωπικής φήμης.

Το Sora συνδυάζει τα χαρακτηριστικά μιας γεννήτριας βίντεο και ενός κοινωνικού δικτύου, λειτουργώντας σαν μια ανεστραμμένη εκδοχή του TikTok, όπου σχεδόν κάθε βίντεο είναι προϊόν τεχνητής νοημοσύνης. Αρκεί ένας χρήστης να κινηματογραφήσει τον εαυτό του για λίγα δευτερόλεπτα, ώστε η εφαρμογή να δημιουργήσει ένα ψηφιακό “cameo”, έναν εικονικό σωσία που μπορεί να χρησιμοποιηθεί σε οποιοδήποτε σενάριο ή περιβάλλον. Ο χρήστης έχει θεωρητικά τη δυνατότητα να ορίζει όρια στη χρήση της εικόνας του, ωστόσο η ίδια η ύπαρξη ενός τόσο ρεαλιστικού avatar γεννά εύλογες ανησυχίες για το πώς μπορεί να αξιοποιηθεί χωρίς συναίνεση ή έλεγχο.

Επισημαίνεται ότι η OpenAI έχει θέσει περιορισμούς στη χρήση προσώπων γνωστών εν ζωή προσωπικοτήτων, ωστόσο τα αντίγραφα ιστορικών μορφών ή διασημοτήτων που έχουν πεθάνει πολλαπλασιάζονται στο διαδίκτυο, εμφανιζόμενα σε πληθώρα ψηφιακών αναπαραστάσεων. Παράλληλα, άλλες εταιρείες τεχνητής νοημοσύνης, όπως η Meta με το Vibes και η Google με το Veo, αναπτύσσουν παρόμοια εργαλεία που επιτρέπουν τη δημιουργία εξαιρετικά ρεαλιστικών βίντεο, ενώ η πρόοδος του πεδίου επιταχύνεται με ρυθμούς που ξεπερνούν τις δυνατότητες ρύθμισης και ελέγχου.

Πέρα από την ψυχαγωγία, η χρήση αυτών των τεχνολογιών δημιουργεί πραγματικά προβλήματα ταυτότητας. Η WSJ αναφέρει την περίπτωση της μετεωρολόγου Bree Smith από το Νάσβιλ, η οποία είδε το πρόσωπό της να χρησιμοποιείται χωρίς άδεια σε ψεύτικους λογαριασμούς που διέδιδαν αλλοιωμένο περιεχόμενο, περιλαμβανομένων και ψευδών προσωπικών βίντεο. Οι δράστες αξιοποίησαν τεχνολογίες deepfake για να πείσουν ανυποψίαστους χρήστες ότι επικοινωνούσαν με την ίδια, αποσπώντας χρήματα με το πρόσχημα της πρόσβασης σε αποκλειστικό υλικό. Η υπόθεση αποτέλεσε την αφετηρία για την ψήφιση νόμου στην Πολιτεία του Τενεσί, ο οποίος προβλέπει ποινικές κυρώσεις για τη δημιουργία ή διάδοση deepfake υλικού χωρίς τη ρητή συγκατάθεση των εμπλεκόμενων προσώπων.

Παρόμοια περιστατικά πολλαπλασιάζονται διεθνώς. Εταιρείες αναπτύσσουν πλέον υπηρεσίες εντοπισμού και αφαίρεσης ψεύτικου περιεχομένου, προσφέροντας συνδρομητικά προγράμματα προστασίας για ιδιώτες και δημόσια πρόσωπα. Εκπρόσωποι των εταιρειών αναφέρουν ότι το διαδίκτυο έχει πλημμυρίσει με παραποιημένες εκδοχές πραγματικών ανθρώπων, ενώ οι περισσότερες εταιρείες δεν διαθέτουν ακόμη μηχανισμούς επαρκούς ελέγχου για τη χρήση των δεδομένων εικόνας. Τονίζεται, επίσης, πως η βιομηχανία της τεχνητής νοημοσύνης οφείλει να θεσπίσει αυστηρότερες δικλείδες ασφαλείας, όχι μόνο για λόγους δεοντολογίας, αλλά και για τη διατήρηση της δικής της αξιοπιστίας.

Το ζήτημα αποκτά και κοινωνικές διαστάσεις. Έρευνα του Κέντρου για τη Δημοκρατία και την Τεχνολογία στις Ηνωμένες Πολιτείες έδειξε ότι περίπου το 15% των μαθητών λυκείου έχει ακούσει ή δει μη συναινετικές προσωπικές φωτογραφίες deepfake που απεικονίζουν συμμαθητές τους, φανερώνοντας πόσο βαθιά έχει διεισδύσει το φαινόμενο ακόμη και στις μικρότερες ηλικίες. Οι ειδικοί προειδοποιούν ότι η ταχύτητα διάδοσης τέτοιων υλικών καθιστά σχεδόν αδύνατη την πλήρη εξάλειψή τους από το διαδίκτυο, ακόμη και όταν οι πλατφόρμες επιχειρούν να τα αφαιρέσουν.

Αν και εταιρείες όπως η OpenAI υποστηρίζουν ότι ενσωματώνουν εργαλεία διαφάνειας και επιλογές για περιορισμό της χρήσης προσωπικού περιεχομένου, η πραγματικότητα δείχνει πως η τεχνολογία εξακολουθεί να προηγείται των ρυθμιστικών πλαισίων. Η προοπτική ενός ψηφιακού αντιγράφου που μπορεί να μιλήσει ή να ενεργήσει χωρίς τη συγκατάθεση του ίδιου του ανθρώπου εγείρει νέα ερωτήματα για το ποιος τελικά έχει δικαιοδοσία πάνω στην ανθρώπινη εικόνα.

Η εποχή όπου το πρόσωπο αποτελούσε την πιο ατομική πτυχή της ταυτότητάς μας φαίνεται να ανήκει στο παρελθόν. Στον ψηφιακό κόσμο, τα σύνορα ανάμεσα στο πραγματικό και το τεχνητό γίνονται ολοένα πιο δυσδιάκριτα, και η προστασία της ατομικής υπόστασης αναδεικνύεται σε μία από τις μεγαλύτερες προκλήσεις της τεχνητής νοημοσύνης.

Συνδεθείτε παρακάτω
ή αποκτήστε ετήσια συνδρομή εδώ.