Η πλαστοπροσωπία ως θεσμική απειλή
Η Ευρωπαϊκή Ένωση βρίσκεται αντιμέτωπη με μια νέα μορφή συστημικού κινδύνου: τη δυνατότητα δημιουργίας «πλαστών προσώπων» μέσω συστημάτων Τεχνητής Νοημοσύνης που μπορούν να μιμούνται πειστικά την ανθρώπινη ταυτότητα σε ψηφιακά περιβάλλοντα. Η τεχνολογική πρόοδος στα μεγάλα γλωσσικά μοντέλα και στα συστήματα σύνθεσης εικόνας, φωνής και βίντεο καθιστά εφικτή την παραγωγή ψηφιακών οντοτήτων που δεν διακρίνονται εύκολα από πραγματικούς ανθρώπους.
Η εξέλιξη αυτή δεν συνιστά απλώς τεχνολογική καινοτομία. Αποτελεί δομική απειλή για την εμπιστοσύνη, η οποία είναι το θεμέλιο της δημοκρατίας, της αγοράς και της κοινωνικής συνοχής. Όπως η παραχάραξη νομίσματος υπονομεύει την οικονομική σταθερότητα, έτσι και η παραχάραξη ταυτότητας διαβρώνει το οικοσύστημα της δημόσιας σφαίρας. Η δημιουργία και διακίνηση πλαστών ψηφιακών προσώπων πρέπει να αντιμετωπιστεί ως σοβαρή προσβολή του δημοσίου συμφέροντος.
Από το «παιχνίδι της μίμησης» στη βιομηχανία εξαπάτησης
Η ιδέα της μίμησης της ανθρώπινης σκέψης ανάγεται στο έργο του Alan Turing και στη γνωστή δοκιμασία που καθιερώθηκε ως Turing Test. Ωστόσο, αυτό που ξεκίνησε ως φιλοσοφικό και επιστημονικό ερώτημα έχει μετατραπεί σε βιομηχανία συστηματικής εξαπάτησης.
Ο φιλόσοφος Daniel C. Dennett προειδοποίησε ότι οι εταιρείες που δημιουργούν «πλαστά πρόσωπα» διαπράττουν μια μορφή ηθικού βανδαλισμού. Η ανθρώπινη τάση να αποδίδει προθέσεις και συνείδηση σε οντότητες που επικοινωνούν πειστικά, αυτό που ο ίδιος αποκάλεσε «προθεσιακή στάση ως εργαλείο πρόβλεψης», καθιστά τους πολίτες ευάλωτους. Σε ψηφιακά περιβάλλοντα όπου η ταυτοποίηση είναι ήδη εύθραυστη, η συστηματική εισαγωγή τεχνητών προσώπων οδηγεί σε γενικευμένη αμφιβολία για το ποιος είναι πραγματικός συνομιλητής.
Η συνέπεια είναι η διάβρωση της εμπιστοσύνης στις διαδικτυακές υπηρεσίες, στα μέσα ενημέρωσης και στη δημόσια διαβούλευση. Σε ένα τέτοιο περιβάλλον, η συναίνεση των πολιτών δεν μπορεί να θεωρείται ενημερωμένη, αλλά δυνητικά χειραγωγημένη.
Η δημοκρατία υπό πίεση
Η δημοκρατική νομιμοποίηση προϋποθέτει αυθεντικούς πολίτες που διαβουλεύονται και αποφασίζουν με βάση αξιόπιστη πληροφόρηση. Η μαζική παραγωγή ψευδών λογαριασμών, αυτόματων «προφίλ» και ψηφιακών προσωπείων που παρεμβαίνουν σε δημόσιες συζητήσεις δημιουργεί ένα περιβάλλον τεχνητής συναίνεσης ή τεχνητής πόλωσης.
Η εμπειρία από εκστρατείες παραπληροφόρησης δείχνει ότι η τεχνητή ενίσχυση περιεχομένου μέσω δικτύων διαδικτυακών ρομπότ(bots) μπορεί να αλλοιώσει τον δημόσιο διάλογο. Όταν όμως τα bots αποκτούν ανθρώπινα χαρακτηριστικά, φωνή, πρόσωπο και ιστορικό αλληλεπιδράσεων, το πρόβλημα καθίσταται ποιοτικά διαφορετικό. Δεν πρόκειται απλώς για ψευδείς ειδήσεις, αλλά για κατασκευή ψευδών υποκειμένων.
Η Ευρωπαϊκή Ένωση, η οποία έχει ήδη θεσπίσει ένα προηγμένο κανονιστικό πλαίσιο για την προστασία δεδομένων και την τεχνητή νοημοσύνη, οφείλει να αναγνωρίσει ότι η πλαστοπροσωπία από ΤΝ συνιστά απειλή για την ίδια τη δημοκρατική τάξη.
Υποχρεωτική γνωστοποίηση και τεχνικά μέτρα
Μία πρώτη θεσμική απάντηση είναι η υποχρεωτική και αδιάλειπτη γνωστοποίηση ότι ένα σύστημα είναι τεχνητό. Ο Yuval Noah Harari έχει υποστηρίξει ότι πρέπει να καταστεί υποχρεωτικό για κάθε σύστημα ΤΝ να δηλώνει σαφώς τη φύση του. Η γνωστοποίηση αυτή δεν μπορεί να περιορίζεται σε γενικούς όρους χρήσης, αλλά να ενσωματώνεται σε κάθε αλληλεπίδραση.
Παράλληλα, η τεχνολογία υδατοσήμανσης προσφέρει ένα λειτουργικό πρότυπο. Το σύστημα EURion Constellation, που χρησιμοποιείται για την προστασία τραπεζογραμματίων από αντιγραφή, αποδεικνύει ότι η πρόληψη μπορεί να ενσωματωθεί στον σχεδιασμό. Αντίστοιχα, απαιτείται η υποχρεωτική ενσωμάτωση ανιχνεύσιμων και ανθεκτικών υδατοσημάτων σε κάθε παραγόμενο περιεχόμενο από ΤΝ, σε επίπεδο μοντέλου και συσκευής.
Η νομοθεσία πρέπει να επιβάλλει σταθερή ευθύνη στους κατασκευαστές συστημάτων ΤΝ για τη δημιουργία ή διακίνηση πλαστών ψηφιακών ταυτοτήτων, χωρίς να απαιτείται απόδειξη δόλου. Η αυστηρή ευθύνη θα λειτουργήσει ως κίνητρο για την ανάπτυξη ασφαλέστερων αρχιτεκτονικών.
Ρητή απαγόρευση πλαστών λογαριασμών
Πέραν της γνωστοποίησης, η Ευρωπαϊκή Ένωση οφείλει να προχωρήσει σε ρητή απαγόρευση της δημιουργίας πλαστών λογαριασμών σε όλες τις διαδικτυακές υπηρεσίες ανεξάρτητα πως αυτοί δημιουργούνται, από υπηρεσίες παραπληροφόρησης, το οργανωμένο έγκλημα ή/και διαχειρίζονται από συστήματα ΤΝ με σκοπό την προσποίηση ανθρώπινης ταυτότητας. Εάν δεν παύσει να υπάρχει η δυνατότητα να δημιουργούνται πλαστοί λογαριασμοί δεν πρόκειται να μειωθεί η παραπληροφόρηση και οι διαδικτυακές απάτες.
Η απαγόρευση πρέπει να καλύπτει:
• τη δημιουργία λογαριασμών που εμφανίζονται ως φυσικά πρόσωπα ενώ ελέγχονται από ΤΝ
• τη μαζική παραγωγή προφίλ με πλαστές δραστηριότητες
• τη χρήση συνθετικής φωνής ή εικόνας για την προσποίηση συγκεκριμένου υπαρκτού προσώπου
Η ρύθμιση αυτή δε στρέφεται κατά της καινοτομίας, αλλά υπέρ της διαφάνειας και της λογοδοσίας. Η χρήση ΤΝ σε εξυπηρέτηση πελατών, εκπαίδευση ή διοικητικές διαδικασίες μπορεί να συνεχιστεί, εφόσον η τεχνητή φύση της είναι σαφής και δεν υφίσταται πρόθεση εξαπάτησης.
Προστασία εμπιστευτικότητας και ιδιωτικότητας
Σύμφωνα με την ανάλυση που παρουσιάστηκε στο άρθρο «Artificial Insecurity: Compromising Confidentiality» στο privacy.ellak.gr, η αδιαφανής λειτουργία συστημάτων ΤΝ εντείνει τους κινδύνους παραβίασης εμπιστευτικότητας. Η πλαστοπροσωπία επιδεινώνει το πρόβλημα, καθώς επιτρέπει την άντληση ευαίσθητων πληροφοριών μέσω κοινωνικής μηχανικής σε κλίμακα που δεν ήταν έως σήμερα εφικτή.
Η προστασία της ιδιωτικότητας δεν μπορεί να περιορίζεται στην επεξεργασία δεδομένων. Πρέπει να επεκτείνεται στην προστασία της ταυτότητας και της αυθεντικότητας των συνομιλητών. Η δημιουργία ενός ψηφιακού περιβάλλοντος όπου κάθε πολίτης θα αμφισβητεί τη γνησιότητα του συνομιλητή του οδηγεί σε γενικευμένη ανασφάλεια.
Συμπέρασμα
Η πλαστοπροσωπία από συστήματα Τεχνητής Νοημοσύνης δεν είναι τεχνική λεπτομέρεια αλλά θεμελιώδης πρόκληση για το κράτος δικαίου. Η Ευρωπαϊκή Ένωση διαθέτει την κανονιστική εμπειρία και τη θεσμική νομιμοποίηση να θεσπίσει σαφή απαγόρευση της δημιουργίας και διακίνησης πλαστών ψηφιακών προσώπων και ψευδών λογαριασμών.
Η έγκαιρη παρέμβαση θα διαφυλάξει την εμπιστοσύνη, την ιδιωτικότητα και τη δημοκρατική αυτονομία των πολιτών. Η καθυστέρηση θα επιτρέψει την κανονικοποίηση μιας πρακτικής που απειλεί να καταστήσει την ίδια την έννοια του προσώπου ρευστή στο ψηφιακό περιβάλλον.
Πηγές άρθρου:
Daniel C. Dennett, “The Problem With Counterfeit People”, τεκμηριωμένη ανάλυση για τους κινδύνους της πλαστοπροσωπίας από ΤΝ, The Atlantic, 16 Μαΐου 2023: theatlantic.com
Yuval Noah Harari, άρθρα και παρεμβάσεις για τη ρύθμιση της Τεχνητής Νοημοσύνης και την υποχρεωτική γνωστοποίηση τεχνητού περιεχομένου, The Economist, Απρίλιος 2023: economist.com
Διαδικτυακή Ανασφάλεια και Τεχνητή Νοημοσύνη: πώς τα εργαλεία AI υπονομεύουν την εμπιστευτικότητα: privacy.ellak.gr

