Όποια κι αν είναι η άποψή σας για τις υποσχέσεις ή τους κινδύνους της τεχνητής νοημοσύνης, γίνεται ολοένα και πιο αδύνατο να αγνοήσουμε ότι αυτά τα εργαλεία μαστίζονται από προφανή κενά ασφαλείας. Από την έκθεση δεδομένων χρηστών έως τη διευκόλυνση επιθέσεων, από την υπονόμευση της ακεραιότητας της πληροφορίας έως τη δημιουργία ευπαθειών στην αλυσίδα εφοδιασμού, τα εργαλεία AI στηρίζονται και ταυτόχρονα υπονομεύονται από αμφίβολες πρακτικές ασφαλείας. Αυτό έχει σοβαρές επιπτώσεις για την εμπιστευτικότητα των δεδομένων μας, για την ακεραιότητα της πληροφορίας και για την πρόσβαση και διαθεσιμότητα των συστημάτων — όλα προβλήματα που μια προσέγγιση σεβασμού των ανθρωπίνων δικαιωμάτων μπορεί να βοηθήσει να επιλύσει.

Γιατί πρέπει να μιλήσουμε για το AI και την ψηφιακή ασφάλεια;
Είναι σημαντικό να σημειωθεί ότι όταν σήμερα μιλάμε για «προηγμένα εργαλεία AI» όπως chatbot, γεννήτριες εικόνων και «AI agents», αυτό που πραγματικά εννοούμε είναι συστήματα που βασίζονται σε «μεγάλα γλωσσικά μοντέλα» (LLMs). Τα LLMs είναι ένας τύπος μοντέλου μηχανικής μάθησης που εκπαιδεύονται σε τεράστιες ποσότητες δεδομένων, συμπεριλαμβανομένων κειμένων, εικόνων και βίντεο, και μπορούν να παράγουν περιεχόμενο ως απόκριση σε προτροπές και να εκτελούν σύνθετες εργασίες με ποικίλο βαθμό αξιοπιστίας.
Για να αναλύσουμε τους συγκεκριμένους κινδύνους ασφαλείας που συνδέονται με τα LLMs, είναι χρήσιμο να χρησιμοποιήσουμε την τριάδα εμπιστευτικότητας-ακεραιότητας-διαθεσιμότητας (CIA triad), ένα ευρέως χρησιμοποιούμενο μοντέλο που καθοδηγεί τον τρόπο με τον οποίο οι οργανισμοί διαχειρίζονται την ασφάλεια δεδομένων. Όταν εφαρμόζεται στα LLMs, αυτό το πλαίσιο μας βοηθά να κατανοήσουμε τους κινδύνους ασφαλείας και να δείξουμε γιατί οι διασφαλίσεις ανθρωπίνων δικαιωμάτων είναι απαραίτητες για την μείωση αυτών των κινδύνων. Για παράδειγμα, τι συμβαίνει με την εμπιστευτικότητα των δεδομένων που εισάγετε σε ένα chatbot όταν συμβαίνει παραβίαση δεδομένων; Αλλά επίσης μας επιτρέπει να εξετάσουμε πώς τα LLMs θέτουν σε κίνδυνο την ψηφιακή ασφάλεια σε ευρύτερο και συστημικό επίπεδο.
Πώς μπορεί το AI να υπονομεύσει την εμπιστευτικότητα;
Σύμφωνα με το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας (NIST) των ΗΠΑ, η εμπιστευτικότητα σημαίνει τη «διατήρηση εξουσιοδοτημένων περιορισμών στην πρόσβαση και αποκάλυψη πληροφοριών, συμπεριλαμβανομένων μέσων προστασίας της προσωπικής ιδιωτικότητας και των ιδιόκτητων πληροφοριών». Με άλλα λόγια, κανένας μη εξουσιοδοτημένος δεν θα πρέπει να μπορεί να έχει πρόσβαση στις πληροφορίες σας. Αυτό είναι ιδιαίτερα σημαντικό δεδομένου του τρόπου με τον οποίο οι άνθρωποι χρησιμοποιούν εργαλεία βασισμένα σε LLM για τα πάντα, από θεραπεία και ιατρικές συμβουλές έως συντροφικότητα, ενώ επιχειρήσεις, κυβερνήσεις και ΜΚΟ ενσωματώνουν αυτά τα εργαλεία σε ροές εργασίας που διαχειρίζονται ευαίσθητα δεδομένα.
Τα κενά ασφαλείας που μαστίζουν τα εργαλεία βασισμένα σε LLM είναι συχνά αρκετά βασικά. Για παράδειγμα, ενώ καθιερωμένες εταιρείες όπως η Microsoft και η Google προσφέρουν έλεγχο ταυτότητας πολλαπλών παραγόντων (MFA), πολλές δημοφιλείς εφαρμογές AI έχουν περιορισμένη προστασία λογαριασμού, που σημαίνει ότι οι λογαριασμοί μπορούν να παραβιαστούν εύκολα από επιτιθέμενους. Οι παραβιάσεις δεδομένων, είτε τυχαίες είτε εσκεμμένες, είναι επίσης συχνό φαινόμενο. Τον Ιανουάριο του 2025, η Wiz Research αποκάλυψε μια δημόσια προσβάσιμη βάση δεδομένων που ανήκε στην κινεζική εταιρεία DeepSeek, η οποία περιείχε ιστορικό συνομιλιών, μυστικά κλειδιά, λεπτομέρειες backend και άλλες άκρως ευαίσθητες πληροφορίες. Και μόλις τρεις μήνες πριν, ένας επιτιθέμενος χρησιμοποίησε έναν πάροχο analytics τρίτων για να παραβιάσει την OpenAI, διαρρέοντας προσωπικές πληροφορίες όπως ονόματα, διευθύνσεις email, δεδομένα τοποθεσίας, λειτουργικό σύστημα και πληροφορίες περιηγητή.
Ακόμα και εργαλεία που υπόσχονται να ενισχύσουν την ασφάλεια μπορεί στην πραγματικότητα να την υπονομεύουν. Ερευνητές ασφαλείας στην Koi ανακάλυψαν πρόσφατα πώς αρκετές επεκτάσεις VPN περιηγητή της Urban Cyber Security Inc., πολλές από τις οποίες υπόσχονταν «προστασία AI» για ευαίσθητα δεδομένα, στην πραγματικότητα συλλέγονταν δεδομένα για όλες τις προτροπές που εισάγονταν σε LLMs, τις απαντήσεις που λαμβάνονταν, καθώς και χρονικές σημάνσεις, μεταδεδομένα και πληροφορίες για τα εργαλεία AI που χρησιμοποιούσαν οκτώ εκατομμύρια άνθρωποι. Σύμφωνα με την Koi, η Urban Cyber Security Inc. στη συνέχεια μοιραζόταν αυτές τις πληροφορίες με μεσίτες δεδομένων (data brokers).
Ποιοι είναι οι ευρύτεροι κίνδυνοι για την ιδιωτικότητα που σχετίζονται με το AI;
Οι New York Times μηνύουν προς το παρόν την OpenAI για παραβίαση πνευματικών δικαιωμάτων, ισχυριζόμενοι ότι οι χρήστες χρησιμοποιούν το ChatGPT για να παρακάμψουν το paywall. Για να το αποδείξουν, ζητούν πρόσβαση σε πάνω από 20 εκατομμύρια ιδιωτικές συνομιλίες ChatGPT. Όποια κι αν είναι τα βάσιμα της υπόθεσης, η παροχή πρόσβασης σε αυτές τις συνομιλίες θα αποτελούσε τεράστια παραβίαση ιδιωτικότητας — και δεν είναι καν μεμονωμένη περίπτωση, καθώς οι αιτήσεις για διάθεση αρχείων συνομιλιών AI σε δικαστικές διαδικασίες γίνονται ολοένα πιο συχνές.
Ένας από τους κύριους παράγοντες κινδύνου είναι ότι η κρυπτογράφηση άκρου-σε-άκρο (E2EE) δεν αποτελεί πρότυπο, ούτε καν διαθέσιμη λειτουργία, για chatbots όπως το ChatGPT ή το Gemini. Η E2EE είναι θεμελιώδης για την προστασία των ανθρωπίνων δικαιωμάτων, συμπεριλαμβανομένης της ιδιωτικότητας. Πέρα από το πρόβλημα της μη κρυπτογράφησης των ιστορικών συνομιλιών, οι AI agents σε επίπεδο λειτουργικού συστήματος ή εφαρμογής υπονομεύουν την υπόσχεση ασφάλειας της E2EE.
Τον Απρίλιο του 2024, η Meta λάνσαρε το Meta AI chatbot στο WhatsApp, το οποίο χρησιμοποιεί E2EE, και δεν υπάρχει επιλογή αφαίρεσής του. Αυτό σημαίνει ότι, κατόπιν αιτήματος άλλου χρήστη και χωρίς τη συναίνεσή σας, το Meta AI μπορεί να προσπελάσει και να συνοψίσει μηνύματα μεταξύ εσάς και αυτού του χρήστη, με τις περιλήψεις να περνούν από τους διακομιστές της Meta. Όπως εξηγεί το Electronic Frontier Foundation, όταν το άτομο με το οποίο συνομιλείτε ρωτήσει το Meta AI, αυτό το μέρος της συνομιλίας δεν είναι κρυπτογραφημένο άκρου-σε-άκρο και μπορεί να χρησιμοποιηθεί για εκπαίδευση AI. Αυτό αποτελεί μεγάλο βήμα προς τη λάθος κατεύθυνση. Το Meta AI αφαιρεί την προσδοκία ιδιωτικότητας ως προεπιλογή.
Το WhatsApp ισχυρίζεται ότι αν δεν θέλετε το Meta AI να συνοψίζει τις συνομιλίες σας, αρκεί να ενεργοποιήσετε τη λειτουργία advanced chat privacy. Όμως η μεταφορά της ευθύνης στα άτομα δεν αρκεί, ειδικά επειδή αυτή η λειτουργία πρέπει να ενεργοποιηθεί χειροκίνητα για κάθε μεμονωμένη συνομιλία. Η ενσωμάτωση του Meta AI ως προεπιλογή, αραιώνοντας τις υποσχέσεις ιδιωτικότητας και ασφάλειας του WhatsApp, είναι μέρος μιας ευρύτερης τάσης επιβολής εργαλείων AI στους χρήστες με ή χωρίς τη συναίνεσή τους.
Ποιοι είναι οι κίνδυνοι των AI (διπλών) agents;
Παράλληλα με την ενσωμάτωση νέων λειτουργιών AI σε υπάρχουσες εφαρμογές, το λογισμικό «agentic AI» που λειτουργεί σε επίπεδο λειτουργικού συστήματος δημιουργεί επίσης νέους κινδύνους. Οι ενθουσιώδεις της τεχνητής νοημοσύνης εξυμνούν την ευρεία υιοθέτηση AI agents ικανών να εκτελούν εντολές για λογαριασμό μας, είτε κλείνοντας πτήσεις, είτε στέλνοντας μηνύματα σε πιθανούς ερωτικούς συντρόφους, είτε παίζοντας στο χρηματιστήριο.
Αυτό είναι αυτό που η Meredith Whittaker, πρόεδρος του Signal Foundation, αποκαλεί το «πρόβλημα αρχικών δικαιωμάτων πρόσβασης (root permission problem)», όπου η παροχή πλήρους πρόσβασης στα συστήματα και τα δεδομένα μας σε AI agents, συμπεριλαμβανομένων «αναμνήσεων» των αλληλεπιδράσεών μας, ανοίγει πλήθος ευκαιριών επίθεσης και μπορεί ακόμα να υπονομεύσει πλατφόρμες E2EE. Ο Simon Willison έχει περιγράψει αυτό το πρόβλημα ως «θανατηφόρο τρίπτυχο», όπου οι AI agents έχουν πρόσβαση σε ιδιωτικά δεδομένα, εκτίθενται σε μη αξιόπιστο περιεχόμενο και μπορούν να επικοινωνούν εξωτερικά για να μεταβιβάσουν τα δεδομένα σας. Για παράδειγμα, οι AI agents είναι ευάλωτοι σε επιθέσεις έγχυσης προτροπής (prompt injection), όπου οι επιτιθέμενοι εξαπατούν τον AI agent ώστε να κάνει κάτι που δεν είχατε πρόθεση να κάνει, όπως να εκθέσει τα στοιχεία της πιστωτικής σας κάρτας. Αυτοί οι κίνδυνοι εκδηλώνονται αυτή τη στιγμή σε πραγματικό χρόνο χάρη στο OpenClaw, ένα λογισμικό ανοιχτού κώδικα AI assistant που, όπως αποδείχθηκε, επέτρεπε σε χιλιάδες ανθρώπους να δημιουργήσουν AI agents με απογοητευτικές ρυθμίσεις ασφαλείας.
Ποιες λύσεις ασφαλείας έχουν προταθεί;
Μέχρι σήμερα, τα μέτρα ασφαλείας που έχουν εφαρμοστεί για τα εργαλεία βασισμένα σε LLM δεν έχουν συμβαδίσει με τους αυξανόμενους κινδύνους. Στην απάντησή της στους New York Times, η OpenAI ανέφερε ότι εργάζεται πάνω σε «κρυπτογράφηση στην πλευρά του πελάτη για τα μηνύματά σας στο ChatGPT» — όμως ακόμα και εδώ, η εταιρεία υπαινίσσεται την ανάπτυξη «πλήρως αυτοματοποιημένων συστημάτων ανίχνευσης ζητημάτων ασφαλείας», κάτι που μοιάζει πολύ με σάρωση στην πλευρά του πελάτη (CSS). Η CSS, που περιλαμβάνει τη σάρωση περιεχομένου στη συσκευή του ατόμου πριν αποσταλεί μέσω κρυπτογραφημένης πλατφόρμας μηνυμάτων, είναι μια λύση χαμένη-χαμένη που υπονομεύει την κρυπτογράφηση, αυξάνει τον κίνδυνο επίθεσης και ανοίγει την πόρτα σε διεύρυνση του πεδίου εφαρμογής.
Αντίθετα, η κοινότητα ανοιχτού κώδικα έχει κάνει θετικά βήματα στην προτεραιότητα της εμπιστευτικότητας. Το MapleAI της OpenSecret υποστηρίζει κρυπτογραφημένο AI chatbot πολλαπλών συσκευών με E2EE, ενώ ο Moxie Marlinspike, συν-δημιουργός του πρωτοκόλλου E2EE του Signal, λάνσαρε το «Confer», έναν AI assistant ανοιχτού κώδικα που προστατεύει όλες τις προτροπές χρηστών, τις απαντήσεις και τα σχετικά δεδομένα. Όμως προς το παρόν τουλάχιστον, τέτοιες λύσεις που σέβονται τα δικαιώματα παραμένουν η εξαίρεση και όχι ο κανόνας.
Η ανεξέλεγκτη υιοθέτηση AI σε συνδυασμό με απογοητευτικά χαλαρές πρακτικές ασφαλείας απαιτεί επείγουσα δράση. Τα ζητήματα ασφαλείας που συνδέονται με προηγμένα εργαλεία AI είναι συνέπειες της σκόπιμης προτεραιότητας του κέρδους και του ανταγωνισμού έναντι της ασφάλειας των κοινοτήτων που βρίσκονται σε κίνδυνο, και δεν θα επιλυθούν από μόνα τους. Αν και θα θέλαμε να δούμε τις εταιρείες να αυτοδιορθώνονται, οι κυβερνήσεις δεν πρέπει να διστάζουν να απαιτήσουν από αυτές τις εταιρείες να δώσουν προτεραιότητα στην ασφάλεια και τα ανθρώπινα δικαιώματα, ειδικά όταν δημόσιο χρήμα δαπανάται για την προμήθεια και ανάπτυξη εργαλείων AI «δημοσίου συμφέροντος». Στο μεταξύ, μπορούμε όλοι να επιλέξουμε να υποστηρίξουμε ανοιχτές, υπεύθυνες και σεβόμενες τα δικαιώματα εναλλακτικές λύσεις όπου αυτό είναι δυνατό.
Πηγή άρθρου: https://www.accessnow.org/
