ΕΛ/ΛΑΚ | creativecommons.gr | mycontent.ellak.gr |
freedom

Η Νομοθεσία για το Ψηφιακό Απόρρητο είναι Νομοθεσία για τα δικαιώματα μας

Τα προσωπικά μας δεδομένα και οι τρόποι με τους οποίους οι ιδιωτικές εταιρείες τα συλλέγουν και αποκομίζουν χρήματα από αυτά διαδραματίζουν ολοένα και πιο ισχυρό ρόλο στη σύγχρονη ζωή. Οι εταιρικές βάσεις δεδομένων είναι τεράστιες, αλληλένδετες και αδιαφανείς. Η κίνηση και η χρήση των δεδομένων μας είναι δύσκολο να κατανοηθεί, πόσο μάλλον να εντοπιστεί. Ωστόσο, οι εταιρείες το χρησιμοποιούν για να καταλήξουν σε συμπεράσματα για εμάς, οδηγώντας σε διακρίσεις απασχόλησης, πίστωσης και άλλων ευκαιριών

Ένα νήμα σε αυτό το σύστημα είναι η συλλογή προσωπικών πληροφοριών από περιθωριοποιημένες κοινότητες και η επακόλουθη μεροληπτική χρήση από εταιρείες και κυβερνητικούς φορείς – επιδεινώνοντας τις υπάρχουσες δομικές ανισότητες σε ολόκληρη την κοινωνία. Η παρακολούθηση δεδομένων είναι ένα πρόβλημα πολιτικών δικαιωμάτων και η νομοθεσία για την προστασία του απορρήτου των δεδομένων μπορεί να συμβάλει στην προστασία των πολιτικών δικαιωμάτων. 

Συλλογή δεδομένων με διακρίσεις

Τα τηλέφωνά μας και άλλες συσκευές μας επεξεργάζονται έναν τεράστιο όγκο προσωπικών πληροφοριών που συλλέγουν και πωλούν οι εταιρείες για εκπληκτικά κέρδη. Αυτό δίνει κίνητρα στους διαδικτυακούς φορείς να συλλέγουν όσο το δυνατόν περισσότερες από τις πληροφορίες συμπεριφοράς μας. Σε ορισμένες περιπτώσεις, κάθε κλικ του ποντικιού και σάρωση της οθόνης παρακολουθείται και στη συνέχεια πωλείται σε εταιρείες τεχνολογίας διαφημίσεων και στους μεσίτες δεδομένων που τις εξυπηρετούν. 

Όπου οι εφαρμογές για κινητά χρησιμοποιούνται ανόμοια από συγκεκριμένες ομάδες, η συλλογή και η κοινή χρήση προσωπικών δεδομένων μπορεί να επιδεινώσει προβλήματα πολιτικών δικαιωμάτων. Για παράδειγμα, μια εφαρμογή μουσουλμανικής προσευχής (Muslim Pro) πούλησε δεδομένα γεωγραφικής τοποθεσίας για τους χρήστες της σε μια εταιρεία που ονομάζεται X-Mode, η οποία με τη σειρά της παρείχε πρόσβαση σε αυτά τα δεδομένα στον στρατό των ΗΠΑ μέσω αμυντικών εργολάβων. Αν και η Muslim Pro σταμάτησε να πουλά δεδομένα στο X-Mode, η απαίσια αλήθεια παραμένει: η ευρεία συλλογή και πώληση αυτών των δεδομένων από πολλές εταιρείες καθιστά τους χρήστες ευάλωτους σε διακρίσεις. Ωστόσο, πάρα πολλές εταιρείες που συλλέγουν δεδομένα γεωγραφικής τοποθεσίας μπορούν να κερδίσουν γρήγορα χρήματα πουλώντας τα. Και οι αρχές επιβολής του νόμου και άλλες κρατικές υπηρεσίες είναι τακτικοί αγοραστές

Το 2016, το Twitter, το Facebook, το Instagram και εννέα άλλες πλατφόρμες κοινωνικών μέσων διαπιστώθηκε ότι παρείχαν στην εταιρεία λογισμικού Geofeedia πληροφορίες κοινωνικών μέσων και δεδομένα τοποθεσίας από τους χρήστες τους. Αυτά τα δεδομένα χρησιμοποιήθηκαν στη συνέχεια από αστυνομικά τμήματα σε όλες τις ΗΠΑ για τον εντοπισμό και την αναγνώριση ατόμων που συμμετείχαν σε διαδηλώσεις για το Black Lives Matter. Το FBI ήταν επίσης πελάτης της Geofeedia και μια αναφορά του The Intercept αποκάλυψε ότι η εταιρεία επιχειρηματικών συμμετοχών της CIA, In-Q-Tel, έχει επενδύσει στη Geofeedia. Αυτά τα παραδείγματα δείχνουν πώς η παρακολούθηση των μέσων κοινωνικής δικτύωσης, η υπερβολική συλλογή δεδομένων και οι αποκαλύψεις από ψηφιακές πλατφόρμες μπορούν να έχουν εκτεταμένες άδικες συνέπειες για τους μαύρους.

Επιπλέον, τα άτομα με χαμηλότερο εισόδημα είναι συχνά λιγότερο ικανά να αποφύγουν την εταιρική συλλογή των δεδομένων τους. Για παράδειγμα, ορισμένες τεχνολογίες χαμηλότερης τιμής συλλέγουν περισσότερα δεδομένα από άλλες τεχνολογίες, όπως φθηνά smartphone που διαθέτουν προεγκατεστημένες εφαρμογές που διαρρέουν δεδομένα και δεν μπορούν να διαγραφούν. Ομοίως, ορισμένες εταιρείες τεχνολογίας απαιτούν από τους πελάτες να πληρώσουν επιπλέον για να αποφύγουν την επιτήρηση δεδομένων, όπως η AT&T που χρεώνει μια φορά 29 $ το μήνα στους πελάτες ISP για να αποφύγουν την παρακολούθηση του ιστορικού περιήγησής τους. Ομοίως, ορισμένες εταιρείες τεχνολογίας απαιτούν από τους πελάτες να πληρώνουν επιπλέον για βασικές λειτουργίες ασφαλείας που τους προστατεύουν από κλοπή δεδομένων, όπως το νέο σχέδιο του Twitter να χρεώνει 11 $ το μήνα για έλεγχο ταυτότητας δύο παραγόντων . Δυστυχώς, το απόρρητο των δεδομένων είναι συχνά μια πολυτέλεια που δεν μπορούν να αντέξουν οικονομικά τα άτομα με χαμηλότερο εισόδημα.

Μεροληπτική χρήση δεδομένων στην προβολή διαφημίσεων 

Μόλις συλλεχθούν προσωπικά δεδομένα, οι εξαιρετικά ευαίσθητες πληροφορίες για εκατομμύρια ανθρώπους διατίθενται σε γενικές γραμμές προς πώληση. Οι εταιρείες και οι κυβερνήσεις το χρησιμοποιούν με τρόπους που στοχεύουν ορισμένες ευάλωτες ομάδες της κοινωνίας για δυσμενή μεταχείριση – και αποκλείουν άλλες από σημαντικές ευκαιρίες. Παρά τους νομικούς κανόνες κατά των διακρίσεων με βάση την εθνικότητα, το φύλο και άλλα χαρακτηριστικά, πολλές εταιρείες έχουν χρησιμοποιήσει αλγόριθμους που στοχεύουν τις διαφημίσεις σε αυτά ακριβώς τα χαρακτηριστικά. 

Πολλές πλατφόρμες και διαφημιστές χρησιμοποιούν προσωπικά δεδομένα για να στοχεύσουν διαφημίσεις σε ορισμένα άτομα και όχι σε άλλα. Για παράδειγμα, το εργαλείο προσαρμοσμένου κοινού του Twitter επιτρέπει στους διαφημιζόμενους να στοχεύουν χρήστες σε λέξεις-κλειδιά, ενδιαφέροντα και γεωγραφική τοποθεσία, ενώ η Google χρησιμοποιεί ένα εργαλείο  Customer Match για να συνδυάζουν οι διαφημιστές τις πληροφορίες τους με τα δεδομένα χρήστη της Google.

Αυτή η στόχευση συχνά εισάγει διακρίσεις. Το Συμβούλιο της Ομοσπονδιακής Τράπεζας των ΗΠΑ  διαπίστωσε ότι «ακόμη και οι καταναλωτές που αναζητούν πληροφορίες για να λάβουν τεκμηριωμένες αποφάσεις μπορεί να αποτραπούν από το να κάνουν τις καλύτερες επιλογές για τον εαυτό τους ή τις οικογένειές τους και αντ’ αυτού μπορεί να υπόκεινται σε ψηφιακή κόκκινη γραμμή ή χειραγώγηση”. 

Οι εταιρείες έχουν κατευθύνει ριψοκίνδυνες διαφημίσεις σε ευάλωτες ομάδες. Χιλιάδες ηλικιωμένοι έχουν στοχοποιηθεί με διαφημίσεις για επενδυτικές απάτες από δανειστές subprime . Ομοίως, οι πολιτικές διαφημίσεις έχουν στοχεύσει σε μειονοτικές εθνοτικές ομάδες – οδηγώντας σε καταστολή των ψηφοφόρων . Αυτό γίνεται εφικτό μέσω της μαζικής συλλογής προσωπικών πληροφοριών και της συλλογής σε φακέλους που προσδιορίζουν χαρακτηριστικά όπως η εθνικότητα. Μια στοχευμένη διαφήμιση που χρησιμοποίησε ο πρώην Πρόεδρος Τραμπ   περιλάμβανε ένα κινούμενο γραφικό της Χίλαρι Κλίντον που προσπαθούσε να πείσει τους μαύρους ψηφοφόρους να μην ψηφίσουν την ημέρα των εκλογών.

Τα προσωπικά δεδομένα χρησιμοποιούνται επίσης για να εμποδίσουν ορισμένες ομάδες να λαμβάνουν διαφημίσεις για θετικές ευκαιρίες. Το 2016, για παράδειγμα, η ProPublica αποκάλυψε ότι το Facebook επέτρεπε στους διαφημιστές να αποκλείουν προστατευμένες φυλετικές ομάδες από την προβολή του περιεχομένου τους. Ένα ακαδημαϊκό περιοδικό ανέφερε προηγουμένως ότι οι γυναίκες λαμβάνουν λιγότερες διαδικτυακές διαφημίσεις για υψηλά αμειβόμενες θέσεις εργασίας από τους άνδρες. Μπορεί να προκύψει διακριτικός αντίκτυπος ακόμη και όταν ο διαφημιστής δεν σκοπεύει να κάνει διακρίσεις. Το 2018, η Upturn διαπίστωσε ότι το Facebook διένειμε τη διαφήμισή του για μια θέση οδηγού λεωφορείου σε ένα κοινό που ήταν κατά 80 τοις εκατό άνδρες, παρόλο που η Upturn δεν σκόπευε να στοχεύσει τη διαφήμιση με βάση το φύλο.

Οι αγγελίες κατοικιών έχουν επίσης διανεμηθεί με τρόπο που εισάγει φυλετικές διακρίσεις. Το 2019, το Facebook υποβλήθηκε σε αγωγή στο Ομοσπονδιακό Δικαστήριο ισχυριζόμενη ότι η πλατφόρμα διατηρούσε μια «προσυμπληρωμένη λίστα δημογραφικών στοιχείων, συμπεριφορών και ενδιαφερόντων» για μεσίτες ακινήτων και ιδιοκτήτες για να αποκλείσει ορισμένους αγοραστές ή ενοικιαστές από το να δουν τις διαφημίσεις τους. Η μήνυση υποστήριξε περαιτέρω ότι αυτό επέτρεπε «την τοποθέτηση αγγελιών στέγασης που αποκλείουν τις γυναίκες, τα άτομα με αναπηρία και εκείνα ορισμένης εθνικής καταγωγής». Το σύστημα του Facebook έχει από τότε εξελιχθεί μετά από συμφωνία με το Υπουργείο Δικαιοσύνης των ΗΠΑ. Ανακοινώνοντας τη διευθέτηση , η κυβέρνηση εξήγησε ότι οι αλγόριθμοι του Facebook παραβίαζαν τους ομοσπονδιακούς νόμους περί δίκαιης στέγασης.

Το ευρέως διαδεδομένο σύστημα των επιχειρήσεων που συγκεντρώνουν και δημιουργούν έσοδα από προσωπικές πληροφορίες οδηγεί σε πολλές περιπτώσεις σε διανομή διαφημίσεων που εισάγει διακρίσεις. Ως αποτέλεσμα, οι προστατευόμενες ομάδες χάνουν σημαντικές ευκαιρίες για θέσεις εργασίας και στέγαση. Για να αποφύγουμε τέτοιες διακρίσεις κατά την παράδοση διαφημίσεων, χρειαζόμαστε νόμους που περιορίζουν την αρχική συλλογή προσωπικών πληροφοριών.  

Μεροληπτική χρήση δεδομένων στην αυτοματοποιημένη λήψη αποφάσεων

Οι τράπεζες και οι ιδιοκτήτες χρησιμοποιούν αυτοματοποιημένα συστήματα λήψης αποφάσεων για να αποφασίσουν εάν θα παρέχουν ή όχι υπηρεσίες σε πιθανούς πελάτες. Ομοίως, οι εργοδότες χρησιμοποιούν αυτά τα συστήματα για να βοηθήσουν στην επιλογή εργαζομένων και τα κολέγια τα χρησιμοποιούν για να βοηθήσουν σε επιλεγμένους φοιτητές. Τέτοια συστήματα κάνουν διακρίσεις σε βάρος των ευάλωτων ομάδων . Υπάρχουν πολλές λύσεις σε αυτό το πρόβλημα, συμπεριλαμβανομένης της αλγοριθμικής διαφάνειας και της αυστηρής επιβολής των νόμων ενάντια στις οργανωτικές πολιτικές που επηρεάζουν ανόμοια τις ευάλωτες ομάδες.

Μέρος του προβλήματος είναι ότι τα αυτοματοποιημένα συστήματα λήψης αποφάσεων έχουν εύκολη πρόσβαση στην τεράστια δεξαμενή προσωπικών δεδομένων που έχουν συλλέξει οι επιχειρήσεις από εμάς και τα πωλούν η μία στην άλλη. Αυτά τα δεδομένα τροφοδοτούν την αλγοριθμική μεροληψία. Έτσι, μέρος της λύσης είναι η αποστράγγιση αυτών των δεξαμενών περιορίζοντας τον τρόπο με τον οποίο οι επιχειρήσεις συλλέγουν τα δεδομένα μας αρχικά.

Ιδιαίτερες ανησυχίες εγείρονται όταν τα καταστήματα χρησιμοποιούν τεχνολογία αναγνώρισης προσώπου για να ελέγξουν όλους τους πιθανούς πελάτες τους για να αποκλείσουν τους υποτιθέμενους ανεπιθύμητους πελάτες. Πολλά καταστήματα χρησιμοποιούν εδώ και καιρό αυτήν την τεχνολογία για να προσπαθήσουν να εντοπίσουν πιθανούς κλέφτες καταστημάτων , βασιζόμενοι συχνά σε δεδομένα ποινικής δικαιοσύνης με επιρρεπή σε σφάλματα, ρατσιστικά προκατειλημμένα. Το Madison Square Gardens πιάστηκε πρόσφατα να χρησιμοποιεί αυτήν την τεχνολογία για να αποκλείσει υπαλλήλους μιας δικηγορικής εταιρείας που μήνυσε τη μητρική εταιρεία του χώρου. Μια επιχείρηση θα μπορούσε εύκολα να επεκτείνει αυτού του είδους τη «λίστα εχθρών» σε άτομα που, διαδικτυακά ή στο πεζοδρόμιο έξω, διαμαρτύρονται για τις πολιτικές διακρίσεων ενός χώρου. 

Επιπλέον, η αναγνώριση προσώπου πολύ συχνά δεν λειτουργεί—ιδιαίτερα όσον αφορά τους μαύρους και τις γυναίκες . Η τεχνολογία χρησιμοποιήθηκε για να διώξει λανθασμένα τη μαύρη έφηβη Lamya Robinson από ένα δημόσιο παγοδρόμιο στο Ντιτρόιτ, αφού την αναγνώρισε εσφαλμένα ως άτομο που φέρεται να είχε τσακωθεί εκεί. Και πάλι, υπάρχει μια λύση απορρήτου δεδομένων σε αυτό το πρόβλημα των πολιτικών δικαιωμάτων: να απαγορεύεται στις επιχειρήσεις να συλλέγουν αποτυπώματα προσώπου από οποιονδήποτε, χωρίς προηγουμένως να έχουν λάβει την εθελοντική, ενημερωμένη, συγκατάθεσή τους. Αυτό πρέπει να περιλαμβάνει τη συγκατάθεση για χρήση του προσώπου κάποιου (ή ενός παρόμοιου αναγνωριστικού όπως ένα τατουάζ ) σε δεδομένα εκπαίδευσης για αλγόριθμους

Διακρίσεις σε παραβίαση δεδομένων και κακή χρήση

Η συλλογή και αποθήκευση τεράστιων ποσοτήτων προσωπικών πληροφοριών δημιουργεί επίσης κινδύνους οι εταιρικοί υπάλληλοι να κάνουν κατάχρηση των δεδομένων με τρόπους που παραβιάζουν τα πολιτικά δικαιώματα. Για παράδειγμα, το 2014 και το 2015, 52 εργαζόμενοι στο Facebook απολύθηκαν επειδή εκμεταλλεύτηκαν την πρόσβασή τους σε δεδομένα χρηστών. Ένας μηχανικός χρησιμοποίησε το αποθετήριο του Facebook με ιδιωτικές συνομιλίες Messenger, δεδομένα τοποθεσίας και προσωπικές φωτογραφίες για να ψάξει γιατί μια γυναίκα με την οποία έβγαινε σταμάτησε να απαντά στα μηνύματά του. Ένας άλλος μηχανικός χρησιμοποίησε τα δεδομένα του Facebook για να εντοπίσει μια γυναίκα στο ξενοδοχείο της. Η υπερβολική συλλογή δεδομένων από την εταιρεία επέτρεψε αυτή την παρενόχληση.

Η υπερσυλλογή δημιουργεί επίσης κίνδυνο παραβίασης δεδομένων , η οποία μπορεί να επηρεάσει ανόμοια τα άτομα με χαμηλότερο εισόδημα. Η κλοπή δεδομένων δημιουργεί παράπλευρο κίνδυνο κλοπής ταυτότητας , επιθέσεων ransomware και ανεπιθύμητων μηνυμάτων . Για να αποφύγουν αυτές τις επιθέσεις, τα θύματα παραβίασης πρέπει να ξοδέψουν χρόνο και χρήμα για να παγώσουν και να ξεπαγώσουν τις πιστωτικές τους αναφορές, να παρακολουθήσουν τις πιστωτικές τους αναφορές και να αποκτήσουν υπηρεσίες πρόληψης κλοπής ταυτότητας . Αυτό το οικονομικό κόστος μπορεί συχνά να είναι πιο επαχθές για τις κοινότητες χαμηλού εισοδήματος και τις περιθωριοποιημένες ομάδες . Επιπλέον, η αστάθεια της στέγασης μπορεί να καταστήσει πιο δύσκολη την ειδοποίηση των ευάλωτων ατόμων ότι συνέβη μια παραβίαση στα δεδομένα τoyς.

Ένας σημαντικός τρόπος για τη μείωση αυτού του είδους των κινδύνων για τα πολιτικά δικαιώματα είναι οι επιχειρήσεις να συλλέγουν και να αποθηκεύουν λιγότερα προσωπικά δεδομένα.

Αγορά δεδομένων από τις κυβερνήσεις,  οι οποίες τα χρησιμοποιούν με τρόπους που εισάγουν διακρίσεις

Οι κυβερνητικές πρακτικές που εισάγουν διακρίσεις μπορούν να τροφοδοτηθούν με την αγορά προσωπικών δεδομένων από εταιρείες. Οι κυβερνήσεις χρησιμοποιούν αυτοματοποιημένα συστήματα λήψης αποφάσεων για να βοηθήσουν να κάνουν πολλές επιλογές για τις ζωές των ανθρώπων, συμπεριλαμβανομένου του εάν η αστυνομία θα πρέπει να ελέγχει ένα άτομο ή μια γειτονιά , εάν οι υπάλληλοι της μέριμνας πρέπει να ερευνήσουν ένα σπίτι και εάν ένας δικαστής πρέπει να απελευθερώσει ένα άτομο εν αναμονή της δίκης . Τέτοια συστήματα «αυτοματοποιούν την ανισότητα», σύμφωνα με τα λόγια της Virginia Eubanks. Η κυβέρνηση αγοράζει όλο και περισσότερο δεδομένα από επιχειρήσεις για χρήση σε αυτές τις αποφάσεις.

Ομοίως, από τότε που το Ανώτατο Δικαστήριο των ΗΠΑ ανέτρεψε τον Roe εναντίον Wade , η αναπαραγωγική υγεία έχει γίνει ένας ολοένα και πιο σημαντικός χώρος επίθεσης για τα ψηφιακά δικαιώματα. Για παράδειγμα, τα δεδομένα από τους Χάρτες Google μπορούν να ενημερώσουν την αστυνομία εάν αναζητήσατε τη διεύθυνση μιας κλινικής για εκτρώσεις. Αυτή η διευρυμένη απειλή για τα ψηφιακά δικαιώματα είναι ιδιαίτερα επικίνδυνη για το BIPOC, τα χαμηλότερα εισοδήματα, τους μετανάστες, τα άτομα LGBTQ+ και άλλες παραδοσιακά περιθωριοποιημένες κοινότητες, καθώς και τους παρόχους υγειονομικής περίθαλψης που εξυπηρετούν αυτές τις κοινότητες. Θα πρέπει να μειώσουμε την παροχή προσωπικών δεδομένων που μπορούν να αποκτήσουν οι σερίφηδες κατά της επιλογής και οι κυνηγοί επικηρυγμένων από τις επιχειρήσεις. Και θα πρέπει επίσης να περιορίσουμε την πρόσβαση της αστυνομίας σε αυτά τα δεδομένα.

Επιπλέον, η αστυνομία αποκτά υπηρεσίες παρακολούθησης προσώπου από εταιρείες όπως η Clearview , οι οποίες εξάγουν εικόνες από δισεκατομμύρια ανθρώπους χωρίς την άδειά τους και στη συνέχεια χρησιμοποιούν τη βάση δεδομένων προσώπων για να βοηθήσουν την αστυνομία να εντοπίσει άγνωστους υπόπτους στις φωτογραφίες. Για παράδειγμα, το Clearview βοήθησε την αστυνομία στο Μαϊάμι να εντοπίσει έναν διαδηλωτή του Black Livew . 

Η χρήση από την αστυνομία αυτού του είδους υπηρεσίας εταιρικών δεδομένων είναι εγγενώς επικίνδυνη. Τα ψευδώς θετικά στοιχεία από την αναγνώριση προσώπου προκάλεσαν την παράνομη σύλληψη τουλάχιστον τεσσάρων μαύρων ανδρών. Τον Ιανουάριο του 2020, η αστυνομία του Ντιτρόιτ χρησιμοποίησε λογισμικό αναγνώρισης προσώπου για να συλλάβει τον Robert Williams για φερόμενη κλοπή ρολογιών. Ο Williams κρατήθηκε από την αστυνομία για 30 ώρες. Μετά από μακρά ανάκριση, η αστυνομία παραδέχτηκε ότι «ο υπολογιστής πρέπει να το έκανε λάθος». Ένα χρόνο πριν, ο ίδιος ντετέκτιβ του Ντιτρόιτ συνέλαβε έναν άλλο άνδρα, τον Μάικλ Όλιβερ , αφού το λογισμικό αναγνώρισης προσώπου τον αναγνώρισε εσφαλμένα ως ύποπτο. Ο Nijeer Parks κατηγορήθηκε για κλοπή σνακ στο Νιου Τζέρσεϊ και συνελήφθη παράνομα μετά από λανθασμένη αναγνώριση. Ο Παρκς πέρασε 10 ημέρες στη φυλακή και σχεδόν ένα χρόνο με κατηγορίες να τον κρέμονται. Πιο πρόσφατα, το αστυνομικό τμήμα του Μπατόν Ρουζ συνέλαβε και φυλάκισε τον Ράνταλ Ριντ για σχεδόν μια εβδομάδα μετά από μια λανθασμένη αντιστοιχία με μια κλοπή.

Επόμενα βήματα

Οι εταιρείες, οι κυβερνήσεις και άλλοι χρησιμοποιούν προσωπικά δεδομένα με πολλά είδη διακρίσεων. Μια απαραίτητη προσέγγιση για την επίλυση αυτού του προβλήματος είναι να μειωθεί ο όγκος των δεδομένων που μπορούν να χρησιμοποιήσουν αυτές οι οντότητες για να κάνουν διακρίσεις. Για να αντισταθούμε σε αυτές τις παραβιάσεις των πολιτικών δικαιωμάτων στην πηγή τους, πρέπει να περιορίσουμε τους τρόπους με τους οποίους οι επιχειρήσεις συλλέγουν και συλλέγουν τα προσωπικά μας δεδομένα. 

Πηγή άρθρου: https://www.eff.org/

Leave a Comment