ΕΛ/ΛΑΚ | creativecommons.gr | mycontent.ellak.gr |
freedom

Τεχνητή νοημοσύνη και αστυνόμευση: Κατά της μαζικής παρακολούθησης το Ευρωπαϊκό Κοινοβούλιο

  • Τα συστήματα τεχνητής νοημοσύνης θα πρέπει να βρίσκονται υπό ανθρώπινη εποπτεία και οι αλγόριθμοι θα πρέπει να είναι «ανοιχτοί»
  • Απαγόρευση των ιδιωτικών βάσεων δεδομένων αναγνώρισης προσώπων, της συμπεριφορικής αστυνόμευσης και της βαθμολόγησης των πολιτών
  • Η αυτοματοποιημένη αναγνώριση δεν θα πρέπει να χρησιμοποιείται για τον έλεγχο των συνόρων ή σε δημόσιους χώρους

Για την καταπολέμηση των διακρίσεων και τη διασφάλιση της ιδιωτικής ζωής, οι ευρωβουλευτές ζητούν ισχυρές δικλείδες ασφαλείας για τα χρήση τεχνητής νοημοσύνης από τις αρχές.

Σε έκθεση που εγκρίθηκε με 377 ψήφους υπέρ, 248 κατά και 62 αποχές, οι ευρωβουλευτές επισημαίνουν τον κίνδυνο αλγοριθμικής μεροληψίας στις εφαρμογές τεχνητής νοημοσύνης και τονίζουν ότι απαιτείται τόσο ανθρώπινη εποπτεία όσο και ισχυρές νομοθετικές ρυθμίσεις για την πρόληψη των διακρίσεων που μπορεί να προκληθούν από την χρήση της τεχνητής νοημοσύνης, ιδίως στο πλαίσιο της επιβολής του νόμου και της διέλευσης συνόρων. Οι ευρωβουλευτές υποστηρίζουν ότι οι τελικές αποφάσεις θα πρέπει να λαμβάνονται πάντοτε από ανθρώπους και ότι τα άτομα που παρακολουθούνται από συστήματα που λειτουργούν με τεχνητή νοημοσύνη θα πρέπει να έχουν πρόσβαση σε νομική προστασία.

Ανησυχίες σχετικά με τις διακρίσεις

Σύμφωνα με το κείμενο, τα συστήματα ταυτοποίησης που βασίζονται στην τεχνητή νοημοσύνη έχουν ήδη αναγνωρίσει εσφαλμένα μειονοτικές εθνοτικές ομάδες, άτομα ΛΟΑΔΜ, ηλικιωμένους και γυναίκες με μεγαλύτερη συχνότητα, γεγονός που προκαλεί ανησυχία ειδικά σε ό,τι αφορά την επιβολή του νόμου και τη δικαιοσύνη. Οι ευρωβουλευτές επιμένουν ότι προκειμένου να διασφαλιστεί ο σεβασμός των θεμελιωδών δικαιωμάτων κατά τη χρήση αυτών των τεχνολογιών, οι αλγόριθμοι θα πρέπει να είναι διαφανείς, ανιχνεύσιμοι και επαρκώς τεκμηριωμένοι. Όπου είναι δυνατόν, οι δημόσιες αρχές θα πρέπει να χρησιμοποιούν λογισμικό ανοικτού κώδικα προκειμένου να υπάρχει περισσότερη διαφάνεια.

Αμφιλεγόμενες τεχνολογίες

Για τον σεβασμό της ιδιωτικής ζωής και της ανθρώπινης αξιοπρέπειας, οι ευρωβουλευτές ζητούν την καθολική απαγόρευση της αυτοματοποιημένης αναγνώρισης ατόμων σε δημόσιους χώρους, επισημαίνοντας ότι οι πολίτες θα πρέπει να παρακολουθούνται μόνο όταν είναι ύποπτοι για κάποιο έγκλημα. Το Κοινοβούλιο ζητά να απαγορευτεί η χρήση ιδιωτικών βάσεων δεδομένων αναγνώρισης προσώπου (όπως το σύστημα «Clearview», το οποίο ήδη χρησιμοποιείται) και η προληπτική αστυνόμευση με βάση συμπεριφορικά δεδομένα.

Οι ευρωβουλευτές ζητούν την απαγόρευση της μαζικής βαθμολόγησης ατόμων, θεωρώντας ότι κάθε μορφή κανονιστικής βαθμολόγησης πολιτών σε μεγάλη κλίμακα από τις δημόσιες αρχές, ιδίως στον τομέα της επιβολής του νόμου και της δικαιοσύνης, οδηγεί σε απώλεια αυτονομίας, θέτει σε κίνδυνο την αρχή της απαγόρευσης των διακρίσεων και δεν συνάδει με τα θεμελιώδη δικαιώματα.

Τέλος, το Κοινοβούλιο εκφράζει την ανησυχία του για τη χρήση βιομετρικών δεδομένων για την εξ αποστάσεως ταυτοποίηση προσώπων. Για παράδειγμα, οι θύρες συνοριακού ελέγχου που χρησιμοποιούν αυτοματοποιημένη αναγνώριση και το σχέδιο iBorderCtrl» (ένα «έξυπνο σύστημα ανίχνευσης ψεύδους» για την είσοδο τουριστών στην ΕΕ) θα πρέπει να καταργηθούν, όπως υποστηρίζουν οι Ευρωβουλευτές, οι οποίοι παροτρύνουν την Επιτροπή να κινήσει διαδικασίες επί παραβάσει κατά των κρατών μελών, εάν χρειαστεί.

 Δηλώσεις

Ο εισηγητής Petar Vitanov (Σοσιαλιστές, Βουλγαρία) δήλωσε: «Στέλνουμε ένα σαφές μήνυμα ότι δεν υπάρχουν θεμελιώδη δικαιώματα ‘υπό προϋποθέσεις’. Για πρώτη φορά, ζητούμε μορατόριουμ στην ανάπτυξη συστημάτων αναγνώρισης προσώπου για σκοπούς επιβολής του νόμου, καθώς η τεχνολογία έχει αποδειχθεί αναποτελεσματική και συχνά οδηγεί σε διακρίσεις. Είμαστε κάθετα αντίθετοι στην προληπτική αστυνόμευση με βάση τη χρήση τεχνητής νοημοσύνης, καθώς και σε κάθε επεξεργασία βιομετρικών δεδομένων που οδηγεί σε μαζική παρακολούθηση. Αυτό είναι ένα τεράστιο κέρδος για όλους τους Ευρωπαίους πολίτες»

Πηγή άρθρου: https://www.lawspot.gr

Leave a Comment