ΕΛ/ΛΑΚ | creativecommons.gr | mycontent.ellak.gr |
freedom

Η πρόταση της ΕΕ για την τεχνητή νοημοσύνη πρέπει να αποτρέψει την παρακολούθηση και τις διακρίσεις

Η Ευρωπαϊκή Επιτροπή μόλις κυκλοφόρησε το σχέδιο κανονισμού της ΕΕ για την τεχνητή νοημοσύνη (AI). Τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται όλο και περισσότερο σε όλους τους τομείς της ζωής – για να μας παρακολουθούν και να μας προσδιορίζουν για την πρόσβαση σε υγεία και δημόσιες υπηρεσίες, για να κάνουν προβλέψεις σχετικά με τη συμπεριφορά μας ή το πόσο «επικίνδυνοι» είμαστε. Χωρίς σαφείς διασφαλίσεις, αυτά τα συστήματα θα μπορούσαν να ενισχύσουν την ανισορροπία ισχύος μεταξύ εκείνων που αναπτύσσουν και χρησιμοποιούν AI και εκείνων που υπόκεινται σε αυτά.

.«Ενώ είναι θετικό το γεγονός ότι η Επιτροπή αναγνωρίζει ότι ορισμένες χρήσεις της τεχνητής νοημοσύνης είναι απλώς απαράδεκτες και πρέπει να απαγορευτούν, το σχέδιο νόμου δεν απαγορεύει την πλήρη έκταση των απαράδεκτων χρήσεων της τεχνητής νοημοσύνης και ιδίως όλων των μορφών βιομετρικής μαζικής παρακολούθησης. Αυτό αφήνει ένα ανησυχητικό κενό για τις διακρίσεις και τις τεχνολογίες παρακολούθησης που χρησιμοποιούνται από κυβερνήσεις και εταιρείες. Ο κανονισμός επιτρέπει πολύ ευρύ πεδίο αυτορρύθμισης από εταιρείες που επωφελούνται από την τεχνητή νοημοσύνη. Οι άνθρωποι, όχι οι εταιρείες πρέπει να είναι το κέντρο αυτού του κανονισμού »

Sarah Chander, Senior Policy Lead on AI at European Digital Rights

Η κοινωνία των πολιτών έχει αποδείξει πώς η Τεχνητή Νοημοσύνη που χρησιμοποιείται στην Ευρώπη για προγνωστική αστυνόμευση, μαζική παρακολούθηση, στους ελέγχους στα σύνορα και για να κρίνει και να προβλέψει τη συμπεριφορά μας με βάση τα σώματά μας, τα συναισθήματα και τα ευαίσθητα χαρακτηριστικά ταυτότητας (όπως φυλή, ταυτότητα φύλου και αναπηρία) παραβιάζει πλήρως τα δικαιώματά μας και επηρεάζει δυσανάλογα τις περιθωριοποιημένες ομάδες. Ωστόσο, η πρόταση δεν απαιτεί νομικά όρια για την ανάπτυξη όλων των προβληματικών χρήσεων της τεχνητής νοημοσύνης, ούτε ζητά επαρκείς εγγυήσεις από τους υπεύθυνους ανάπτυξης της «υψηλής επικινδυνότητας» AI. Αυτό έχει ως αποτέλεσμα την αποτυχία παροχής προστασίας και θεραπείας σε άτομα που είναι πιθανό να υποστούν βλάβες ως αποτέλεσμα της τεχνητής νοημοσύνης.

H πρόταση της ΕΕ έχει κάνει ένα σημαντικό βήμα για να προστατεύσει τους ανθρώπους στην Ευρώπη από την ανατριχιαστική αναγνώριση προσώπου, απαγορεύοντας στις αρχές επιβολής του νόμου τη χρήση «απομακρυσμένης βιομετρικής ταυτοποίησης σε πραγματικό χρόνο» με συγκεκριμένους τρόπους, απαιτώντας συγκεκριμένους εθνικούς νόμους και κατά περίπτωση άδεια για να επιτρέπονται τέτοιες πρακτικές. Ενώ πρόκειται για κίνηση προς τη σωστή κατεύθυνση, υπάρχουν πολλές βιομετρικές πρακτικές μαζικής παρακολούθησης (από τοπικές κυβερνήσεις ή εταιρείες) που δεν καλύπτονται και μια σειρά από εξαιρετικά ανησυχητικές εξαιρέσεις που θα επέτρεπαν στην επιβολή του νόμου να βρει κενά. Αυτή είναι μια χαμένη ευκαιρία από την Επιτροπή να ακολουθήσει μια πραγματικά ολοκληρωμένη προσέγγιση ενάντια σε όλες τις μορφές βιομετρικής παρακολούθησης μάζας.

Η πλειονότητα των απαιτήσεων της πρότασης βασίζεται αφελώς στους προγραμματιστές AI για την εφαρμογή τεχνικών λύσεων σε σύνθετα κοινωνικά ζητήματα, τα οποία πιθανώς ελέγχονται από τις ίδιες τις εταιρείες. Με αυτόν τον τρόπο, η πρόταση επιτρέπει σε μια κερδοφόρα αγορά αδικαιολόγητης τεχνητής νοημοσύνης να χρησιμοποιείται για την επιτήρηση και τις διακρίσεις, και μεταβιβάζει την ευθύνη στους προγραμματιστές τεχνολογίας, αντί για τα ιδρύματα ή τις εταιρείες που χρησιμοποιούν τα συστήματα.

Πάνω από 60 οργανώσεις ανθρωπίνων δικαιωμάτων και 116 ευρωβουλευτές ζήτησαν από την Ευρωπαϊκή Επιτροπή να τηρήσει την υπόσχεσή της για τη δημιουργία ενός πραγματικά τεκμηριωμένου ανθρώπινου κανονισμού. Τώρα, είναι καιρός το Ευρωπαϊκό Κοινοβούλιο να διασφαλίσει ότι ο κανονισμός για την Τεχνητή Νοημοσύνη θα πρέπει να υπερβαίνει αυτό που έχει προτείνει η Ευρωπαϊκή Επιτροπή και να περιλαμβάνει πλήρη απαγόρευση των χρήσεων τεχνητής νοημοσύνης που είναι ασυμβίβαστα με τα θεμελιώδη δικαιώματα, βα εξασφαλίζει πλήρη διαφάνεια και λογοδοσία για όλα τα συστήματα υψηλού κινδύνου στην ΕΕ και ουσιαστικούς μηχανισμούς συλλογικής προσφυγής για όσους έχουν υποστεί ζημία από συστήματα AI.

Πηγή άρθρου: https://edri.org/

Leave a Comment