ΕΛ/ΛΑΚ | creativecommons.gr | mycontent.ellak.gr |
freedom

Τεράστια ρυθμιστικά κενά στον νόμο της ΕΕ για την AI θα μπορούσαν να επιτρέψουν τη χρήση παρεμβατικής τεχνολογίας για λόγους «εθνικής ασφάλειας»

Τόσο οι διαπραγματεύσεις της Ευρωπαϊκής Ένωσης (ΕΕ) όσο και του Συμβουλίου της Ευρώπης (COE) εξετάζουν το ενδεχόμενο εξαίρεσης συστημάτων τεχνητής νοημοσύνης που έχουν σχεδιαστεί, αναπτυχθεί και χρησιμοποιούνται για στρατιωτικούς σκοπούς, θέματα εθνικής άμυνας και εθνικής ασφάλειας από το πεδίο εφαρμογής των τελικών κανονιστικών πλαισίων τους.

Εάν πράγματι συμβεί αυτό, θα έχουμε τεράστιο ρυθμιστικό κενό σχετικά με τέτοια συστήματα. Η κοινωνία των πολιτών και οι υπερασπιστές των ανθρωπίνων δικαιωμάτων δικαίως ανησυχούν: ακόμη και εκείνα τα συστήματα τεχνητής νοημοσύνης που παρουσιάζουν «απαράδεκτα» επίπεδα κινδύνου και επομένως απαγορεύονται από τον νόμο της ΕΕ για την τεχνητή νοημοσύνη θα μπορούσαν εύκολα να «αναζωογονηθούν» ή να «ανακυκλωθούν» για αποκλειστικό σκοπό της εθνικής ασφάλειας.

Αυτό θα επηρεάσει μεταξύ άλλων τις ελευθερίες μετακίνησης, συνάθροισης, έκφρασης, συμμετοχής και ιδιωτικότητας.

Σε μια δημοσίευση τους, η Francesca Fanucci και η Catherine Connolly από το Stop Killer Robots Automated Decision Research υποστηρίζουν ότι η ΕΕ και το COE πρέπει να διασφαλίσουν ότι:

  1. Δεν υπάρχουν γενικές εξαιρέσεις για συστήματα τεχνητής νοημοσύνης που έχουν σχεδιαστεί, αναπτυχθεί και χρησιμοποιούνται για στρατιωτικούς σκοπούς, θέματα εθνικής άμυνας και εθνικής ασφάλειας.
  2. Τέτοια συστήματα αναλαμβάνουν αξιολογήσεις κινδύνου και επιπτώσεων πριν από την ανάπτυξή τους και καθ’ όλη τη διάρκεια της χρήσης τους.

Η τεχνολογία που ονομαστικά αναφέρεται ως «αναπτύχθηκε ή χρησιμοποιείται αποκλειστικά για σκοπούς εθνικής ασφάλειας» μπορεί να επηρεάσει θεμελιωδώς τις πολιτικές ελευθερίες μας. 

Διαβάστε περισσότερα στο European Center for Not-for-Profit Law για αυτό το θέμα

Πηγή άρθρου: https://edri.org/

Leave a Comment