ανταπόκριση από το Στρασβούργο για την ΕΡΤ: Κώστας Δαβάνης

Η Τεχνητή Νοημοσύνη πρέπει να υπόκειται στον έλεγχο του ανθρώπου, επιτρέποντας στους ανθρώπους να τη διορθώσουν ή να την απενεργοποιήσουν σε περίπτωση απρόβλεπτης συμπεριφοράς, τονίστηκε στην συζήτηση που έγινε στην Ολομέλεια του Ευρωπαϊκού Κοινοβουλίου.

Σε ψήφισμα –έκθεση που εγκρίθηκε με 364 ψήφους υπέρ, 274 κατά, 52 αποχές, οι ευρωβουλευτές απαιτούν ένα νομικό πλαίσιο στην ΕΕ για την τεχνητή νοημοσύνη με ορισμούς και ηθικές αρχές, συμπεριλαμβανομένης της στρατιωτικής του χρήσης. Καλούν παράλληλα την Ευρωπαϊκή Επιτροπή και τα κράτη μέλη της, να διασφαλίσουν ότι η τεχνητή νοημοσύνη και οι σχετικές τεχνολογίες είναι ανθρωποκεντρικές.

Τονίζουν ότι η ανθρώπινη αξιοπρέπεια και τα ανθρώπινα δικαιώματα πρέπει να γίνονται σεβαστά σε όλες τις δραστηριότητες που σχετίζονται με την άμυνα της ΕΕ. Τα συστήματα με δυνατότητα τεχνητής νοημοσύνης πρέπει να επιτρέπουν στους ανθρώπους να ασκούν ουσιαστικό έλεγχο, ώστε να μπορούν να αναλάβουν την ευθύνη για τη χρήση τους.

Οι ευρωβουλευτές τονίζουν ότι η χρήση θανατηφόρων αυτόνομων οπλικών συστημάτων εγείρει θεμελιώδη ηθικά και νομικά ζητήματα σχετικά με τον ανθρώπινο έλεγχο, επαναλαμβάνοντας το αίτημά τους για μια ευρωπαϊκή στρατηγική απαγόρευσή τους, καθώς και την απαγόρευση των λεγόμενων «δολοφονικών ρομπότ». Η απόφαση για την επιλογή ενός στόχου και τη ανάληψη θανατηφόρων ενεργειών χρησιμοποιώντας ένα αυτόνομο οπλικό σύστημα πρέπει πάντα να λαμβάνεται από έναν άνθρωπο που ασκεί ουσιαστικό έλεγχο και κρίση, σύμφωνα με τις αρχές της αναλογικότητας και της αναγκαιότητας.

Το κείμενο καλεί επίσης την ΕΕ να αναλάβει ηγετικό ρόλο στη δημιουργία και προώθηση ενός παγκόσμιου πλαισίου που διέπει τη στρατιωτική χρήση της τεχνητής νοημοσύνης, μαζί με τον ΟΗΕ και τη διεθνή κοινότητα.

Επιπλέον η αυξημένη χρήση των συστημάτων τεχνητής νοημοσύνης στις δημόσιες υπηρεσίες, ιδίως στην υγειονομική περίθαλψη και τη δικαιοσύνη, δεν θα πρέπει να αντικαταστήσει την ανθρώπινη επαφή ή να οδηγήσει σε διακρίσεις, υποστηρίζουν οι ευρωβουλευτές. Οι άνθρωποι πρέπει πάντα να ενημερώνονται εάν υπόκεινται σε απόφαση βάσει της τεχνητής νοημοσύνης και να έχουν την επιλογή να υποβάλουν ένσταση.

Όταν η τεχνητή νοημοσύνη χρησιμοποιείται σε θέματα δημόσιας υγείας (π.χ. χειρουργική επέμβαση με ρομπότ, έξυπνες προθέσεις, προγνωστική ιατρική), τα προσωπικά δεδομένα των ασθενών πρέπει να προστατεύονται και να διατηρείται η αρχή της ίσης μεταχείρισης. Ενώ η χρήση τεχνολογιών τεχνητής νοημοσύνης στον τομέα της δικαιοσύνης μπορεί να βοηθήσει στην επιτάχυνση των διαδικασιών και στη λήψη πιο ορθολογικών αποφάσεων, οι τελικές δικαστικές αποφάσεις πρέπει να λαμβάνονται από τον άνθρωπο, να επαληθεύονται αυστηρά από ένα άτομο και να υπόκεινται σε δέουσα διαδικασία.

Οι ευρωβουλευτές προειδοποιούν επίσης για απειλές για τα θεμελιώδη ανθρώπινα δικαιώματα και την κρατική κυριαρχία που προκύπτουν από τη χρήση τεχνολογιών τεχνητής νοημοσύνης στη μαζική πολιτική και στρατιωτική παρακολούθηση.

Ζητούν να απαγορευθεί στις δημόσιες αρχές η χρήση «εξαιρετικά ενοχλητικών εφαρμογών κοινωνικής βαθμολόγησης» εκείνες που χρησιμοποιούνται ειδικά για την παρακολούθηση και αξιολόγηση των πολιτών). Η έκθεση εκφράζει επίσης ανησυχίες για τις «τεχνολογίες ψευδούς» που έχουν τη δυνατότητα να «αποσταθεροποιήσουν τις χώρες, να διαδώσουν παραπληροφόρηση και να επηρεάσουν τις εκλογές.