Η σημασία της ανθρώπινης εποπτείας στα συστήματα τεχνητής νοημοσύνης. Γράφει ο Σπύρος Σκιαδόπουλος

Οι εξελίξεις στον τομέα της τεχνητής νοημοσύνης έχουν ήδη φέρει νέες προκλήσεις και διλήμματα για την κοινωνία, την αγορά και κατ’ ακολουθία για τη νομοθεσία, καθώς οι εφαρμογές της επεκτείνονται σε πολλούς τομείς της κοινωνίας. Πολλές επιχειρήσεις βασίζονται ολοένα και περισσότερο σε συστήματα τεχνητής νοημοσύνης για την εκτέλεση παραδοσιακών ανθρώπινων εργασιών, ενώ καθώς η χρήση αυξάνεται και η τεχνολογία συνεχίζει να αναπτύσσεται, θα πρέπει να εξεταστεί ο βαθμός  στον οποίο θα επιτρέπεται στα συστήματα τεχνητής νοημοσύνης να λειτουργούν αυτόνομα. Αν και δεν μιλάω για τον Εξολοθρευτή ή τον HAL9000, θεωρητικά συμπεριλαμβάνονται και αυτοί  στα συστήματα που χρειάζονται ανθρώπινη εποπτεία.

Η Ολομέλεια του Ευρωκοινοβουλίου, με σκοπό να καθορίσει και να διαμορφώσει τον επερχόμενο κόσμο της τεχνητής νοημοσύνης, προχώρησε στην ψήφιση της COM/2021/206 final Πρότασης Κανονισμού , γνωστή ως Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη (European AI Act)  για τη θέσπιση εναρμονισμένων κανόνων για τη χρήση της τεχνητής νοημοσύνης. Η Πρόταση Κανονισμού αυτή βασίζεται σε σειρά από προηγούμενες προσπάθειες να τεθούν ρυθμιστικά θεμέλια στην χρήση της τεχνητής νοημοσύνη (Λευκή Βίβλου για την Τεχνητή Νοημοσύνη τον Φεβρουάριο του 2020 κτλ), για την αντιμετώπιση των πιθανών κινδύνων που σχετίζονται με ορισμένες εφαρμογές της.

Η COM/2021/206 final Πρόταση Κανονισμού  ακολουθεί μια προσέγγιση βάσει κινδύνου, στο πλαίσιο της οποίας γίνεται διάκριση μεταξύ των χρήσεων συστημάτων της τεχνητής νοημοσύνης που δημιουργούν i) μη αποδεκτό κίνδυνο, ii) υψηλό κίνδυνο και iii) χαμηλό ή ελάχιστο κίνδυνο, στις οποίες τίθενται διαφορετικές νομικές απαιτήσεις σε σχέση με τη διαφάνεια, την ασφάλεια, την παροχή πληροφοριών στους χρήστες, την αλληλεπίδραση με τους ανθρώπους, αλλά και την εποπτεία από αυτούς.

Μεγάλο ενδιαφέρον παρουσιάζει η επιβολή ανθρώπινης εποπτείας (μόνο) στα συστήματα υψηλού κινδύνου. Παραδειγματικά, συστήματα υψηλού κινδύνου αφορούν τις υποδομές ζωτικής σημασίας, που θα μπορούσαν να θέσουν σε κίνδυνο τη ζωή και την υγεία των πολιτών (π.χ. μεταφορές), την εκπαιδευτική ή επαγγελματική κατάρτιση, την επιβολή του νόμου, την απονομή της δικαιοσύνης, τη διαχείριση μετανάστευσης και άλλους τομείς που αφορούν την απασχόληση, καθώς και βασικές ιδιωτικές και δημόσιες υπηρεσίες. Κατά την Πρόταση Κανονισμού, τα συστήματα ΤΝ υψηλού κινδύνου θα πρέπει να σχεδιάζονται και να αναπτύσσονται κατά τέτοιο τρόπο, ώστε να μπορούν να εποπτεύονται αποτελεσματικά από φυσικά πρόσωπα κατά τη χρήσης τους.

 

Ως εργαλείο του νομοθέτη, η ανθρώπινη εποπτεία αποσκοπεί στην πρόληψη ή την ελαχιστοποίηση των κινδύνων για την ασφάλεια και τα θεμελιώδη δικαιώματα που ενδέχεται να προσβληθούν,  όταν ένα σύστημα ΤΝ υψηλού κινδύνου επιτελεί το έργο του σύμφωνα με τον επιδιωκόμενο σκοπό του ή υπό συνθήκες ευλόγως προβλέψιμης κακής χρήσης (πχ αυτοματοποιημένη ρύθμιση χρεών με βάση ορισμένους παραμέτρους ή διαχείριση αιτήσεων μετανάστευσης) ειδικά όταν οι κίνδυνοι αυτοί εξακολουθούν να υφίστανται παρά την εφαρμογή άλλων απαιτήσεων εκ της νομοθεσίας. Προς επίλυση των κινδύνων αυτών, στην παράγραφο 3 του άρθρου 14 της Πρότασης Κανονισμού έχουν τεθεί μέτρα που επιτρέπουν στα άτομα στα οποία έχει ανατεθεί η ανθρώπινη εποπτεία να προβαίνουν σε ορισμένες βασικές ενέργειες, ανάλογα με τις περιστάσεις, με βάση τους εξής άξονες :

Κατανόηση του Συστήματος: Οι υπεύθυνοι για την εποπτεία πρέπει να γνωρίζουν τις ικανότητες και τους περιορισμούς του συστήματος τεχνητής νοημοσύνης, ώστε να μπορούν να παρακολουθούν την απόδοση και να αντιμετωπίζουν ανωμαλίες.

Ενημέρωση για την Εξάρτηση από το Σύστημα: Οι υπεύθυνοι πρέπει να είναι ενήμεροι για την πιθανότητα υπέρμετρης εμπιστοσύνης στα αποτελέσματα του συστήματος τεχνητής νοημοσύνης.

Σωστή Ερμηνεία των Δεδομένων: Είναι κρίσιμο οι υπεύθυνοι να ερμηνεύουν σωστά τα δεδομένα που παράγονται από το σύστημα, λαμβάνοντας υπόψη τους διαθέσιμους πόρους και τα εργαλεία που διαθέτουν.

Ελευθερία Επιλογής: Οι υπεύθυνοι πρέπει να έχουν τη δυνατότητα να αποφασίζουν εάν θα χρησιμοποιήσουν, θα αγνοήσουν ή θα παρακάμψουν τα αποτελέσματα του συστήματος, βάσει των δεδομένων και των περιστάσεων.

Παρέμβαση στη Λειτουργία: Σε περίπτωση ανάγκης, οι υπεύθυνοι πρέπει να μπορούν να παρεμβαίνουν ή να διακόπτουν τη λειτουργία του συστήματος.

 

Όπως προκύπτει από την Πρόταση Κανονισμού, φαίνεται μια σταθερή πρόθεση του ευρωπαίου νομοθέτη να υιοθετεί μια προσέγγιση μικρής εποπτείας, χωρίς άμεση επέμβαση στις μεθόδους παραγωγής των συστημάτων τεχνητής νοημοσύνης, παρά μόνο στα συστήματα υψηλού κινδύνου, και μάλιστα υπό όρους. Η επιλογή αυτή δημιουργεί ερωτηματικά σχετικά με την επάρκεια της διάταξης, και της απουσίας ενός ευρύτερου προστατευτικού πλαισίου.

Τα μέτρα αυτά μόνο για τα συστήματα υψηλού κινδύνου, αλλά όχι για τα υπόλοιπα συστήματα (πχ διαλογικά συστήματα που θεωρούνται χαμηλού επιπέδου) φαίνεται αδικαιολόγητη, καθώς η χρήση όλων των συστημάτων τεχνητής νοημοσύνης, ανεξαρτήτως κινδύνου, δύνανται να επέμβουν σε διάφορους τομείς (πχ ένα βασικό λεκτικό διαλογικό σύστημα στην απονομή της δικαιοσύνης) που θέλει ο ευρωπαίος νομοθέτης να προστατεύσει, παρακάμπτοντας εκ των πραγμάτων τους περιορισμούς. Επιπλέον, η υπέρμετρη εμπιστοσύνη και  μεροληψία  υπέρ του αυτοματισμού δεν θα πρέπει να μένουν ανέλεγκτες, επίσης ανεξαρτήτως κινδύνου,  καθώς έχουν σοβαρές συνέπειες στις διάφορες εκφάνσεις που επηρεάζουν τα συστήματα τεχνητής νοημοσύνης (δημιουργία, πολυφωνία, δημοκρατία, εργασία, παραγωγή).

Χαμένη ευκαιρία είναι επίσης και η μη διασύνδεση της αγοράς εργασίας με την ανθρώπινη εποπτεία. Η τεχνητή νοημοσύνη, θέτει πολλά ερωτηματικά στην αγορά εργασίας, και συνεπώς η άμεση σύνδεση εργασίας και τεχνητής νοημοσύνης θα έθετε ένα πρώτο ανάχωμα στις ομαλές αλλαγές  στην αγορά εργασίας.

 

Επιπλέον, θα πρέπει να υπάρξουν περαιτέρω διευκρινίσεις για την υποχρέωση ενημέρωσης προς τους χρήστες, με συνακόλουθο τον τρόπο εφαρμογής του ελέγχου από τους ανθρώπους επόπτες των συστημάτων τεχνητής νοημοσύνης, οι οποίοι θα πρέπει κατ’ανάγκην να προέρχονται από ένα μεγάλο φάσμα επαγγελματιών, ιδιωτών αλλά και φορέων, με αποκεντρωμένο τρόπο. Μοντέλα αποκεντρωμένου ελέγχου ήδη υπάρχουν (πχ κρυπτονομίσματα), τα οποία θα μπορούσαν να χρησιμοποιηθούν τουλάχιστον στα αρχικά στάδια, ως παραδείγματα για τρόπους δομής ή την οργάνωσης.

Στην προσεχή πενταετία, αναμένονται πολλαπλές και καθοριστικές αλλαγές στο τεχνολογικό τοπίο. Καθώς εμβαθύνουμε σε ένα ψηφιακό μέλλον που εξελίσσεται με γοργούς ρυθμούς, ο χρήστης νέων τεχνολογιών είναι ενεργός συντελεστής, συμβάλλοντας στη δημιουργία, προώθηση και μείωση των κινδύνων που αυτές εγκυμονούν. Επίσης, προκύπτουν ζητήματα ηθικής όσον αφορά την ένταξη της τεχνητής νοημοσύνης στην καθημερινή ζωή, όντας πολύ σημαντικό να μην παραβιαστούν δικαιώματα που έχουν αποκτηθεί με δυσκολία κατά τη διάρκεια της ιστορίας.

Αν και υπάρχουν ήδη ορισμένα μέσα διαχείρισης αυτών των προκλήσεων, θα χρειαστεί να αναπτυχθούν και νέα, παράλληλα με την πρόοδο των τεχνολογιών. Το να δημιουργηθεί ένα προστατευτικό σύστημα για τους χρήστες νέων τεχνολογιών προϋποθέτει ότι θα ληφθούν υπόψη και άλλες παράμετροι που μπορεί να μην εμπίπτουν στις έννοιες του υπό συζήτηση ευρωπαϊκού νομικού πλαισίου, το οποίο θα υιοθετηθεί αναπόφευκτα από τα εθνικά πλαίσια των κρατών μελών, δημιουργώντας αναπόφευκτα ερωτήματα για την ασφάλεια στις ψηφιακές αλληλεπιδράσεις και τον σεβασμό προς την ατομικότητα των χρηστών.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *