Ερώτηση Αλέξανδρου Αυλωνίτη για την επανεξέταση του εθνικού νομικού πλαισίου για την τεχνητή νοημοσύνη

Ερώτηση προς τους κ.κ. Υπουργούς Ψηφιακής Διακυβέρνησης και Δικαιοσύνης κατέθεσε εκ νέου ο βουλευτής Κέρκυρας του ΣΥΡΙΖΑ-ΠΣ Αλέξανδρος Αυλωνίτης για την επανεξέταση του εθνικού νομικού πλαισίου για την τεχνητή νοημοσύνη.

Ο βουλευτής τόνισε πως οι εξελίξεις στον τομέα της τεχνητής νοημοσύνης έχουν ήδη φέρει νέες προκλήσεις και διλήμματα για την κοινωνία και το υφιστάμενο νομικό πλαίσιο δεν είναι επαρκές, καθώς οι εφαρμογές της τεχνητής νοημοσύνης επεκτείνονται σχεδόν σε όλους τους τομείς της κοινωνίας με πολλούς και διαφορετικούς τρόπους. Ήδη έχουν γίνει νομοθετικές κινήσεις σε ευρωπαϊκό επίπεδο (πρόταση κανονισμού για την Τεχνητή Νοημοσύνη), και το εθνικό καθεστώς δεν μπορεί να μένει πίσω.

Στα πλαίσια ενός ταχέως αναπτυσσόμενου ψηφιακού περιβάλλοντος ο χρήστης των αναδυόμενων τεχνολογιών, καλείται συνεχώς να συμμετάσχει ως μέσο παραγωγής, ως συμμέτοχος στην ανάπτυξη και προώθηση αυτών των τεχνολογιών αλλά και διασποράς του κίνδυνου, και θα πρέπει να απολαμβάνει συγκεκριμένη προστασία προκειμένου να προστατευθούν πραγματικά τα συμφέροντα του. Χρειάζεται πολύ περαιτέρω έρευνα και προσοχή για να αποσοβηθούν οι κίνδυνοι που ενδέχεται να προκύψουν για τα δικαιώματα, τις ελευθερίες και τα έννομα συμφέροντα των πολιτών.

Ακολουθεί το κείμενο της ερώτησης :

ΕΡΩΤΗΣΗ

Προς τους κ.κ. Υπουργούς
• Ψηφιακής Διακυβέρνησης
• Δικαιοσύνης

Θέμα: «Επανεξέταση του εθνικού νομικού πλαισίου για την τεχνητή νοημοσύνη και την ανάπτυξη ενός ασφαλούς ψηφιακού περιβάλλοντος»

Οι εξελίξεις στον τομέα της τεχνητής νοημοσύνης έχουν φέρει νέες προκλήσεις και διλήμματα για τη νομοθεσία, καθώς οι εφαρμογές της επεκτείνονται σε πολλούς τομείς της κοινωνίας. Αυτή η αναδυόμενη τεχνολογία που επιτρέπει σε υπολογιστικά συστήματα να μιμούνται την ανθρώπινη σκέψη και συμπεριφορά, ήδη χρησιμοποιείται σε πολλούς τομείς, όπως η ρομποτική, η αυτοκινητοβιομηχανία, η υγειονομική περίθαλψη, η διαχείριση των δεδομένων, οι τηλεπικοινωνίες και πολλοί άλλοι. Η τεχνητή νοημοσύνη έχει τη δυνατότητα να αυξήσει την απόδοση, την ακρίβεια και την αξιοπιστία των εργασιών και ταυτόχρονα μπορεί να μειώσει το κόστος παραγωγής.

Ωστόσο, η ραγδαία και απότομη αύξηση της χρήσης της τεχνητής νοημοσύνης εγείρει σημαντικά ηθικά και κοινωνικά ζητήματα. Πολλοί θεωρούν ότι θα οδηγήσει σε απώλεια θέσεων εργασίας και θα επηρεάσει αρνητικά την κοινωνική ζωή και την ανθρώπινη επικοινωνία. Επίσης, η αυξανόμενη χρήση της τεχνητής νοημοσύνης μπορεί να προκαλέσει προβλήματα σχετικά με την ιδιωτικότητα και την ασφάλεια των προσωπικών δεδομένων, παραβιάζοντας δεδομένα και καθιστώντας σημαντικό τον ρόλο της διαφάνειας και της επίβλεψης των συστημάτων της.

Επιπλέον, η προστασία των πνευματικών δικαιωμάτων των δημιουργών και των επαγγελματιών αποτελεί ένα σημαντικό ζήτημα, καθώς η τεχνητή νοημοσύνη είναι σε θέση να παράγει και να δημιουργεί νέα πονήματα (έργα, κείμενα, μουσική κτλ.), μαθαίνοντας, αντιγράφοντας και χρησιμοποιώντας κομμάτια από ήδη υφιστάμενα έργα. Δηλαδή, για την αναπαραγωγή και την εξέλιξη των συστημάτων της τεχνητής νοημοσύνης χρησιμοποιούνται δεδομένα που έχουν δημιουργηθεί από τρίτους.

Γεννιέται, λοιπόν, ο προβληματισμός ότι δύνανται να καταπατηθούν κοινωνικά, εργασιακά, επαγγελματικά και πολλών άλλων ειδών δικαιώματα που με τόσο κόπο έχουν κατακτηθεί ανά τις δεκαετίες και τους αιώνες.

Για την αντιμετώπιση αυτών των κινδύνων, απαιτείται η ανάπτυξη νομοθεσίας που θα διασφαλίζει την προστασία της ιδιωτικότητας των ανθρώπων και θα περιορίζει την καταχρηστική χρήση των δεδομένων τους. Τα προσωπικά δεδομένα θα πρέπει να είναι προστατευμένα και να απαιτούν την άδεια των κατόχων τους για τη χρήση τους, ενώ είναι αναγκαία η κατάρτιση εθνικών ηθικών κανόνων (Κώδικα Δεοντολογίας κτλ.) για την ανάπτυξη αυτού του τεχνολογικού τομέα με ασφάλεια και διαφάνεια.

Ήδη σε ευρωπαϊκό επίπεδο, στις 14 Ιουνίου 2023 ψηφίσθηκε από την Ολομέλεια του Ευρωκοινοβουλίου η προορατική COM/2021/206 final Πρόταση Κανονισμού , γνωστή ως Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη (European AI Act) για τη θέσπιση εναρμονισμένων κανόνων για τη χρήση της τεχνητής νοημοσύνης. Η Πρόταση Κανονισμού ακολουθεί μια προσέγγιση βάσει κινδύνου, στο πλαίσιο της οποίας γίνεται διάκριση μεταξύ των χρήσεων της τεχνητής νοημοσύνης που δημιουργούν i) μη αποδεκτό κίνδυνο, ii) υψηλό κίνδυνο και iii) χαμηλό ή ελάχιστο κίνδυνο. Συνεπώς και σε εθνικό επίπεδο, πρέπει να ληφθούν μέτρα για την αντιμετώπιση των επιπτώσεων της τεχνητής νοημοσύνης.

Αυτό μπορεί να περιλαμβάνει μέτρα ώστε να συνεχίζει ο άνθρωπος να είναι σχετικός στην παραγωγική διαδικασία, καθώς και για την αναδιαμόρφωση των εκπαιδευτικών συστημάτων, προκειμένου οι εργαζόμενοι του μέλλοντος να προετοιμαστούν για τις επόμενες θέσεις εργασίας, καθώς και τη δημιουργία νέων ευκαιριών απασχόλησης στον τομέα της τεχνητής νοημοσύνης.

Τέλος, πρέπει να διασφαλιστεί ότι η τεχνητή νοημοσύνη θα αναπτυχθεί με διαφάνεια και υπό τις κατάλληλες δεοντολογικές αρχές και ότι οι επιπτώσεις της θα μελετώνται και θα αξιολογούνται σε συνεχή βάση. Αυτό θα εγγυάται ότι η τεχνητή νοημοσύνη θα αναπτύσσεται με ασφάλεια και διαφάνεια και ότι οι προβληματισμοί της κοινωνίας θα λαμβάνονται υπόψη.

Η επόμενη πενταετία θα επιφέρει αρκετές σημαντικές διαφοροποιήσεις στα τεχνολογικά δεδομένα της εποχής. Στα πλαίσια ενός ταχέως αναπτυσσόμενου ψηφιακού περιβάλλοντος ο χρήστης των αναδυόμενων τεχνολογιών, καλείται συνεχώς να συμμετάσχει ως μέσο παραγωγής, ως συμμέτοχος στην ανάπτυξη και προώθηση αυτών των τεχνολογιών αλλά και διασποράς του κίνδυνου, και θα πρέπει να απολαμβάνει συγκεκριμένη προστασία προκειμένου να προστατευθούν πραγματικά τα συμφέροντα του.

Την 10η Μαρτίου 2023 καταθέσαμε την υπ’ αριθ. 2658/2023 ερώτηση, στην οποία λάβαμε την 14633/2023 Απάντηση, στην οποία έγινε εκτεταμένη αναφορά στον ν.4961/2022, χωρίς να γίνονται αναφορές στις συνολικές επιπτώσεις που θα έχει η τεχνητή νοημοσύνη στην κοινωνία. Θεωρούμε, λοιπόν πως θα πρέπει να τεθούν περαιτέρω νομοθετικά πλαίσια σχετικά με την εφαρμογή της τεχνητής νοημοσύνης στην καθημερινότητα, στο πανεπιστήμιο, στην οικογένεια, στους εργαζόμενους, στην δουλειά των καλλιτεχνών και των επαγγελματιών, ώστε να μην καταπατηθούν δικαιώματα που με τόσο κόπο έχουν κατακτηθεί ανά τις δεκαετίες και τους αιώνες, όχι μόνο από τους δημιουργούς της τεχνητής νοημοσύνης, αλλά και από τους κρατικούς φορείς. Ορισμένα εργαλεία για την διαχείριση της υπάρχουν ήδη, ωστόσο ορισμένα εργαλεία θα πρέπει να αναδυθούν παράλληλα με αυτές τις τεχνολογίες.

Επειδή παρά την νομοθετική ρύθμιση για τις νέες τεχνολογίες, τις αναδυόμενες τεχνολογίες πληροφορικής και επικοινωνιών που έγινε δυνάμει του ν.4961/2022, αφορούν κυρίως την χρήση της τεχνητής νοημοσύνης από το κράτος, και την σχέση Πολιτείας και Διοικουμένου, χρειάζεται πολύ περαιτέρω εξειδίκευση, έρευνα και προσοχή για να αποσοβηθούν οι κίνδυνοι που ενδέχεται να προκύψουν για τα δικαιώματα, τις ελευθερίες και τα έννομα συμφέροντα των πολιτών.

Επειδή είναι σημαντική η υποστήριξη της καινοτομίας και η προαγωγή των βασικών ψηφιακών τεχνολογιών, προς όφελος των πολιτών, και συνεπώς θα πρέπει να δημιουργηθεί ένας νομοθετικός σχεδιασμός, ώστε ο ψηφιακός μετασχηματισμός της χώρας μας να συνυπολογίζει την συνεχόμενη ανάπτυξη της τεχνητής νοημοσύνης.

Ερωτώνται οι αρμόδιοι Υπουργοί:

1. Υπάρχει πρόθεση να δημιουργηθεί ένας νομοθετικός σχεδιασμός ή να επαναξιολογηθεί το παρόν νομοθετικό πλαίσιο, ώστε ο ψηφιακός μετασχηματισμός της χώρας μας να συνυπολογίζει την συνεχόμενη ανάπτυξη της τεχνητής νοημοσύνης;
2. Έχει ενεργοποιηθεί επαρκώς το θεσμοθετούμενο με τον ν.4961/2022 Παρατηρητήριο Τεχνητής Νοημοσύνης; Υπάρχει πρόθεση να αναπτυχθούν περαιτέρω εργαλεία για τον έλεγχο της ανάπτυξης της τεχνητής νοημοσύνης, ως αντίμετρα προστασίας του μοντέλου παραγωγής του αλγόριθμου της τεχνητής νοημοσύνης;
3. Παρότι από τον ν.4961/2022 προβλέπεται η καταγραφή των εργαλείων τεχνητής νοημοσύνης από τις Αρχές του Δημοσίου, θα ληφθούν πρωτοβουλίες για την εκπόνηση εκθέσεων χρήσης εργαλείων τεχνητής νοημοσύνης από επιχειρήσεις, ιδιώτες και άλλους φορείς (πχ. OpenAI, Facebook κλπ.), προκειμένου να προκύψουν οι ψηφιακές συμπεριφορές των χρηστών, αλλά και τα μέτρα που λαμβάνουν οι ίδιες οι εταιρίες τεχνητής νοημοσύνης για την προστασία των χρηστών και των επαγγελματιών;
4. Θα ληφθούν πρωτοβουλίες για την εμπόδιση της λογοκλοπής και για την προστασία των παραγωγών πνευματικής ιδιοκτησίας που χρησιμοποιούνται ως δεδομένα για την περαιτέρω εκπαίδευση του αλγορίθμου της τεχνητής νοημοσύνης και για την παραγωγή αντίστοιχου υλικού, ώστε να μην καταπατώνται τα δικαιώματα τους;
5. Πώς σκοπεύουν να αντιμετωπίσουν την ανάπτυξη της τεχνητής νοημοσύνης, για την προστασία της ιδιωτικότητας των πολιτών και των προσωπικών δεδομένων τους;
6. Θα τεθούν περαιτέρω ηθικά διλήμματα σχετικά με την εφαρμογή της τεχνητής νοημοσύνης στην καθημερινότητα, στο πανεπιστήμιο, στην οικογένεια, στους εργαζόμενους, στην δουλειά των καλλιτεχνών και των επαγγελματιών, ώστε να μην καταπατηθούν δικαιώματα που με τόσο κόπο έχουν κατακτηθεί ανά τις δεκαετίες και τους αιώνες;
7. Υπάρχει πρόθεση για τη δημιουργία ενημερωτικής καμπάνιας προς τους πολίτες, ώστε να μπορεί κάθε πολίτης ξεχωριστά να εξοικειωθεί με τις νέες τεχνολογίες και τους τρόπους για να μπορεί να εξοικειωθεί με αυτές τις νέες αναδυόμενες τεχνολογίες;

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *