Μια πρώτη θεώρηση του Ευρωπαϊκού Κανονισμού για την Artificial Intelligence Act (AI Act), από την Επίκουρη Καθηγήτρια Παντείου Πανεπιστημίου Φερενίκη Παναγοπούλου.
Πηγή : Σyntagma Watch
Ι. Εισαγωγή
Στις 13.03.2024 το Ευρωπαϊκό Κοινοβούλιο ενέκρινε με 523 ψήφους υπέρ, 46 κατά και 49 αποχές τον Ευρωπαϊκό Κανονισμό για την Τεχνητή Νοημοσύνη, την αποκαλούμενη Artificial Intelligence Act (AI Act). Στις 21.05.2024 δόθηκε
από το Ευρωπαϊκό Συμβούλιο η τελευταία έγκριση. Ο Κανονισμός θα τεθεί σε ισχύ είκοσι ημέρες μετά από τη δημοσίευσή του στην Επίσημη Εφημερίδα και θα τεθεί σε εφαρμογή – με ορισμένες εξαιρέσεις – 24 μήνες μετά από την έναρξη ισχύος του.
Πρόκειται για ένα φιλόδοξο μεν, στριφνό δε κείμενο που αποπειράται να ρυθμίσει την ΤΝ και να εκτιμήσει τους κινδύνους που αυτή επισείει, προκειμένου να αποφευχθούν μη αναστρέψιμες για το μέλλον επιπτώσεις. Αποτελείται από 180 αιτιολογικές σκέψεις, 113 άρθρα. Η πολυπλοκότητα του υποδηλώνεται από τους 68 ορισμούς στο άρθρο 3.
ΙΙ. Ορολογία
Α. Τεχνητή νοημοσύνη (ΤΝ)
Τεχνητή νοημοσύνη είναι ο κλάδος της πληροφορικής, ο οποίος ασχολείται με τη σχεδίαση και την υλοποίηση υπολογιστικών συστημάτων, τα οποία μιμούνται στοιχεία της ανθρώπινης συμπεριφοράς που υπονοούν έστω και στοιχειώδη ευφυΐα: μάθηση, προσαρμοστικότητα, εξαγωγή συμπερασμάτων, κατανόηση από συμφραζόμενα, επίλυση προβλημάτων κ.λπ.[1] Η τεχνητή νοημοσύνη αναφέρεται σε συστήματα που επιδεικνύουν ευφυή συμπεριφορά αναλύοντας το περιβάλλον τους και λαμβάνοντας μέτρα – με κάποιο βαθμό αυτονομίας – για να επιτύχουν τους στόχους τους.[2] Υπ’ αυτή την έννοια, τα συστήματα τεχνητής νοημοσύνης είναι σχεδιασμένα από τον άνθρωπο και έχουν τη δυνατότητα να αντιλαμβάνονται και να ερμηνεύουν δεδομένα από το περιβάλλον τους, λαμβάνοντας τις βέλτιστες αποφάσεις, αναπαράγοντας γνωστικές λειτουργίες του ανθρώπου, όπως η μάθηση, ο σχεδιασμός και η λήψη αποφάσεων.
O επιστημονικός κλάδος της τεχνητής νοημοσύνης αφορά και στις πέντε ανθρώπινες αισθήσεις και περιλαμβάνει διάφορες προσεγγίσεις και τεχνικές: α) τη μηχανική μάθηση, όπως π.χ. η βαθιά μάθηση και η ενισχυτική μάθηση, β) τη μηχανική συλλογιστική που περιλαμβάνει τον σχεδιασμό, τον προγραμματισμό, την αναπαράσταση και τη συλλογιστική γνώση, την αναζήτηση και τη βελτιστοποίηση και γ) τη ρομποτική, που περιλαμβάνει τον έλεγχο, την αντίληψη, τους αισθητήρες και τους ενεργοποιητές, καθώς και την ενσωμάτωση όλων των άλλων τεχνικών σε κυβερνο-φυσικά συστήματα.[3]
Η τεχνητή νοημοσύνη αντιδιαστέλλεται προς την ανθρώπινη νοημοσύνη, καθώς δεν προέρχεται από έμβια όντα.[4] Συνιστά στην πραγματικότητα αυτοματοποιημένη λήψη αποφάσεων χωρίς διαμεσολάβηση του ανθρώπου με την ακολουθία λογικών ενεργειών που αποτελούν απότοκο μηχανικής εκμάθησης ή βαθιάς μάθησης (machine learning/deep learning).
Η μηχανική μάθηση διακρίνεται σε επιτηρούμενη και μη επιτηρούμενη. Στην πρώτη περίπτωση οι αλγόριθμοι έχουν «εκπαιδευτεί», ώστε να εξάγουν συμπεράσματα βασιζόμενοι σε δεδομένα που έχουν εισαχθεί από τους προγραμματιστές τους.[5] Αντίστροφα, στο πλαίσιο της μη-επιτηρούμενης μηχανικής μάθησης οι αλγόριθμοι δεν έχουν εκπαιδευτεί και αφήνονται χωρίς κατευθύνσεις-υποδείξεις στην εξαγωγή συμπερασμάτων.[6] Κρίσιμο είναι, ωστόσο, να επισημανθούν τα εξής: α) τα μηχανήματα δεν αυτενεργούν (δίνουν την εντύπωση ότι αυτενεργούν), αλλά μιμούνται την ανθρώπινη συμπεριφορά,[7] β) η βάση της γνώσης είναι αποτέλεσμα ανθρώπινης προσπάθειας, γ) οι μηχανές δεν μαθαίνουν μόνες τους, αλλά εμείς τις έχουμε καθοδηγήσει, δ) δεν εμφανίζουν από μόνες τους διακριτική συμπεριφορά (π.χ. λόγω φυλής, εθνότητας, φύλου κ.λπ.), αλλά στηρίζονται σε ανθρώπινη συμπεριφορά την οποία αντιγράφουν, δ) τα μηχανήματα δεν σκέπτονται ως άνθρωποι, αλλά ενεργούν έλλογα.[8]
Σύμφωνα με την αιτιολογική σκέψη 3 του Κανονισμού «Η τεχνητή νοημοσύνη είναι ένα ταχέως εξελισσόμενο σύνολο τεχνολογιών που μπορούν να συμβάλλουν στην επίτευξη ευρείας κλίμακας οικονομικών και κοινωνικών οφελών σε ολόκληρο το φάσμα των κλάδων και των κοινωνικών δραστηριοτήτων. Μέσω της βελτίωσης της πρόβλεψης, της βελτιστοποίησης των δραστηριοτήτων και της κατανομής των πόρων, καθώς και της εξατομίκευσης των ψηφιακών λύσεων που διατίθενται σε ιδιώτες και οργανισμούς, η χρήση της τεχνητής νοημοσύνης μπορεί να παράσχει βασικά ανταγωνιστικά πλεονεκτήματα στις εταιρείες και να στηρίξει κοινωνικά και περιβαλλοντικά επωφελή αποτελέσματα, για παράδειγμα στους τομείς της υγειονομικής περίθαλψης, της γεωργίας, της εκπαίδευσης και κατάρτισης, της διαχείρισης υποδομών, της ενέργειας, των μεταφορών και της εφοδιαστικής, των δημόσιων υπηρεσιών, της ασφάλειας, της δικαιοσύνης, της αποδοτικότητας των πόρων και της ενεργειακής απόδοσης, και του μετριασμού της κλιματικής αλλαγής και της προσαρμογής σε αυτήν.»
Σύμφωνα με το άρθρο 3 παρ. 1 του Κανονισμού, σύστημα τεχνητής νοημοσύνης (σύστημα ΤΝ) είναι το «λογισμικό που … μπορεί, για ένα δεδομένο σύνολο στόχων που έχουν καθοριστεί από τον άνθρωπο, να παράγει στοιχεία εξόδου όπως περιεχόμενο, προβλέψεις, συστάσεις ή αποφάσεις που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλοεπιδρά».
Β. Τεχνητή νοημοσύνη γενικού σκοπού (ΤΝΓΣ)
Ως μοντέλο ΤΝΓΣ νοείται ένα μοντέλο τεχνητής νοημοσύνης, το οποίο εκπαιδεύεται με μεγάλο όγκο δεδομένων χρησιμοποιώντας αυτοεπίβλεψη σε κλίμακα, που επιδεικνύει σημαντική γενικότητα. Το μοντέλο αυτό είναι ικανό να εκτελεί με επάρκεια ένα ευρύ φάσμα διακριτών εργασιών, ανεξάρτητα από τον τρόπο διάθεσης του μοντέλου στην αγορά και μπορεί να ενσωματωθεί σε μια ποικιλία μεταγενέστερων συστημάτων ή εφαρμογών. Αυτό δεν καλύπτει τα μοντέλα ΤΝ που χρησιμοποιούνται πριν από την κυκλοφορία τους στην αγορά για έρευνα, ανάπτυξη και δραστηριότητες πρωτοτυποποίησης.
Ως σύστημα ΤΝΓΣ νοείται ένα σύστημα ΤΝ που βασίζεται σε ένα μοντέλο ΤΝΓΣ, το οποίο έχει τη δυνατότητα να εξυπηρετεί ποικίλους σκοπούς, τόσο για άμεση χρήση όσο και για ενσωμάτωση σε άλλα συστήματα ΤΝ.
Τα συστήματα ΤΝΓΣ μπορούν να χρησιμοποιούνται ως συστήματα ΤΝ υψηλού κινδύνου ή να ενσωματώνονται σε αυτά.
IΙI. Απαιτείται ειδική ρύθμιση για την ΤΝ;
Το εύλογο ερώτημα που ανακύπτει είναι αν απαιτείται ειδική ρύθμιση για την τεχνητή νοημοσύνη ή αν αυτή θα μπορούσε να υπαχθεί στο υπάρχον θεσμικό πλαίσιο. Κρίνεται ότι η ΤΝ συνιστά την 4η βιομηχανική επανάσταση και δεν μπορεί να τεθεί υπό τη σκέπη μιας ήδη υπάρχουσας νομοθεσίας, η οποία έχει θεσπισθεί για άλλες ανάγκες. Ζητούμενο είναι η ύπαρξη μιας αποτελεσματικής νομοθεσίας που α) σταθμίζει νηφάλια την προστασία της αυτονομίας, της ιδιωτικότητας, της πνευματικής ιδιοκτησίας με την ανάπτυξη της καινοτομίας και έρευνας, την ενίσχυση της αγοράς και την προστασία του ανταγωνισμού και β) εγγυάται την ασφάλεια των συστημάτων ΤΝ. Ωστόσο, η στάση του νομικού είναι κάπως αμήχανη στο ζήτημα της τεχνητής νοημοσύνης, κινούμενη «σε ένα εκκρεμές μεταξύ ελπίδας και φόβου».[9] Χρειάζεται διαρκής ενημέρωση και ισχυρά αντανακλαστικά απέναντι στους νέους κινδύνους.[10] Η αιωρούμενη φωνή περί μη νομοθετήσεως[11] δεν είναι άμοιρη προβληματισμού, γιατί δεν είμαστε ακόμα ώριμοι προς τούτο.Αν ο νομικός σπεύσει να ρυθμίσει, ίσως δεν είναι σε θέση να γνωρίζει όλες τις πτυχές της. Η ρύθμιση μπορεί να μετατραπεί σε κάτι αβέβαιο, καθώς δεν θα λάβει υπ’ όψιν της τις τεχνολογικές εξελίξεις-εκρήξεις που λαμβάνουν χώρα κατά το στάδιο της ρυθμίσεως.[12] Αν, όμως, καθυστερήσει, οι εξελίξεις θα το έχουν προσπεράσει. Εύλογα ανακύπτει το λεγόμενο “Collingridge dilemma”, υπό την έννοια ότι η νομοθέτηση δεν είναι ασφαλής καθόσον το υπό ρύθμιση ζήτημα βρίσκεται σε εξέλιξη. Αν, όμως, τελειοποιηθεί, θα έχει διεισδύσει τόσο πολύ στη ζωή μας, ώστε οι συνέπειές του θα έχουν καταστεί μη αναστρέψιμες και μη ρυθμίσιμες.[13] Η ανωτέρω προβληματική εντείνεται και από την αγωνία ότι η Ευρωπαϊκή Ένωση επείγεται να αντιταχθεί, αλλά και να ανταγωνισθεί εξωευρωπαϊκά προϊόντα τεχνητής νοημοσύνης κυρίως από τις ΗΠΑ και την Κίνα που θα διασπάσουν την ενότητα της φιλοσοφίας και της τεχνολογίας της τεχνητής νοημοσύνης. Η Ευρώπη υπολείπεται σε πρωτοβουλίες στον τομέα αυτό[14] και οποιαδήποτε επισκίαση της αγοράς από άλλους θα εξουδετερώσει την όλη προσπάθεια ανθρωποκεντρικής ρυθμίσεως. Πρέπει να δοθεί έμφαση και στο κομμάτι της καινοτομίας. Η μη νομοθέτηση, όμως, δεν είναι λύση. Απαιτείται μια συμπεριληπτική νομοθέτηση και την αποστολή αυτή καλείται να επιτελέσει ο Κανονισμός. Απαιτείται όμως προσοχή και περίσκεψη, γιατί η υπερρύθμιση μπορεί να καταπνίξει την καινοτομία.
ΙV. Φιλοσοφία
Ο Κανονισμός αποσκοπεί στην προστασία των θεμελιωδών δικαιωμάτων, της δημοκρατίας, του κράτους δικαίου και της περιβαλλοντικής βιωσιμότητας από την τεχνητή νοημοσύνη υψηλού κινδύνου, ενώ παράλληλα ενισχύει την καινοτομία και ευελπιστεί να καθιερώσει την Ευρώπη ως ηγέτη στον τομέα αυτό. Θεσπίζει υποχρεώσεις για την τεχνητή νοημοσύνη με βάση τους δυνητικούς κινδύνους και το επίπεδο των επιπτώσεών της.
V. Ομοιότητες με τον ΓΚΠΔ
Ο Κανονισμός για την ΤΝ φαίνεται να έχει ως πρότυπο τον Γενικό Κανονισμό Προστασίας Δεδομένων 679/2016. Δεν θα αποτελούσε υπερβολή να ειπωθεί ότι αποτελεί «μίμηση» αυτού.[15] Η ομοιότητα είναι καταφανής σε επτά βασικούς άξονες:
Πρώτον, ο Κανονισμός έχει εξωεδαφικό χαρακτήρα. Σύμφωνα με το άρθρο 5 παρ. 2, ο Κανονισμός εφαρμόζεται σε α) παρόχους που διαθέτουν στην αγορά ή θέτουν σε λειτουργία συστήματα ΤΝ στην Ένωση, ανεξάρτητα από το αν οι εν λόγω πάροχοι είναι εγκατεστημένοι εντός της Ένωσης ή σε τρίτη χώρα· β) χρήστες συστημάτων ΤΝ οι οποίοι βρίσκονται εντός της Ένωσης· γ) παρόχους και χρήστες συστημάτων ΤΝ οι οποίοι βρίσκονται σε τρίτη χώρα, όταν τα στοιχεία εξόδου που παράγει το σύστημα χρησιμοποιούνται στην Ένωση.
Δεύτερον, ο Κανονισμός εισάγει τη λογική της οιονεί αυτορρύθμισης υπό την έννοια ότι οι εφαρμογές ΤΝ δεν αδειοδοτούνται – κατά κανόνα – από κάποια εποπτική αρχή.
Τρίτον, σε περίπτωση παραβιάσεως του Κανονισμού, τα πρόστιμα είναι δυσθεώρητα.
Τέταρτον, ο Κανονισμός καταλείπει τη διακριτική ευχέρεια στα κράτη μέρη να προβούν στις δικές τους επιλογές. Εν τοις πράγμασι πρόκειται για έναν Κανονισμό με πολλά χαρακτηριστικά Οδηγίας. Χαρακτηριστικό παράδειγμα είναι η επιλογή των κρατών μελών για την επιβολή προστίμων σε διοικητικές αρχές (άρθρο 71 παρ. 7).
Πέμπτον, ο Κανονισμός ορίζει ότι οι εποπτικές αρχές ιδρύονται σε επίπεδο κράτους μέλους (άρθρο 3 παράγραφοι 42 και 59). Αυτές θα συντονίζονται σε επίπεδο ΕΕ από το Ευρωπαϊκό Συμβούλιο ΤΝ (άρθρο 56).
Έκτον, ο Κανονισμός εισάγει ένα σύνολο φορέων, οι οποίοι συνθέτουν ένα σύστημα που, αν και μοναδικό για την πράξη, μοιάζει με εκείνο του ΓΚΠΔ.[16] Ο “πάροχος” είναι ο υπεύθυνος λήψης αποφάσεων, ο οποίος είτε άμεσα είτε μέσω μιας σειράς μεσαζόντων (“εισαγωγέας”, “διανομέας”, “εξουσιοδοτημένος αντιπρόσωπος”) επηρεάζει τους παθητικούς αποδέκτες, τους “χρήστες”. Όλοι αυτοί οι φορείς εμπλέκονται στη χρήση ενός συστήματος τεχνητής νοημοσύνης.[17]
Έβδομον, ορισμένες διατάξεις του Κανονισμού επηρεάζονται σαφώς από τον ΓΚΠΔ. Σε αυτές περιλαμβάνονται η εξαίρεση της οικιακής χρήσης (άρθρο 3 παρ. 4) – οι μηχανισμοί πιστοποίησης, δηλαδή οι δηλώσεις συμμόρφωσης και οι κώδικες δεοντολογίας (άρθρα 48 και 69) – το σύστημα καταχώρισης της ΤΝ (άρθρα 51 και 60) – ο υποχρεωτικός διορισμός αντιπροσώπων στην ΕΕ για κάθε φορέα ΤΝ εκτός ΕΕ (άρθρο 25) – και η αρχή της λογοδοσίας (άρθρα 3 παρ. 4). 23 και 26 παρ. 5).[18]
VΙ. Βασικοί άξονες
O Κανονισμός συνιστά μια οριζόντια πράξη που στοχεύει στην ασφάλεια προϊόντων και την προσέγγιση βάσει κινδύνου. Στοχεύει στην προστασία της υγείας, της ασφάλειας και των θεμελιωδών δικαιωμάτων. Πρόκειται για μια νομοθεσία φιλική προς την καινοτομία, η οποία λειτουργεί συμπληρωματικά με την υφιστάµενη νοµοθεσία. Θα τυγχάνει εφαρμογής σε δημόσιους και ιδιωτικούς φορείς, εντός και εκτός της ΕΕ (εφόσον το σύστημα ΤΝ τοποθετείται στην Ένωση και η αγορά ή η χρήση του επηρεάζει άτομα που βρίσκονται στην ΕΕ). Δεν εφαρμόζεται στην περίπτωση του στρατού, της άμυνας, της εθνικής ασφάλειας, σε συστήματα ελεύθερου και ανοικτού κώδικα (με εξαιρέσεις) και σε δραστηριότητες έρευνας, ανάπτυξης και δημιουργίας πρωτοτύπων που προηγούνται της διάθεσης στην αγορά.
Ο Κανονισμός για την τεχνητή νοημοσύνη κατατάσσει σε τέσσερις κατηγορίες τα συστήματα τεχνητής νοημοσύνης ανάλογα με τον κίνδυνο που ενέχουν:
Α) Μη αποδεκτός κίνδυνος (άρθρο 5)
O Κανονισμός απαγορεύει ορισμένες εφαρμογές τεχνητής νοημοσύνης που απειλούν τα δικαιώματα των πολιτών. Πρόκειται για μια συμφωνία μη αποδοχής επικίνδυνων συστημάτων.
Συγκεκριμένα, η απαγόρευση ισχύει για
- τη χρήση υποσυνείδητων, χειριστικών ή παραπλανητικών τεχνικών για τη στρέβλωση της συμπεριφοράς και την εξασθένιση της λήψης τεκμηριωμένων αποφάσεων, προκαλώντας σημαντική βλάβη∙
- την εκμετάλλευση ευάλωτων σημείων που σχετίζονται με την ηλικία, την αναπηρία ή τις κοινωνικοοικονομικές συνθήκες για να στρεβλώσουν τη συμπεριφορά, προκαλώντας σημαντική βλάβη∙
- τα συστήματα βιομετρικής κατηγοριοποίησης που συνάγουν ειδικές κατηγορίες δεδομένων (φυλή, πολιτικά φρονήματα, συμμετοχή σε συνδικαλιστική οργάνωση, θρησκευτικές ή φιλοσοφικές πεποιθήσεις, σεξουαλική ζωή ή σεξουαλικό προσανατολισμό), εκτός από την επισήμανση ή το φιλτράρισμα νομίμως αποκτηθέντων συνόλων βιομετρικών δεδομένων ή όταν η επιβολή του νόμου κατηγοριοποιεί βιομετρικά δεδομένα∙
- την κοινωνική βαθμολόγηση, δηλαδή αξιολόγηση ή ταξινόμηση ατόμων ή ομάδων με βάση την κοινωνική συμπεριφορά ή τα προσωπικά χαρακτηριστικά, προκαλώντας επιζήμια ή δυσμενή μεταχείριση των ατόμων αυτών∙
- την αξιολόγηση του κινδύνου διάπραξης εγκληματικών πράξεων από ένα άτομο αποκλειστικά βάσει προφίλ ή χαρακτηριστικών της προσωπικότητας, εκτός εάν χρησιμοποιείται για να ενισχύσει τις ανθρώπινες εκτιμήσεις που βασίζονται σε αντικειμενικά, επαληθεύσιμα γεγονότα που συνδέονται άμεσα με εγκληματική δραστηριότητα∙
- τη σύνταξη βάσεων δεδομένων αναγνώρισης προσώπου με μη στοχευμένη απόσπαση εικόνων προσώπου από το διαδίκτυο ή υλικό από κάμερες κλειστού κυκλώματος παρακολούθησης∙
- την εξαγωγή συμπερασμάτων για συναισθήματα σε χώρους εργασίας ή εκπαιδευτικά ιδρύματα, εκτός από ιατρικούς λόγους ή λόγους ασφαλείας∙
- την “σε πραγματικό χρόνο” απομακρυσμένη βιομετρική ταυτοποίηση σε δημόσια προσβάσιμους χώρους για την επιβολή του νόμου, εκτός εάν: αφορά σε
- αναζήτηση αγνοουμένων, θυμάτων απαγωγής και ατόμων που έχουν πέσει θύματα εμπορίας ανθρώπων ή σεξουαλικής εκμετάλλευσης,
- αποτροπή ουσιαστικής και άμεσης απειλής για τη ζωή ή προβλέψιμης τρομοκρατικής επίθεσης – ή,
- ταυτοποίηση υπόπτων για σοβαρά εγκλήματα (π.χ. δολοφονίες, βιασμοί, ένοπλες ληστείες, διακίνηση ναρκωτικών και παράνομων όπλων, οργανωμένο έγκλημα, περιβαλλοντικό έγκλημα κ.λπ.).
Η ανωτέρω χρήση επιτρέπεται μόνο όταν η μη χρήση του εργαλείου θα προκαλούσε σημαντική βλάβη και πρέπει να λαμβάνει υπόψιν τα δικαιώματα και τις ελευθερίες των επηρεαζόμενων προσώπων.
Πριν από την ανάπτυξη, η αστυνομία πρέπει να διεξαγάγει εκτίμηση επιπτώσεων στα θεμελιώδη δικαιώματα και να καταχωρίσει το σύστημα στη βάση δεδομένων της ΕΕ, αν και, σε δεόντως αιτιολογημένες περιπτώσεις επείγοντος, η ανάπτυξη μπορεί να εκκινήσει χωρίς καταχώριση, υπό την προϋπόθεση ότι θα καταχωρισθεί αργότερα χωρίς αδικαιολόγητη καθυστέρηση.
Πριν από τη θέση σε εφαρμογή, πρέπει να ληφθεί άδεια από δικαστική ή ανεξάρτητη διοικητική αρχή, αν και, σε δεόντως αιτιολογημένες περιπτώσεις επείγοντος, η ανάπτυξη μπορεί να αρχίσει χωρίς άδεια, υπό την προϋπόθεση ότι η άδεια θα αιτηθεί εντός 24 ωρών. Εάν η άδεια απορριφθεί, η ανάπτυξη πρέπει να σταματήσει αμέσως, διαγράφοντας όλα τα δεδομένα, τα αποτελέσματα και τις εκροές.
Β) Υψηλός κίνδυνος (άρθρο 6 επ.)
Το μεγαλύτερο μέρος του Κανονισμού αφορά σε συστήματα ΤΝ υψηλού κινδύνου, τα οποία υπόκεινται σε ρυθμίσεις. Τα συστήματα αυτά χρήζουν μελέτης εκτίμησης αντικτύπου. Ο Κανονισμός θεσπίζει σαφείς υποχρεώσεις για συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου (λόγω της σημαντικής δυνητικής βλάβης που μπορεί να προκαλέσουν στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου). Τα συστήματα αυτά πρέπει να αξιολογούν και να μειώνουν τους κινδύνους, να τηρούν αρχεία καταγραφής χρήσης, να είναι διαφανή και ακριβή και να εξασφαλίζουν την ανθρώπινη εποπτεία. Οι πολίτες θα έχουν το δικαίωμα να υποβάλλουν καταγγελίες σχετικά με τα συστήματα και να λαμβάνουν εξηγήσεις σχετικά με τις αποφάσεις που βασίζονται σε συστήματα υψηλού κινδύνου και επηρεάζουν τα δικαιώματά τους. Η ρύθμιση του υψηλού κινδύνου έλκει την καταγωγή της από την ασφάλεια των σχετικών προϊόντων.
Όπως αναφέρθηκε ανωτέρω, ο Κανονισμός απαγορεύει, καταρχήν, τη χρήση βιομετρικών συστημάτων ταυτοποίησης προσώπου από τις αρχές επιβολής του νόμου. Κατ’ εξαίρεση, επιτρέπεται η χρήση αυτών των συστημάτων σε εξαντλητικά απαριθμούμενες και στενά καθορισμένες περιστάσεις. Εν προκειμένω, η χρήση των συστημάτων πρέπει να είναι χρονικά και γεωγραφικά περιορισμένη και να υπόκειται σε ειδική προηγούμενη δικαστική ή διοικητική άδεια. Τέτοιες χρήσεις μπορεί να περιλαμβάνουν, για παράδειγμα, τη στοχευμένη αναζήτηση ενός αγνοούμενου προσώπου ή την πρόληψη τρομοκρατικής επίθεσης. Η χρήση τέτοιων συστημάτων εκ των υστέρων θεωρείται περίπτωση χρήσης υψηλού κινδύνου, η οποία απαιτεί δικαστική άδεια και συνδέεται με ποινικό αδίκημα.
Τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου πρέπει να υποβληθούν σε αξιολόγηση της συμμόρφωσης από τρίτο μέρος εκτός εάν:
- το σύστημα τεχνητής νοημοσύνης εκτελεί μια στενή διαδικαστική εργασία,
- βελτιώνει το αποτέλεσμα μιας προηγουμένως ολοκληρωμένης ανθρώπινης δραστηριότητας,
- ανιχνεύει μοτίβα λήψης αποφάσεων ή αποκλίσεις από προηγούμενα μοτίβα λήψης αποφάσεων και δεν έχει σκοπό να αντικαταστήσει ή να επηρεάσει την προηγούμενη ολοκληρωμένη ανθρώπινη αξιολόγηση χωρίς κατάλληλη ανθρώπινη επανεξέταση – ή
- εκτελεί προπαρασκευαστικό έργο για μια αξιολόγηση σχετική με τους σκοπούς των περιπτώσεων χρήσης για τα κατωτέρω:
α) Μη απαγορευμένα βιομετρικά στοιχεία (απομακρυσμένα συστήματα βιομετρικής ταυτοποίησης, συστήματα βιομετρικής κατηγοριοποίησης που συμπεραίνουν ευαίσθητα ή προστατευόμενα χαρακτηριστικά ή ιδιότητες, συστήματα αναγνώρισης συναισθημάτων).
β) Κρίσιμες υποδομές (στοιχεία ασφάλειας στη διαχείριση και λειτουργία κρίσιμων ψηφιακών υποδομών, οδικής κυκλοφορίας και την παροχή νερού, φυσικού αερίου, θέρμανσης και ηλεκτρικής ενέργειας).
γ) Εκπαίδευση και επαγγελματική κατάρτιση (καθορισμός πρόσβασης, εισαγωγής ή ανάθεσης εκπαιδευτικής και επαγγελματικής κατάρτισης σε όλα τα επίπεδα, αξιολόγηση μαθησιακών αποτελεσμάτων και του κατάλληλου επιπέδου εκπαίδευσης, παρακολούθηση και εντοπισμός απαγορευμένης συμπεριφοράς των μαθητών κατά τη διάρκεια των εξετάσεων).
δ) Απασχόληση, διαχείριση των εργαζομένων και πρόσβαση στην αυτοαπασχόληση (συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για την πρόσληψη ή την επιλογή και την αξιολόγηση των υποψηφίων, προαγωγή και καταγγελία συμβάσεων, κατανομή καθηκόντων με βάση χαρακτηριστικά ή ιδιότητες της προσωπικότητας και τη συμπεριφορά, και παρακολούθηση και αξιολόγηση της απόδοσης).
ε) Πρόσβαση σε βασικές δημόσιες και ιδιωτικές υπηρεσίες και απόλαυση αυτών (συστήματα ΤΝ που χρησιμοποιούνται από τις δημόσιες αρχές για την αξιολόγηση της επιλεξιμότητας σε παροχές και υπηρεσίες, αξιολόγηση της πιστοληπτικής ικανότητας, εκτός από τον εντοπισμό οικονομικής απάτης, αξιολόγηση και ταξινόμηση κλήσεων έκτακτης ανάγκης, συμπεριλαμβανομένης της ιεράρχησης των αποστολών της αστυνομίας, της πυροσβεστικής, της ιατρικής βοήθειας και υπηρεσίες διαλογής επειγόντων ασθενών, αξιολογήσεις κινδύνων και τιμολόγηση στις ασφαλίσεις υγείας και ζωής).
στ) Επιβολή του νόμου (συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για την αξιολόγηση του κινδύνου ενός ατόμου να γίνει θύμα εγκλήματος, πολυγράφοι, αξιολόγηση της αξιοπιστίας αποδεικτικών στοιχείων κατά τη διάρκεια ποινικών ερευνών ή διώξεων, εκτίμηση του κινδύνου ενός ατόμου να διαπράξει ή να επαναλάβει αξιόποινη πράξη όχι μόνο με βάση την κατάρτιση προφίλ ή την αξιολόγηση χαρακτηριστικών της προσωπικότητας ή της προηγούμενης εγκληματικής συμπεριφοράς, δημιουργία προφίλ κατά τη διάρκεια ποινικών ερευνών, ανακρίσεων ή διώξεων).
ζ) Διαχείριση της μετανάστευσης, του ασύλου και των συνοριακών ελέγχων (πολυγράφοι, αξιολογήσεις παράτυπης μετανάστευσης ή κινδύνων για την υγεία, εξέταση αιτήσεων ασύλου, θεωρήσεων και αδειών διαμονής, καθώς και των σχετικών καταγγελιών που αφορούν με την επιλεξιμότητα, εντοπισμός, αναγνώριση ή ταυτοποίηση ατόμων, εκτός από την επαλήθευση ταξιδιωτικών εγγράφων).
η) Απονομή δικαιοσύνης και δημοκρατικές διαδικασίες (συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για την έρευνα και την ερμηνεία γεγονότων και την εφαρμογή του νόμου σε συγκεκριμένα γεγονότα ή χρησιμοποιούνται στην εναλλακτική επίλυση διαφορών).
Τα συστήματα τεχνητής νοημοσύνης θεωρούνται πάντοτε υψηλού κινδύνου εάν δημιουργούν προφίλ ατόμων, δηλαδή αυτοματοποιημένη επεξεργασία προσωπικών δεδομένων για την αξιολόγηση διαφόρων πτυχών της ζωής ενός ατόμου, όπως η εργασιακή απόδοση, η οικονομική κατάσταση, η υγεία, οι προτιμήσεις, τα ενδιαφέροντα, η αξιοπιστία, η συμπεριφορά, η τοποθεσία ή η μετακίνηση.
Οι πάροχοι που πιστεύουν ότι το δικό τους σύστημα ΤΝ, το οποίο δεν ανταποκρίνεται στις ανωτέρω κατηγορίες (α έως η), δεν είναι υψηλού κινδύνου, οφείλουν να τεκμηριώνουν την εν λόγω αξιολόγηση πριν από τη διάθεσή του στην αγορά ή τη θέση του σε λειτουργία.
Γ) Περιορισμένος κίνδυνος
Τα εν λόγω συστήματα υπόκεινται σε ελαφρύτερες υποχρεώσεις διαφάνειας: οι προγραμματιστές και οι φορείς ανάπτυξης πρέπει να διασφαλίζουν ότι οι τελικοί χρήστες γνωρίζουν ότι αλληλοεπιδρούν με ΤΝ (chatbots και deepfakes).
Δ) Ελάχιστος κίνδυνος
Δεν ρυθμίζεται και αφορά στην πλειονότητα των εφαρμογών τεχνητής νοημοσύνης που διατίθενται σήμερα στην ενιαία αγορά της ΕΕ, όπως τα βιντεοπαιχνίδια με δυνατότητα τεχνητής νοημοσύνης και τα φίλτρα ανεπιθύμητης αλληλογραφίας
VII. Υποχρεώσεις παρόχων
Όπως αναφέρθηκε, ο Κανονισμός διακρίνει ανάμεσα σε διαφορετικές κατηγορίες: σε παρόχους, σε φορείς εφαρμογής, σε εισαγωγείς, σε διανομείς και σε εξουσιοδοτημένους αντιπροσώπους κατανέμοντας διαφορετικές ευθύνες κατά μήκος της αξιακής αλυσίδας της ΤΝ.
Οι πάροχοι ΤΝ υψηλού κινδύνου υποχρεούνται (άρθρο 16) να:
- διαμορφώσουν σύστημα διαχείρισης κινδύνων καθ’ όλη τη διάρκεια του κύκλου ζωής του συστήματος ΤΝ υψηλού κινδύνου,
- διαμορφώσουν σύστημα διαχείρισης δεδομένων, διασφαλίζοντας ότι τα σύνολα δεδομένων κατάρτισης, επικύρωσης και δοκιμών είναι συναφή, επαρκώς αντιπροσωπευτικά και, στο μέγιστο δυνατό βαθμό, απαλλαγμένα από σφάλματα και πλήρη σύμφωνα με τον επιδιωκόμενο σκοπό,
- συντάσσουν τεχνική τεκμηρίωση για την απόδειξη της συμμόρφωσης και παρέχουν στις αρχές τις πληροφορίες για την αξιολόγηση αυτής της συμμόρφωσης,
- σχεδιάσουν το σύστημα υψηλού κινδύνου για την τήρηση αρχείων ώστε να μπορεί να καταγράφει αυτόματα γεγονότα που σχετίζονται με τον εντοπισμό κινδύνων σε εθνικό επίπεδο και ουσιαστικές τροποποιήσεις καθ’ όλη τη διάρκεια του κύκλου ζωής του συστήματος,
- παράσχουν οδηγίες χρήσης στους μεταγενέστερους φορείς ανάπτυξης για να καταστεί δυνατή η συμμόρφωση των τελευταίων,
- σχεδιάσουν το σύστημα τεχνητής νοημοσύνης υψηλού κινδύνου ώστε να επιτρέπουν στους φορείς ανάπτυξης να εφαρμόζουν ανθρώπινη επίβλεψη,
- σχεδιάσουν το σύστημα τεχνητής νοημοσύνης υψηλού κινδύνου ώστε να επιτύχουν τα κατάλληλα επίπεδα ακρίβειας, ευρωστίας και ασφάλειας στον κυβερνοχώρο,
- καθιερώσουν συστήματα διαχείρισης ποιότητας για τη διασφάλιση της συμμόρφωσης.
Περαιτέρω, τα συστήματα τεχνητής νοημοσύνης γενικού σκοπού και τα μοντέλα στα οποία βασίζονται πρέπει να πληρούν ορισμένες απαιτήσεις διαφάνειας, συμπεριλαμβανομένης της συμμόρφωσης με τη νομοθεσία της ΕΕ περί πνευματικών δικαιωμάτων και της δημοσίευσης λεπτομερών περιλήψεων του περιεχομένου που χρησιμοποιείται για την εκπαίδευση. Επιπλέον, οι τεχνητές ή παραποιημένες εικόνες, ο ήχος ή το περιεχόμενο βίντεο (“deepfakes”) πρέπει να επισημαίνονται σαφώς ως τέτοια.
VIII. Έλεγχος και εποπτεία
Η δομή διακυβέρνησης που προτείνεται από τoν Κανονισμό περιλαμβάνει τη θέσπιση εθνικών και υπερεθνικών φορέων.
Α) Υπερεθνικό επίπεδο
Σε υπερεθνικό επίπεδο διαμορφώνονται δύο βασικά όργανα: το Γραφείο ΤΝ (ΑΙ Office) και το Ευρωπαϊκό Συμβούλιο ΤΝ (AI Board). Αν και διακριτά ως προς τη δομή και το έργο τους, αυτοί οι φορείς είναι κατά κάποιο τρόπο συμπληρωματικοί. Το Γραφείο ΤΝ αναμένεται να επικεντρωθεί στη ρυθμιστική εποπτεία και επιβολή, ιδίως όσον αφορά στα μοντέλα ΤΝΓΣ. Το Ευρωπαϊκό Συμβούλιο ΤΝ αναμένεται να διασφαλίσει τον συντονισμό μεταξύ των κρατών μελών, ενισχύοντας την εφαρμογή του Κανονισμού μέσω της παροχής συμβουλών, της διαβούλευσης και της ευαισθητοποίησης για ανάληψη πρωτοβουλιών. Εκτός από αυτά τα δύο, ο Κανονισμός εισάγει και άλλα σημαντικά, αν και εν μέρει αυτόνομα, υπερεθνικά όργανα, δηλαδή την Επιστημονική Επιτροπή (Scientific Panel) και το Συμβουλευτικό φόρουμ (Advisory Forum).
Β) Εθνικό επίπεδο
Η αποτελεσματική εφαρμογή και επιβολή του Κανονισμού απαιτεί συχνά τοπική παρουσία, καταλείποντας τη διακριτική ευχέρεια και την ευθύνη κυρίως στα κράτη μέλη για την επιλογή συγκεκριμένου φορέα εποπτείας. Καθένα από αυτά αναμένεται να δημιουργήσει τουλάχιστον μια κοινοποιούσα αρχή υπεύθυνη για τις διαδικασίες συμμόρφωσης και πιστοποίησης και μια αρχή εποπτείας της αγοράς για να ελέγχει ότι τα προϊόντα ανταποκρίνονται στα πρότυπα της νομοθεσίας για την ασφάλεια, την υγεία και την προστασία του περιβάλλοντος, όπως περιγράφονται στον Κανονισμό (ΕΕ) 2019/1020. Και οι δύο αρχές ενθαρρύνονται επίσης να καθοδηγούν τη συμμόρφωση σε μικρομεσαίες και νεοσύστατες επιχειρήσεις, λαμβάνοντας υπόψιν τυχόν σχετικές συστάσεις από το Συμβούλιο Προστασίας Δεδομένων και την Επιτροπή (κεφάλαιο VII, τμήμα 2 Κανονισμού).
Ο Κανονισμός ορίζει ότι οι εθνικές αρχές πρέπει να έχουν μόνιμα στη διάθεσή τους προσωπικό με εμπειρική γνώση σε θέματα ΤΝ, προστασίας δεδομένων, ασφάλειας στον κυβερνοχώρο, θεμελιωδών δικαιωμάτων, υγείας και ασφάλειας καθώς και τα σχετικά πρότυπα και το νομοθετικό πλαίσιο. Τα κράτη μέλη πρέπει να αξιολογούν και να υποβάλλουν εκθέσεις στην Επιτροπή κάθε δύο χρόνια (άρθρο 70).
Στο πλαίσιο αυτό, τα κράτη μέλη έχουν την ευελιξία να σχεδιάζουν τη διακυβέρνησή τους
για τη ρύθμιση της ΤΝ: μπορούν είτε να δημιουργήσουν νέους ρυθμιστικούς φορείς αφιερωμένους για την ΤΝ ή να ενσωματώσουν αυτές τις αρμοδιότητες εποπτείας σε υφιστάμενες οντότητες, όπως οι εθνικές Αρχές προστασίας δεδομένων, εντός των νομικών τους πλαισίων.
ΙΧ. Κυρώσεις
Τα κράτη μέλη καθορίζουν τους κανόνες σχετικά με τις κυρώσεις, συμπεριλαμβανομένων των διοικητικών προστίμων, οι οποίες επιβάλλονται σε περίπτωση παράβασης του Κανονισμού και λαμβάνουν όλα τα αναγκαία μέτρα για να εξασφαλίσουν την ορθή και αποτελεσματική εφαρμογή τους. Οι προβλεπόμενες κυρώσεις είναι αποτελεσματικές, αναλογικές και αποτρεπτικές. Λαμβάνουν ιδιαίτερα υπ’ όψιν τα συμφέροντα των παρόχων μικρής κλίμακας και των νεοφυών επιχειρήσεων, καθώς και την οικονομική τους βιωσιμότητα.
Σύμφωνα με την παρ. 2 του άρθρου 71, τα κράτη μέλη κοινοποιούν στην Επιτροπή τους εν λόγω κανόνες και τα εν λόγω μέτρα και την ενημερώνουν αμελλητί σχετικά με κάθε μεταγενέστερη τροποποίησή τους.
Το άρθρο 71 παρ. 3 θέτει το όριο των διοικητικών προστίμων για τις παραβάσεις α) μη συμμόρφωσης με την απαγόρευση των πρακτικών τεχνητής νοημοσύνης που αναφέρονται στο άρθρο 5· β) μη συμμόρφωσης του συστήματος ΤΝ με τις απαιτήσεις που ορίζονται στο άρθρο 10. Το εν λόγω χρηματικό πρόστιμο είναι έως 30.000.000 Ευρώ ή, εάν ο παραβάτης είναι εταιρεία, έως και το 6 % του συνολικού παγκόσμιου ετήσιου κύκλου εργασιών της για το προηγούμενο οικονομικό έτος, ανάλογα με το ποιο ποσό είναι υψηλότερο.
Σύμφωνα με το άρθρο 71 παρ. 4, η μη συμμόρφωση του συστήματος ΤΝ με οποιεσδήποτε απαιτήσεις ή υποχρεώσεις δυνάμει του παρόντος κανονισμού, πλην εκείνων που ορίζονται στα άρθρα 5 και 10, επισύρει διοικητικά πρόστιμα ύψους έως 20.000.000 Eυρώ ή, εάν ο παραβάτης είναι εταιρεία, έως το 4% του συνολικού παγκόσμιου ετήσιου κύκλου εργασιών της για το προηγούμενο οικονομικό έτος, ανάλογα με το ποιο ποσό είναι υψηλότερο.
Το άρθρο 71 παρ. 4 τονίζει τη σημασία της παροχής ακριβών στοιχείων στις εποπτικές αρχές. Η παροχή ανακριβών, ελλιπών ή παραπλανητικών πληροφοριών σε κοινοποιημένους οργανισμούς και εθνικές αρμόδιες αρχές κατά την απάντηση σε αίτημα επισύρει διοικητικά πρόστιμα ύψους έως 10.000.000 Ευρώ ή, εάν ο παραβάτης είναι εταιρεία, έως το 2 % του συνολικού παγκόσμιου ετήσιου κύκλου εργασιών της για το προηγούμενο οικονομικό έτος, ανάλογα με το ποιο ποσό είναι υψηλότερο.
Το άρθρο 71 παρ. 6 υιοθετεί την εφαρμογή της αρχής της αναλογικότητας κατά τη λήψη απόφασης σχετικά με το ύψος του διοικητικού προστίμου σε κάθε μεμονωμένη περίπτωση. Ως εκ τούτου πρέπει να λαμβάνονται υπ’ όψιν όλες οι σχετικές περιστάσεις της συγκεκριμένης κατάστασης και ιδίως τα ακόλουθα:
α) η φύση, η σοβαρότητα και η διάρκεια της παράβασης και οι συνέπειές της·
β) αν έχουν ήδη επιβληθεί διοικητικά πρόστιμα από άλλες αρχές εποπτείας της αγοράς στον ίδιο φορέα εκμετάλλευσης για την ίδια παράβαση·
γ) το μέγεθος και το μερίδιο αγοράς του φορέα εκμετάλλευσης που διέπραξε την παράβαση.
Η παρ. 4 του άρθρου 71 καταλείπει στα κράτη μέλη τη διακριτική ευχέρεια να αποφασίσει αν και σε ποιο βαθμό μπορούν να επιβάλλονται διοικητικά πρόστιμα σε δημόσιες αρχές και φορείς που έχουν συσταθεί στο εν λόγω κράτος μέλος. Αντιστοίχως, κατά την παρ. 8 του ιδίου άρθρου, ανάλογα με το νομικό σύστημα των κρατών μελών, οι κανόνες για τα διοικητικά πρόστιμα μπορούν να εφαρμόζονται κατά τρόπο ώστε τα πρόστιμα να επιβάλλονται από τα αρμόδια εθνικά δικαστήρια ή από άλλους φορείς, κατά τα ισχύοντα στα εν λόγω κράτη μέλη. Η εφαρμογή των κανόνων αυτών στα εν λόγω κράτη μέλη έχει ισοδύναμο αποτέλεσμα.
Χ. Έναρξη ισχύος
Μετά από την έναρξη ισχύος, θα εφαρμοστεί ο νόμος για την ΤΝ ως εξής:
- Σε 6 μήνες για απαγορευμένα συστήματα τεχνητής νοημοσύνης.
- Σε 12 μήνες για την ΤΝ γενικού σκοπού.
- Σε 24 μήνες για τα συστήματα ΤΝ υψηλού κινδύνου σύμφωνα με το παράρτημα ΙΙΙ.
- Σε 36 μήνες για τα συστήματα ΤΝ υψηλού κινδύνου σύμφωνα με το παράρτημα ΙΙ.
- Οι κώδικες πρακτικής πρέπει να είναι έτοιμοι σε 9 μήνες μετά την έναρξη ισχύος.
ΧΙ. Προβληματική
Α) Κατηγοριοποίηση βάσει καταλόγου
Ο Κανονισμός αποσκοπεί σε μία ρύθμιση που προωθεί την αγορά σεβόμενη ταυτόχρονα τα θεμελιώδη δικαιώματα και την ασφάλεια. Κατηγοριοποιεί τα συστήματα με βάση τον κίνδυνο, διαβαθμίζοντας το επίπεδο ρύθμισης σε συνάρτηση με το επίπεδο κινδύνου που ενέχουν τα διάφορα συστήματα τεχνητής νοημοσύνης. Στόχος είναι να αποφύγει τόσο την υπορρύθμιση (που αποτυγχάνει να προστατεύσει τα δικαιώματα και τις άλλες αξίες), όσο και την υπερρύθμιση (που περιστέλλει την καινοτομία και την αποτελεσματική λειτουργία της ενιαίας αγοράς). Ωστόσο, η προσέγγιση βάσει καταλόγου και όχι βάσει αρχών για τον καθορισμό του κατά πόσον ένα σύστημα χαρακτηρίζεται ως υψηλού κινδύνου δεν είναι απροβλημάτιστη. Είναι εξαιρετικά δύσκολο να απαριθμηθούν, εκ των προτέρων, οι εφαρμογές των συστημάτων που απειλούν με σοβαρές παραβιάσεις δικαιωμάτων. Κατά συνέπεια, τα συστήματα που αυτή τη στιγμή χαρακτηρίζονται ως χαμηλού κινδύνου ενδεχομένως να μην υπόκεινται σε ρύθμιση που επαρκεί για την αποτροπή παραβιάσεων δικαιωμάτων. Το ελάττωμα αυτό ενισχύεται από τις ανησυχίες ότι οι διατάξεις του νόμου ενδέχεται να εκτοπίσουν (α) την πιο απαιτητική προστασία δικαιωμάτων που παρέχεται από άλλη νομοθεσία της ΕΕ και (β) την πιο απαιτητική προστασία δικαιωμάτων που έχει θεσπιστεί σε εθνικό επίπεδο από τα κράτη μέλη. Περαιτέρω τίθεται το ζήτημα του ποιος θα προβεί στην κατηγοριοποίηση του κινδύνου και με ποιες διαδικασίες θα διεξάγεται η εκτίμηση αντικτύπου, προκειμένου να μην καταντήσει σε μια απλή άνευ σημασίας διαδικασία.
Β) Μοντέλο «Κανονοδηγίας»
Το μοντέλο του Κανονισμού με πολλά χαρακτηριστικά Οδηγίας («Κανονοδηγίας»), κατά το πρότυπο του ΓΚΠΔ, φαίνεται να καταλείπει τη διακριτική ευχέρεια στα κράτη μέλη για πολλές επιλογές, κάτι το οποίο ενδέχεται να οδηγήσει σε μη ομοιόμορφη εφαρμογή του Κανονισμού. Χαρακτηριστικό παράδειγμα αποτελεί η επιλογή εποπτικού οργάνου το οποίο μπορεί είτε να είναι νέο είτε να τεθεί υπό τη σκέπη ενός ήδη υπάρχοντος, όπως λ.χ. της Αρχής Προστασίας Δεδομένων. Είναι πιθανόν ότι το μοντέλο που θα προτιμηθεί από τον εκάστοτε εσωτερικό νομοθέτη υποδηλώνει τη βούλησή του είτε για αυτονομία του νέου εποπτικού οργάνου είτε για υπαγωγή του σε ένα ήδη υπάρχον, το οποίο ενδεχομένως θα δίνει έμφαση στον αρχικό του προσανατολισμό.
Γ) Πολλαπλές εποπτικές αρχές
Ο ρόλος των διαφόρων φορέων που σχετίζονται με τον Κανονισμό ενδέχεται να οδηγήσει σε σύγχυση αρμοδιοτήτων. Περιλαμβάνει ένα ευρωπαϊκό συμβούλιο ΤΝ ως ρυθμιστικό όργανο με εκπροσώπηση της Επιτροπής, των κρατών μελών, του Ευρωπαίου Επόπτη Προστασίας Δεδομένων και υποομάδων για συγκεκριμένα ζητήματα. Το εν λόγω Συμβούλιο έχει δεχθεί κριτική για τον αποκλεισμό ομάδων ενδιαφερομένων, την έλλειψη καθορισμένης οργανωτικής δομής και την αδυναμία προσδιορισμού των καθηκόντων του. Ένας άλλος παράγοντας που σχετίζεται με το ζήτημα είναι η ανάθεση αρμοδιοτήτων αξιολόγησης κινδύνου στην Επιτροπή για την επικαιροποίηση του καταλόγου των συστημάτων ΤΝ. Η συναφής πολυπλοκότητα εντείνεται αν προσθέσει κανείς τις εποπτεύουσες αρχές που προβλέπονται βάσει των αδελφών Οδηγιών Digital Services Act, Digital Markets Act, κ.ο.κ..
Δ) Έλλειψη καθοδήγησης
Αβεβαιότητα επικρατεί αναφορικά με τη δυνατότητα των πολιτών να αμφισβητούν τα αποτελέσματα των συστημάτων ΤΝ. Η απαίτηση παροχής αιτιολόγησης πίσω από τη λήψη αποφάσεων εγείρει ερωτήματα σχετικά με το περιεχόμενο, τη φύση και το βάθος των επεξηγήσεων της ΤΝ. Το πεδίο των εξηγήσεων είναι ασαφές στο επίπεδο της επικοινωνίας, της γλώσσας και της παρουσίασης όταν κάποιος υποβάλλεται σε συστήματα αναγνώρισης συναισθημάτων ή βιομετρικής κατηγοριοποίησης. Στην υγειονομική περίθαλψη, δεν είναι σαφές πότε οι ασθενείς πρέπει να ενημερώνονται για τη χρήση συστημάτων ΤΝ στη λήψη ιατρικών αποφάσεων. Τα συστήματα ποσοτικής εκτίμησης κινδύνου αντιμετωπίζουν προκλήσεις επειδή δεν υπάρχει τυποποιημένη μέθοδος για την αξιολόγηση της απόδοσής τους. Η αξιολόγηση συστημάτων υψηλού κινδύνου χωρίς σαφή καθοδήγηση είναι δύσκολη.
Ε) Διευρυμένο πεδίο εφαρμογής
Το πεδίο εφαρμογής του Κανονισμού τείνει να είναι εξαιρετικά ευρύ. Ο ορισμός της ΤΝ μπορεί να περιλαμβάνει πολλά συστήματα που σχετίζονται με την καθημερινή επεξεργασία δεδομένων, με αποτέλεσμα ένα υπερβολικά περιεκτικό πεδίο εφαρμογής, όπου ο μόνος κοινός παράγοντας στα ρυθμιζόμενα συστήματα μπορεί να είναι η επεξεργασία δεδομένων. Κατά συνέπεια, καθίσταται δυσχερής η ανεύρεση προγραμμάτων που δεν καλύπτονται από την περιγραφή των συστημάτων ΤΝ. Το πεδίο εφαρμογής του Κανονισμού επιδέχεται κριτική για τους περιορισμούς του. Αυτοί περιλαμβάνουν την έντονη εστίαση στο λογισμικό εις βάρος του υλικού, την παράβλεψη σχετικών περιπτώσεων χρήσης και οργανώσεων χρηστών και την παραμέληση της χρήσης των συστημάτων ΤΝ σε συγκεκριμένους τομείς.
ΣΤ) Ανταγωνισμός με εξωευρωπαϊκά συστήματα
Η υπερρύθμιση της ΤΝ ίσως οδηγήσει σε περιορισμό της καινοτομίας. Η Ευρωπαϊκή Ένωση επείγεται να αντιταχθεί, αλλά και να ανταγωνισθεί εξωευρωπαϊκά προϊόντα τεχνητής νοημοσύνης κυρίως από τις ΗΠΑ και την Κίνα που θα διασπάσουν την ενότητα της φιλοσοφίας και της τεχνολογίας της τεχνητής νοημοσύνης. Η Ευρωπαϊκή Ένωση υπολείπεται σε πρωτοβουλίες στον τομέα αυτό και οποιαδήποτε επισκίαση της αγοράς από άλλους θα εξουδετερώσει την όλη προσπάθεια ανθρωποκεντρικής ρυθμίσεως. Τίθεται το ζήτημα του πώς θα μπορέσει να ανταγωνισθεί ισοσθενώς την εξωευρωπαϊκή αγορά, χωρίς να προδώσει τη συνταγματική της ταυτότητα.
Ζ) Εξωεδαφικότητα
Ο Κανονισμός ΤΝ, όπως και ο ΓΚΠΔ, φαίνεται να διεκδικεί να μετακινήσει συνταγματικές παραδοχές που ο πόλεμος και η στρατιωτική επέμβαση δεν κατάφεραν να το πράξουν.[19] Η φιλοδοξία του προβάλλει υπέρμετρη, δεδομένου μάλιστα του γεγονότος ότι το μοντέλο εξωεδαφικότητας του ΓΚΠΔ δεν φαίνεται να έχει δικαιωθεί στην πράξη. Τα πρόστιμα που επιβάλλονται από εθνικές αρχές σε εξωευρωπαϊκούς φορείς τείνουν να έχουν προειδοποιητικό μόνο χαρακτήρα,[20] παραμένοντας εν τοις πράγμασι μη καταβληθέντα[21] και, ουσιαστικώς, υπονομεύουν τα μεγαλεπίβολα σχέδια περί εξωεδαφικής εφαρμογής.
ΧΙΙ. Επίλογος
Ο Κανονισμός για την ΤΝ έρχεται ως τα καινούρια ρούχα του αυτοκράτορα για την κάλυψη ενός μεγάλου κενού αναφορικά με τη ρύθμιση της ΤΝ. Χωρίς να λύνει όλα τα ζητήματα ανοίγει δρόμους για τη ρύθμιση πολλών. Καταλείπει έντονα περιθώρια στα κράτη μέλη για την υιοθέτηση συγκεκριμένων επιλογών, η ευρύτητα και αποτελεσματικότητα των οποίων καλείται να κριθεί στην πράξη.
Φερενίκη Παναγοπούλου
Επίκουρη Καθηγήτρια Παντείου Πανεπιστημίου
Δ.Ν. (Humboldt), M.P.H. (Harvard), M.Δ.Ε., Δρ Φιλοσ. (Ε.Κ.Π.Α.)*