ΑΠΟΨΕΙΣ

AI Act: Η τολμηρή κίνηση της Ευρώπης για τη διαμόρφωση του μέλλοντος της Τεχνητής Νοημοσύνης

rawpixel.com / Freepik

Η Ευρωπαϊκή Ένωση τοποθετήθηκε για άλλη μια φορά στην πρώτη γραμμή της νομοθετικής ρύθμισης νέων τεχνολογιών, αυτή τη φορά με στόχο την ταχέως εξελισσόμενη σφαίρα της Τεχνητής Νοημοσύνης (AI).

Έπειτα από εντατικές τριήμερες διαπραγματεύσεις, επιτεύχθηκε μια προσωρινή συμφωνία-ορόσημο για την Πράξη για την Τεχνητή Νοημοσύνη (AI Act), θέτοντας τις βάσεις για ένα μέλλον όπου η χρήση της Τεχνητής Νοημοσύνη δεν θα είναι μόνο καινοτόμος αλλά και ασφαλής, ηθική και κυρίως εναρμονισμένη με την διασφάλιση των θεμελιωδών ανθρωπίνων δικαιωμάτων. Ειδικότερα, πρόκειται για έναν Κανονισμό στο πλαίσιο της Ευρωπαϊκής Ένωσης, ο οποίος έχει σχεδιαστεί για να παρέχει ένα ολοκληρωμένο σύνολο κανόνων για την ανάπτυξη, την ανάπτυξη και τη χρήση της Τεχνητής Νοημοσύνης σε όλα τα κράτη μέλη.

Ως Κανονισμός, είναι άμεσα εφαρμόσιμος και ομοιόμορφα εκτελεστός σε ολόκληρη την ΕΕ, σε αντίθεση με τις κοινοτικές Οδηγίες που απαιτούν από τα επιμέρους κράτη μέλη να ενσωματώσουν τους κανόνες στην εθνική τους νομοθεσία.

Η σημασία του AI Act

Το AI Act αποτελεί μια πρωτοποριακή νομοθετική πρωτοβουλία, την πρώτη του είδους της σε παγκόσμιο επίπεδο (όπως και ο προηγούμενος Γενικός Κανονισμός για την Προστασία Δεδομένων (ΓΚΠΔ)), η οποία παρέχει ένα οριζόντιο επίπεδο προστασίας. Πρωταρχικός στόχος του Κανονισμού είναι να προωθήσει την ανάπτυξη και την υιοθέτηση της Τεχνητής Νοημοσύνης σε ολόκληρη την ενιαία αγορά της ΕΕ, διασφαλίζοντας παράλληλα ότι οι τεχνολογίες αυτές είναι αξιόπιστες και ασφαλείς. Παρέχοντας την υιοθέτηση μιας προσέγγισης «βάσει κινδύνου» (Risk-based Approach), κατηγοριοποιεί τις εφαρμογές AI ανάλογα με το ενδεχόμενο να προκαλέσουν βλάβη, εφαρμόζοντας αυστηρότερους κανονισμούς στα συστήματα υψηλότερου κινδύνου. Αυτή η αποφασιστική δράση υπογραμμίζει τη δέσμευση της ΕΕ να προστατεύσει τους πολίτες της από τις δυνητικά επεμβατικές ή επιβλαβείς χρήσεις της AI.

Ρύθμιση με βάση τον σχετιζόμενο κίνδυνο

Ο Κανονισμός για την Τεχνητή Νοημοσύνη υιοθετεί ένα πλαίσιο βασισμένο στον κίνδυνο για τα συστήματα ΤΝ (Risk-based approach), με τέσσερις κατηγορίες.

  • Τα συστήματα «απαράδεκτου κινδύνου» (Unacceptable risk), όπως η βιομετρική ταυτοποίηση σε πραγματικό χρόνο και η κοινωνική βαθμολόγηση, απαγορεύονται πλήρως λόγω πιθανών απειλών για την ασφάλεια και τα θεμελιώδη ανθρώπινα δικαιώματα.
  • Τα συστήματα «υψηλού κινδύνου» (High risk), συμπεριλαμβανομένων των συστημάτων Τεχνητής Νοημοσύνης, μεταξύ άλλων, σε κρίσιμες υποδομές, εκπαιδευτικά εργαλεία και σε ζητήματα επιβολής του νόμου, απαιτούν αυστηρή συμμόρφωση πριν από την είσοδο στην κοινοτική αγορά, που περιλαμβάνει εκ των προτέρων εκτιμήσεις κινδύνου επιπτώσεων, την αξιολόγηση των παρεχόμενων δεδομένων, λεπτομερή τεκμηρίωση και δη ανθρώπινη εποπτεία. Πιο συγκεκριμένα, η αξιολόγηση της συμμόρφωσης για τα συστήματα AI υψηλού κινδύνου, που διενεργείται κυρίως από τον ίδιο τον πάροχο, περιλαμβάνει την επαλήθευση της συμμόρφωσης, την εξέταση της τεχνικής τεκμηρίωσης και την παρακολούθηση μετά την κυκλοφορία στην αγορά, με αποκορύφωμα τη δήλωση συμμόρφωσης της ΕΕ και τη σήμανση CE.
  • Τα συστήματα «περιορισμένου κινδύνου» (Limited risk), όπως τα chatbots, απαιτούν διαφάνεια για την ενημέρωση των χρηστών σχετικά με την αλληλεπίδραση της AI.
  • Τέλος, οι εφαρμογές «ελάχιστου κινδύνου» (Minimal risk), όπως τα παιχνίδια με AI και τα φίλτρα ανεπιθύμητης αλληλογραφίας (spam filters), δεν έχουν πρόσθετους κανόνες.

Διακυβέρνηση και Εποπτεία

Ο Κανονισμός λαμβάνει υπόψη την ποικιλόμορφη φύση των εφαρμογών τεχνητής νοημοσύνης. Προς τούτο, προβλέπεται η ίδρυση του Γραφείου Τεχνητής Νοημοσύνης (AI Office) εντός της Ευρωπαϊκής Επιτροπής για την εποπτεία των πιο προηγμένων μοντέλων Τεχνητής Νοημοσύνης.

Το Γραφείο αυτό, μαζί με μια επιστημονική ομάδα ανεξάρτητων εμπειρογνωμόνων, θα διαδραματίσει καθοριστικό ρόλο στην καθοδήγηση της ανάπτυξης της AI, διασφαλίζοντας ότι τα μοντέλα θεμελίωσης υψηλού αντίκτυπου είναι ασφαλή και διαφανή. Ακόμη, θεσπίζεται το Συμβούλιο AI (AI Board), το οποίο αποτελείται από εκπροσώπους των κρατών μελών της ΕΕ και λειτουργεί ως συντονιστικό και συμβουλευτικό όργανο της Ευρωπαϊκής Επιτροπής.

Το εν λόγω Συμβούλιο διαδραματίζει καθοριστικό ρόλο στην καθοδήγηση της εφαρμογής του AI Act σε ολόκληρη την Ένωση, συμπεριλαμβανομένης της ανάπτυξης κωδίκων πρακτικής για τα μοντέλα θεμελίωσης (foundational models). Επιπλέον, η Πράξη προβλέπει ένα συμβουλευτικό φόρουμ, στο οποίο θα συμμετέχουν εμπειρογνώμονες του κλάδου, Μικρομεσαίες επιχειρήσεις (ΜΜΕ), νεοσύστατες επιχειρήσεις, καθώς και ο ακαδημαϊκός κόσμος. Αυτό το φόρουμ έχει σχεδιαστεί για να παρέχει ένα ευρύ φάσμα τεχνικής εμπειρογνωμοσύνης στο Συμβούλιο AI, διασφαλίζοντας ότι η διακυβέρνηση της στην ΕΕ είναι χωρίς αποκλεισμούς, καλά ενημερωμένη και αντανακλά τα συμφέροντα και τις ανησυχίες των διαφόρων ενδιαφερόμενων μερών. Αυτή η συνεργατική προσέγγιση αποσκοπεί στην προώθηση ενός ισορροπημένου και αποτελεσματικού ρυθμιστικού περιβάλλοντος AI στην ΕΕ, προωθώντας την καινοτομία και διασφαλίζοντας παράλληλα τα θεμελιώδη δικαιώματα και τα ηθικά πρότυπα.

Τεχνητή Νοημοσύνη και Αστυνόμευση

Ο Κανονισμός αντιμετωπίζει προσεκτικά τις πολυπλοκότητες της χρήσης της AI στην επιβολή του νόμου, εξισορροπώντας την ανάγκη για δημόσια ασφάλεια με την προστασία των θεμελιωδών δικαιωμάτων.

Αναγνωρίζει τις δυνατότητες της AI ως πολύτιμου εργαλείου στην πρόβλεψη εγκλημάτων και την ταυτοποίηση υπόπτων, ενώ παράλληλα λαμβάνει υπόψη τους κινδύνους κακής χρήσης. Μια σημαντική πτυχή του AI Act είναι η θέσπιση μιας διαδικασίας έκτακτης ανάγκης που επιτρέπει στις αστυνομικές αρχές να αναπτύσσουν συστήματα AI υψηλού κινδύνου (High Risk AI) σε επείγουσες περιπτώσεις, όπως επικείμενες απειλές για τη δημόσια ασφάλεια, δίχως τις προαναφερόμενες απαιτήσεις. Τούτο δε σκοπεί στην ικανότητα των αστυνομικών αρχών να αντιδράσουν τάχιστα, εάν και εφόσον αυτό απαιτηθεί. Η πρόβλεψη αυτή, ωστόσο, ρυθμίζεται αυστηρά με εγγυήσεις για την προστασία θεμελιωδών δικαιωμάτων, όπως η προστασία της ιδιωτικής ζωής και η απαγόρευση των διακρίσεων, διασφαλίζοντας ότι οποιαδήποτε χρήση της AI είναι δικαιολογημένη, αναλογική και αναγκαία.

Επιπλέον, η προσωρινή συμφωνία σχετικά με το AI Act για την ΤΝ επιτρέπει την κατ' εξαίρεση χρήση απομακρυσμένων συστημάτων βιομετρικής ταυτοποίησης σε πραγματικό χρόνο σε δημόσιους χώρους από τις αρχές επιβολής του νόμου, αυστηρά περιορισμένη σε συγκεκριμένα σενάρια, όπως η ταυτοποίηση θυμάτων ορισμένων εγκλημάτων, η πρόληψη άμεσων τρομοκρατικών απειλών και ο εντοπισμός ατόμων που είναι ύποπτα για τη διάπραξη σοβαρών εγκλημάτων, με πρόσθετες διασφαλίσεις.

Συγκεκριμένα, ο νόμος υπογραμμίζει την ανάγκη για λογοδοσία και εποπτεία στη χρήση της AI από τις επιφορτισμένες με την επιβολή του νόμου αρχές, επιβάλλοντας σαφείς κατευθυντήριες γραμμές χρήσης, τακτικές αξιολογήσεις των επιπτώσεων και μηχανισμούς για την πρόληψη και αντιμετώπιση των παραβιάσεων των δικαιωμάτων ή της κατάχρησης, διατηρώντας έτσι μια λεπτή ισορροπία μεταξύ της τεχνολογικής αποτελεσματικότητας και της ηθικής ευθύνης.

Προώθηση της καινοτομίας

Κατανοώντας την ανάγκη εξισορρόπησης της ρύθμισης και εποπτείας με την προώθηση της καινοτομίας, ο Κανονισμός εισάγει μέτρα όπως τα ρυθμιστικά sandboxes. Πρόκειται για ελεγχόμενα περιβάλλοντα τα οποία θα επιτρέψουν την ανάπτυξη, τη δοκιμή και την επικύρωση καινοτόμων συστημάτων AI σε πραγματικές συνθήκες, διασφαλίζοντας παράλληλα ότι τηρούν τα απαραίτητα πρότυπα ασφάλειας και δεοντολογίας. Είναι σημαντικό ότι το AI Act λαμβάνει υπόψιν τις ανάγκες των μικρότερων εταιρειών και των νεοσύστατων επιχειρήσεων, αναγνωρίζοντας τον ρόλο τους στην προώθηση της καινοτομίας. Έχουν ληφθεί διατάξεις για τη μείωση του διοικητικού φόρτου και την προσφορά ορισμένων παρεκκλίσεων, διευκολύνοντας τις εν λόγω μικρότερες οντότητες να συμβάλουν στο ευρύτερο οικοσύστημα της AI.

Κυρώσεις και συμμόρφωση

Το AI Act θεσπίζει ένα δομημένο και αυστηρότατο σύστημα κυρώσεων, όπου τα πρόστιμα για παραβάσεις υπολογίζονται είτε ως ποσοστό του συνολικού ετήσιου κύκλου εργασιών της παραβάτριας εταιρείας είτε ως σταθερό ποσό, ανάλογα με το ποιο είναι υψηλότερο. Για τις πιο σοβαρές παραβάσεις, που αφορούν απαγορευμένες εφαρμογές AI (Unacceptable Risk AI), οι εταιρείες αντιμετωπίζουν πρόστιμα έως και 35 εκατ. ευρώ ή 7% του παγκόσμιου ετήσιου κύκλου εργασιών τους. Οι παραβάσεις των υποχρεώσεων που θεσπίζονται μπορούν να επισύρουν πρόστιμα έως 15 εκατ. ευρώ ή το 3% του ετήσιου κύκλου εργασιών. Για την παροχή εσφαλμένων, ελλιπών ή παραπλανητικών πληροφοριών, τα πρόστιμα μπορεί να φτάσουν τα 7,5 εκατ. ευρώ ή το 1,5% του ετήσιου κύκλου εργασιών. Αναγνωρίζοντας τον αντίκτυπο στις μικρότερες επιχειρήσεις, ο Κανονισμός περιλαμβάνει αναλογικότερα ανώτατα όρια διοικητικών προστίμων για τις ΜΜΕ και τις νεοσύστατες επιχειρήσεις.

Επιπλέον, παρέχεται σε ιδιώτες και οντότητες η δυνατότητα υποβολής καταγγελιών για μη συμμόρφωση στην αρμόδια αρχή εποπτείας της αγοράς, διασφαλίζοντας ότι αυτές διεκπεραιώνονται σύμφωνα με τις καθιερωμένες διαδικασίες. Αυτό το πλαίσιο κυρώσεων υπογραμμίζει τη δέσμευση της ΕΕ αυστηρή συμμόρφωση, λαμβάνοντας παράλληλα υπόψη την ευρεία κλίμακα και τις δυνατότητες των εταιρειών που επηρεάζονται από τους κανονισμούς.

Στρατιωτικοί και Αμυντικοί Σκοποί

Το AI Act αν και αποτελεί σημαντικό βήμα για τη ρύθμιση της τεχνητής νοημοσύνης στην Ευρωπαϊκή Ένωση, εξαιρεί κυρίως τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται αποκλειστικά για στρατιωτικούς ή αμυντικούς σκοπούς.

Η εξαίρεση αυτή είναι ιδιαίτερα ανησυχητική, λαμβάνοντας υπόψη τις βαθιές επιπτώσεις που αναμένεται να έχει η τεχνητή νοημοσύνη στον πόλεμο και την εθνική άμυνα.

Η απουσία ρυθμιστικής εποπτείας σε αυτούς τους τομείς παρουσιάζει τεράστιες απειλές, καθώς η ανεξέλεγκτη τεχνολογία AI σε στρατιωτικές εφαρμογές θα μπορούσε να οδηγήσει σε απρόβλεπτες και δυνητικά επιβλαβείς συνέπειες. Με τη μη συμπερίληψη της στρατιωτικής AI, ο Κανονισμός παραλείπει να αντιμετωπίσει κρίσιμες πτυχές της διακυβέρνησης της AI. Το κενό αυτό αναδεικνύει την ανάγκη για ευρύτερη ρύθμιση που θα διασφαλίζει την ασφαλή και ηθική χρήση της AI σε όλους τους τομείς, συμπεριλαμβανομένων εκείνων που επηρεάζουν σημαντικά την εθνική και παγκόσμια ασφάλεια.

Προοπτικές

Το AI Act αποτελεί πράγματι ένα σημαντικό βήμα προς ένα μέλλον όπου η AI δεν θα είναι μόνο καινοτόμος αλλά και ηθική και ασφαλής. Θέτοντας αυτά τα πρότυπα, η ΕΕ είναι έτοιμη να επηρεάσει το παγκόσμιο τοπίο της τεχνητής νοημοσύνης, όπως έκανε και ο αντίκτυπος του ΓΚΠΔ στους κανόνες προστασίας της ιδιωτικής ζωής των δεδομένων. Καθώς η AI διεισδύει ολοένα και περισσότερο σε τομείς όπως η υγειονομική περίθαλψη και η επιβολή του νόμου, η ανάγκη για μια τέτοια ολοκληρωμένη ρύθμιση γίνεται πιο έντονη.

Ο Κανονισμός θα μπορούσε να χρησιμεύσει ως πρότυπο για χώρες σε όλο τον κόσμο, προωθώντας τη χρήση της AI που ωφελεί την κοινωνία, ενώ παράλληλα περιορίζοντας τους πιθανούς κινδύνους. Ωστόσο, παρά την πρόοδο αυτή, υπάρχει ακόμη πολύς δρόμος να διανυθεί. Τα συστήματα AI εξελίσσονται ραγδαία και τα ρυθμιστικά πλαίσια πρέπει να προσαρμόζονται συνεχώς για να συμβαδίζουν με αυτές τις εξελίξεις.

Ο συνεχής διάλογος μεταξύ των φορέων χάραξης πολιτικής, των τεχνολόγων και των ενδιαφερομένων είναι ζωτικής σημασίας για την αντιμετώπιση των αναδυόμενων προκλήσεων και τη διασφάλιση ότι οι κανονισμοί για την ΑΙ παραμένουν σχετικοί και αποτελεσματικοί με σκοπό τη διασφάλιση των ηθικών προτύπων και της δημόσιας ευημερίας σε ένα διαρκώς μεταβαλλόμενο τεχνολογικό τοπίο.

ΔΗΜΟΦΙΛΗ

× Αυτός ο ιστότοπος χρησιμοποιεί cookies. Με τη χρήση αυτού του ιστότοπου, αποδέχεστε τους Όρους Χρήσης