Τεχνητή νοημοσύνη: Μπορεί να είναι και ηθική;
Την ηθική πλευρά της τεχνητής νοημοσύνης καλείται να προασπίσει ο νομοθέτης της Ένωσης, θεσπίζοντας τον Κανονισμό για την τεχνητή νοημοσύνη (Κανονισμός 2024/1689), σκοπός του οποίου, μεταξύ άλλων, είναι η προώθηση υιοθέτησης ανθρωποκεντρικής και αξιόπιστης τεχνητής νοημοσύνης, διασφαλίζοντας, παράλληλα, υψηλό επίπεδο προστασίας των θεμελιωδών δικαιωμάτων του Χάρτη της Ένωσης. Ωστόσο, οι διατάξεις του δεν φαίνεται να οδηγούν στην επίτευξη των ως άνω στόχων.
Καταρχάς, καίτοι το νομοθέτημα αποτελεί Κανονισμό (ενωσιακό δίκαιο άμεσης εφαρμογής, ήτοι τα κράτη-μέλη δεν χρειάζεται να θεσπίσουν διατάξεις για να εφαρμοστεί στις εθνικές έννομες τάξεις τους), φέρει και χαρακτηριστικά Οδηγίας. Δηλαδή για πλείονα ζητήματα καταλείπεται στα κράτη-μέλη η επιλογή των ρυθμίσεων επίτευξης των αποτελεσμάτων του, γεγονός που ενδέχεται να οδηγήσει σε μη ομοιόμορφη εφαρμογή του άρα και προστασία εντός της Ένωσης.
Περαιτέρω, τα κράτη-μέλη, προκειμένου να νομοθετήσουν για να εφαρμόσουν πρακτικά τον Κανονισμό, αναμένουν την έκδοση κατευθυντηρίων γραμμών από την Επιτροπή.
Η έκδοσή τους προβλέπεται ρητά στον Κανονισμό, καταδεικνύοντας ότι ο ενωσιακός νομοθέτης, εξαρχής, γνωρίζει και ομολογεί την ασάφεια που οι διατάξεις του Κανονισμού παράγουν.
Για παράδειγμα, οι ρυθμίσεις που αφορούν στον ορισμό του συστήματος τεχνητής νοημοσύνης και, ιδίως, όσες αναφέρονται στις απαγορευμένες πρακτικές στον τομέα της τεχνητής νοημοσύνης, είναι πολύπλοκες και εμπεριέχουν αόριστες και ασαφείς έννοιες. Ούτε οι κατευθυντήριες οδηγίες που έχουν ήδη εκδοθεί για τα ανωτέρω θέματα βοηθούν ιδιαίτερα, ήτοι δεν προσδιορίζεται με ασφάλεια ποιο θεωρείται σύστημα τεχνητής νοημοσύνης και ποιο όχι ούτε είναι πάντοτε ξεκάθαρο πότε συντρέχουν οι προϋποθέσεις εφαρμογής των απαγορευμένων πρακτικών. Αποτέλεσμα των ανωτέρω, η αγορά να παραμείνει δίχως την ασφάλεια δικαίου που απαιτείται.
Επίσης, ο Κανονισμός τονίζει την υποχρέωση όσων ασχολούνται με τη λειτουργία και χρήση συστημάτων τεχνητής νοημοσύνης να έχουν ένα επαρκές επίπεδο γραμματισμού, ήτοι να διαθέτουν δεξιότητες, γνώσεις και κατανόηση τέτοιες που να τους επιτρέπουν να προβαίνουν σε εμπεριστατωμένη εφαρμογή των εν λόγω συστημάτων, καθώς και επίγνωση των ευκαιριών και κινδύνων της τεχνητής νοημοσύνης και της πιθανής βλάβης που ενδέχεται αυτή να προκαλέσει. Παρόλα αυτά, δεν θεσπίζεται κύρωση σε περίπτωση που οι πάροχοι ή/και οι φορείς εφαρμογής συστημάτων τεχνητής νοημοσύνης δεν λάβουν τα κατάλληλα μέτρα που εξασφαλίζουν τον γραμματισμό του προσωπικού που απασχολούν. Απεναντίας, καταλείπεται στον εθνικό νομοθέτη η απόφαση περί της πρόβλεψης ή μη κυρώσεων.
Τέλος, ο Κανονισμός δεν φαίνεται να απαντά στο πώς θα επιτευχθεί η ισορροπία μεταξύ του ανταγωνισμού της αγοράς και της προάσπισης των θεμελιωδών δικαιωμάτων. Ήδη αγορές χωρών εκτός Ένωσης, ασκούν πιέσεις για κατάργηση ή/και τροποποίηση άρθρων του Κανονισμού προκειμένου να απλοποιηθεί.
Δεδομένων των ανωτέρω, μπορούμε, πράγματι, να μιλάμε για εξέλιξη, αν δεν συνοδεύεται από σεβασμό στην αξία του ανθρώπου και τα δικαιώματά του; Αν η πρόοδος της τεχνολογίας διαχωριστεί από τα όρια και την ηθική, η κατάληξη του ανθρώπου θα είναι όπως του ήρωα του Herbert-George Wells, ο οποίος κατάφερε μεν να γίνει αόρατος, δεν απέκτησε δε την ανθρώπινη μορφή του, δεν έγινε ποτέ ξανά ορατός, παρά μόνο ως νεκρός.
Η Ειρήνη Καλπάκα είναι δικηγόρος στη LAMNIDIS LAW
«Παράθυρο» Τραμπ σε επίθεση στο Ιράν: «Δεν θέλω αλλά μερικές φορές πρέπει»
20:05
Κογκρέσο: Στο στόχαστρο ο Μπιλ Κλίντον για την υπόθεση Έπσταϊν - Πίεση από τους Δημοκρατικούς και στον Τραμπ για κατάθεση
20:03
Πολεμικό Ναυτικό: Συνεχείς εκπαιδεύσεις για την αύξηση της επιχειρησιακής ετοιμότητας
19:56
«Δεν είδα τίποτα και δεν έκανα κάτι κακό», δηλώνει ο Μπιλ Κλίντον για την υπόθεση Έπσταϊν
19:42