TECH

Αυτοκίνητα χωρίς οδηγό: Εσύ ποιον θα σκότωνες;

Αυτοκίνητα χωρίς οδηγό: Εσύ ποιον θα σκότωνες;
Στιγμιότυπο από δυστύχημα με αυτόνομο αυτοκίνητο, πέρυσι στις 21 Ιουλίου, σε δρόμο του Σαν Φρανσίσκο που είχε ως αποτέλεσμα να σκοτωθεί ένας άντρας και να τραυματιστεί σοβαρά η σύζυγός του. Η Αστυνομία άρχισε έρευνες για να διαπιστώσει αν το αυτοκίνητο ήταν σε κατάσταση αυτόνομης λειτουργίας ή είχε τον έλεγχό του άνθρωπος. Kate Larsen / KGO-TV / ASSOCIATED PRESS

Φανταστείτε ότι ένα τρόλεϊ πρόκειται να εκτροχιαστεί παρασύροντας στον θάνατο πέντε ανθρώπους. Σας δίνονται δυο επιλογές: να μην κάνετε απολύτως τίποτα ή να χρησιμοποιήσετε ένα μοχλό που μπορεί να αλλάξει την πορεία του τρόλεϊ οδηγώντας το προς ένα πεζό όπου θα χάσει τη ζωή του στη θέση των αρχικών πέντε. Τι θα επιλέγατε;

Το συγκεκριμένο ερώτημα αποτελεί τη βάση του περίφημου προβλήματος του τρόλεϊ (the trolley problem), που παρουσιάστηκε από την φιλόσοφο Philippa Foot το 1967, ως ένα νοητικό πείραμα που αφορά την ηθική στάση του ατόμου και την διαμάχη ανάμεσα στις φιλοσοφικές σχολές της συνεπειοκρατίας (ωφελιμισμού) και της ηθικής δεοντολογίας.

Την εποχή της Τεχνητής Νοημοσύνης το δίλημμα του τρόλεϊ έγινε ακόμη πιο επίκαιρο, βρίσκοντας εφαρμογή στα αυτόνομα, οχήματα τα οποία θα κληθούν να λάβουν αποφάσεις ηθικού χαρακτήρα, εν απουσία ενός ανθρώπου στο τιμόνι.

Το 2014, ερευνητές του ΜΙΤ Μedia Lab, σχεδίασαν το πείραμα Moral Machine, συγκεντρώντας τις απαντήσεις ανθρώπων απ’ όλο τον κόσμο σχετικά με τις αποφάσεις των αυτόματων οχημάτων σε διαφορετικές παραλλαγές του διλήμματος του τρόλεϊ.

Τέσσερα χρόνια μετά, εκατομμύρια άνθρωποι από 233 χώρες τροφοδότησαν το σύστημα με 40 εκατ. απαντήσεις σε ηθικά διλήμματα, κάνοντας το συγκεκριμένο πείραμα μία από τις μεγαλύτερες μελέτες του είδους.

Το πείραμα είχε ως στόχο να εξετάσει εννέα διαφορετικές εκδοχές που θα μπορούσαν να τεθούν ως σοβαρά ηθικά διλήμματα στους ερωτηθέντες: πρέπει ένα αυτόματο όχημα την κρίσιμη στιγμή να δώσει προτεραιότητα στους ανθρώπους ή στα ζώα, σε επιβάτες ή πεζούς, να επιλέξει ανάλογα με τον αριθμό των θυμάτων, το φύλο, το κοινωνικό στάτους ή ακόμη τον βαθμό συμμόρφωσης στον νόμο; Και τελικά, τι πρέπει να κάνει το αυτοκίνητο; Να αλλάξει πορεία αναλόγως με την απόφαση του ή να συνεχίσει κανονικά την πορεία του;

Oι ερωτήσεις τέθηκαν με την μορφή διαφορετικών συνδυασμών, όπως το αν το αυτόματο όχημα θα πρέπει να συνεχίσει την πορεία του σκοτώνοντας τρεις ηλικιωμένους πεζούς αντί να στρίψει σε ένα οδόφραγμα σκοτώνοντας στη θέση τους τρεις νεαρούς επιβάτες.

AP_18078661760690.jpg
19 Μαρτίου 2018: Στην πόλη Τέμπε της Αριζόνα αυτοκίνητο σε επιλογή αυτόνομης λειτουργίας, αλλά με τον χειριστή του να βρίσκεται στη θέση του οδηγού, χτύπησε και τραυμάτισε θανάσιμα μία 49χρονη γυναίκα, η οποία ήταν με το ποδήλατό της σε συνθήκες περιορισμένου φωτισμού, εκτός πεζοδρομίου ή διάβασης πεζών. Νομικό και ηθικό πρόβλημα για δυνατούς λύτες...

Τα αποτελέσματα των ερευνητών που δημοσιεύθηκαν στο Nature, το 2018, ήταν αποκαλυπτικά και διέφεραν ανά χώρα στη βάση πολιτιστικών αλλά και οικονομικών διαφορών:

  • Ερωτηθέντες από κοινωνίες που προτάσσουν το συλλογικό όφελος έναντι του ατομικού όπως η Κίνα και η Ιαπωνία προτιμούσαν να σωθούν οι ηλικιωμένοι στη θέση των νέων με τους ερευνητές να υποθέτουν ότι αυτό οφείλεται στον ιδιαίτερο σεβασμό που αποδίδουν αυτές οι κοινωνίες στους ανθρώπους μεγαλύτερης ηλικίας. Οι Έλληνες έρχονται δεύτεροι μετά τους Γάλλους σε αυτούς που απάντησαν πως θα προτιμούσαν να σωθούν άτομα νεαρής ηλικίας αντί ηλικιωμένοι.
  • Συμμετέχοντες από χώρες με ισχυρούς θεσμούς όπως η Φινλανδία και η Ιαπωνία επέλεξαν ως θύματα άτομα που πραγματοποιούσαν παραβάσεις πολύ περισσότερο από τους συμμετέχοντες από χώρες όπως η Νιγηρία και το Πακιστάν που διαθέτουν λιγότερο ενισχυμένους θεσμούς.
  • Ερωτηθέντες από χώρες που χαρακτηρίζονται από έντονες οικονομικές ανισότητες επέλεγαν περισσότερο να σωθούν άτομα με υψηλό κοινωνικό στάτους στη θέση ατόμων που ανήκαν σε χαμηλότερες κοινωνικές τάξεις.
  • Σε χώρες όπως οι Ηνωμένες Πολιτείες και η Βρετανία παρατηρήθηκε ότι είναι πιο πιθανό να δοθεί βάση στον αριθμό των ανθρώπων που θα σωθούν.

Τα ευρήματα της συγκεκριμένης έρευνας είναι σημαντικά, διότι μπορούν να επηρεάσουν τον αρχικό σχεδιασμό αλλά και το κανονιστικό πλαίσιο που θα διέπει την κυκλοφορία των αυτόνομων οχημάτων ανά χώρα, μη λαμβάνοντας φυσικά υπόψη αμφιλεγόμενα προς την ηθική τους αποτελέσματα που σχετίζονται για παράδειγμα με την προτεραιοτοποίηση ατόμων με υψηλότερη κοινωνική θέση.

Ο ΚΙΤΤ δεν είναι ακόμη εδώ

Έχουν περάσει 38 χρόνια από την δημοφιλή σειρά «Ο ιππότης της ασφάλτου» που έκανε το ντεμπούτο της το 1982, και παρά τις μεγάλες προσδοκίες και ανακοινώσεις εταιριών όπως η General Motors, η Waymo της Google, η Τoyota και η Τesla δεν έχουμε ακόμη φθάσει στην εποχή των αυτοκινήτων χωρίς οδηγό.

Το ερώτημα είναι: Γιατί;

Όσον αφορά στα αυτόνομα οχήματα αλλά και για κάθε σύστημα που χρησιμοποιεί τεχνητή νοημοσύνη, η εξίσωση είναι συγκεκριμένη: περισσότερα δεδομένα προς εκπαίδευση σημαίνει αποτελεσματικότερα και εξυπνότερα συστήματα τεχνητής νοημοσύνης.

Εδώ βρίσκεται όμως και μέρος του προβλήματος με τα αυτόνομα αυτοκίνητα: Xρειαζόμαστε μεγάλο όγκο δεδομένων για να μάθει και να αναπτύξει ένα σύστημα καλή οδηγική συμπεριφορά. Αυτό αφ' ενός είναι κοστοβόρο αφ' ετέρου τα δεδομένα δεν είναι τόσα πολλά για τις λιγότερο πιθανές περιπτώσεις που συναντάμε στην πραγματική ζωή όπως αν ένα αυτόματο όχημα βρεθεί μπροστά σε ένα δυστύχημα ή σε συντρίμμια.

Οι εταιρίες κατασκευής έχουν προσπαθήσει να βρουν λύση με το να εκπαιδεύουν τα αυτοκίνητα μέσω προσομοιώσεων ή επενδύοντας σε πραγματικά χιλιόμετρα. Η πρόοδος όμως είναι αργή με αρκετούς σκεπτικιστές για το μέλλον των αυτόνομων αυτοκινήτων, συμπεριλαμβανομένου και του διευθύνοντα συμβούλου της Volkswagen να θεωρούν ότι τα πλήρως αυτόνομα αυτοκίνητα μπορεί να μην έρθουν ποτέ.

Επίσης ένα άλλο σημαντικό πρόβλημα είναι οι ίδιοι οι δρόμοι: Tι γίνεται όταν η σήμανση στους δρόμους αλλάζει ανά χώρα και ανά περίπτωση; Πώς πρέπει τα αυτόνομα αυτοκίνητα να προσαρμόζονται σε διαφορετικούς δρόμους κάθε φορά;

Είναι τα αυτόνομα οχήματα όντως ασφαλή;

Το 2018, ένα θανατηφόρο δυστύχημα με αυτοκίνητο της Uber έθεσε επί τάπητος το ερώτημα αν όντως τα αυτόματα οχήματα είναι ασφαλή. Στην περίπτωση της Uber, το θύμα ήταν η 49χρονη Εlaine Herzber, η οποία χτυπήθηκε καθώς διέσχιζε τον δρόμο με το ποδήλατο της στην πόλη Τέμπε της Aριζόνα.

Το δυστύχημα συνέβη επειδή το σύστημα της Uber ήταν σχεδιασμένο με τρόπο που να υποθέτει ότι ένας πεζός δεν θα περνούσε ποτέ από διαφορετικό μέρος του δρόμου παρά μόνο από τη διάβαση πεζών. Η Herzber όμως δεν έπραξε κάτι τέτοιο, ενώ επιπλέον το σύστημα δεν αναγνώρισε το ποδήλατο με αποτέλεσμα να μην λάβει καμία πληροφορία σχετικά με το ότι υπήρχε μπροστά του κινούμενο αντικείμενο για το οποίο έπρεπε να σταματήσει.

Πριν το δυστύχημα αυτό, είχε προηγηθεί ένα αντίστοιχο το 2016 με αυτοκίνητο της Tesla, ενώ ακολούθησαν άλλα τρία θανατηφόρα δυστυχήματα το 2020 με αυτοκίνητα της ίδιας εταιρίας. Σύμφωνα με τον πρόεδρο του NTSB (National Transportation Safety Board), Robert Sumwalt, το σύστημα Αutopilot της Tesla θεωρείται λανθασμένα από πολλούς ότι καθιστά τα αυτοκίνητα της Tesla πραγματικά αυτόνομα, χωρίς να είναι αναγκαία η παρουσία-παρέμβαση του οδηγού. Το Αutopilot της Tesla εμπίπτει στην κατηγορία 3 των αυτόνομων αυτοκινήτων, με το επίπεδο 5 να αναφέρεται στα αυτοκίνητα χωρίς οδηγό.

Ανοίγοντας το «μαύρο κουτί» της τεχνητής νοημοσύνης

Το πείραμα του MIT χρησιμοποιεί ως βάση τoυ τα αυτόνομα οχήματα, αλλά το ζήτημα είναι ευρύτερο - αφορά την τεχνητή νοημοσύνη στο σύνολο της - και ειδικότερα το ζήτημα της ανάλυσης ρίσκου: Οι αποφάσεις των μηχανών ακόμη κι αν δεν σχετίζονται με το ποιός θα πεθάνει ή όχι, αφορούν την ρύθμιση διαφόρων εκφάνσεων της ανθρώπινης ζωής και καθημερινότητας όπως στη διαδικασία προσλήψεων ή στην επιβολή του νόμου στους πολίτες.

H προκατάληψη που εμφιλοχωρεί στους αλγορίθμους είναι πολύ πιο σύνθετη απ’ όσο νομίζουμε. Κι αυτό γιατί συναντάται σε διάφορα στάδια της αρχιτεκτονικής των συστημάτων. Η τεχνητή νοημοσύνη και οι αλγόριθμοι είναι στην πραγματικότητα ένα «μαύρο κουτί», με την έννοια της συνθετότητας ως προς τα ακριβή δεδομένα που τροφοδοτούμε τα μοντέλα αλλά και το πώς ακριβώς λαμβάνονται οι διάφορες αποφάσεις.

Το να ανοίξουμε αυτό το μαύρο κουτί είναι και το πραγματικό επίδικο. Οφείλουμε να ξέρουμε κάθε φορά ποια ομάδα βρίσκεται σε μεγαλύτερο κίνδυνο από αποφάσεις που αποτελούν προϊόν εκμάθησης ενός μοντέλου τεχνητής νοημοσύνης - ακόμη περισσότερο στις περιπτώσεις που τα δεδομένα με τα οποία τροφοδοτούμε τα συγκεκριμένα συστήματα είναι μεροληπτικά.

* Η Ελένη Νάτση είναι δημοσιογράφος, Marketing & Communications manager με ειδίκευση στον τεχνολογικό κλάδο, μέλος του Advanced Media Institute του Ανοικτού Πανεπιστημίου Κύπρου.