TECH

«Για να μην μας ελέγξουν»: Γιατί ο νονός της τεχνητής νοημοσύνης αποφάσισε να λύσει τη σιωπή του

«Για να μην μας ελέγξουν»: Γιατί ο νονός της τεχνητής νοημοσύνης αποφάσισε να λύσει τη σιωπή του
Pixabay

Ο Τζέφρι Χίντον, γνωστός επίσης και ως «νονός της τεχνητής νοημοσύνης», αποφάσισε να εκθέσει τα κακώς κείμενα της τεχνολογίας που ο ίδιος βοήθησε να αναπτυχθεί γιατί φοβήθηκε ότι είχε αρχίσει να γίνεται πολύ έξυπνη.

«Είμαι απλά ένας επιστήμονας που ξαφνικά κατάλαβε ότι αυτά τα πράγματα έχουν αρχίσει να γίνονται πιο έξυπνα από εμάς» είπε ο Χίντον, μιλώντας στο CNNi.

Εξήγησε, επίσης, ότι στόχος του είναι να αποκαλύψει την κατάσταση και να πει στον κόσμο ότι θα πρέπει να αρχίσει να ανησυχεί σοβαρά για το πώς θα πρέπει να σταματήσει το ανθρώπινο είδος την τεχνολογία.

«Για να μην μας ελέγξουν» τόνισε χαρακτηριστικά ο Χίντον, ένας βετεράνος των τεχνητών νερωνικών δικτύων, τα οποία άνοιξαν το δρόμο για τη δημιουργία πολλών «έξυπνων» προϊόντων που κυκλοφορούν στην αγορά.

Τη Δευτέρα, ο Χίντον «φιγούραρε» στα πρωτοσέλιδα εφημερίδων και ιστοσελίδων ανά τον κόσμο για την απόφασή του να εγκαταλείψει τη Google, στην οποία εργαζόταν για 10 χρόνια.

Η αποχώρησή του έγινε για να μπορέσει να μιλήσει ελεύθερα για τις ανησυχίες του, όπως υποστήριξε ο ίδιος.

Σε συνέντευξή του στους New York Times τη Δευτέρα, που αποκάλυψε πρώτη την παραίτησή του, ο Χίντον εξέφρασε την αγωνία του ότι συστήματα τεχνητής νοημοσύνης θα μπορούν στο μέλλον να αποκλείσουν τους ανθρώπους από θέσεις εργασίας και να δημιουργήσουν έναν κόσμο «που πολλοί δεν θα ξέρουμε ποια είναι πλέον η πραγματικότητα».

Logo από το γραφείο της Google / (AP Photo/Alastair Grant, File)

Την ίδια ώρα, υπογράμμισε πως οι τεχνολογικές εξελίξεις στον τομέα είναι δραματικές, πολύ ταχύτερες απ’ ότι πίστευαν μέχρι σήμερα οι επιστήμονες.

«Αν (σ.σ. το σύστημα τεχνητής νοημοσύνης) γίνει πολύ πιο έξυπνο από εμάς, τότε θα γίνει πολύ καλό στη χειραγώγηση, την οποία θα έχει μάθει από εμάς. Και υπάρχουν πολύ λίγα παραδείγματα για ένα εξυπνότερο πράγμα, που ελέγχεται από ένα λιγότερο έξυπνο πράγμα» εξήγησε χαρακτηριστικά ο ειδικός στο CNNi.

«Ξέρει από προγραμματισμό, οπότε κάποια στιγμή θα βρει τρόπους να παρακάμψει τους περιορισμούς που του θέτουμε. Και θα μάθει πώς να χειραγωγεί τους ανθρώπους για να κάνουν αυτό που εκείνο επιθυμεί» συμπλήρωσε ο ίδιος, συνθέτοντας μια δυστοπική εικόνα.

Ο Χίντον δεν είναι ο μοναδικός επιστήμονας του χώρου που έχει εκφράσει ανησυχίες για την τεχνητή νοημοσύνη.

Τον περασμένο Μάρτιο, αρκετά μέλη της επιστημονικής κοινότητας είχαν συνυπογράψει μια επιστολή για την τεχνητή νοημοσύνη, ζητώντας από εργαστήρια του χώρου να σταματήσουν να εκπαιδεύουν τα πιο ισχυρά συστήματα για τουλάχιστον έξι μήνες.

Είχαν κάνει, μάλιστα, αναφορά, σε «μεγάλους κινδύνους για την κοινωνία και την ανθρωπότητα».

Η επιστολή, που δημοσιεύτηκε από το Ινστιτούτο «Το μέλλον της ζωής», μία ΜΚΟ με τη στήριξη του εκκεντρικού δισεκατομμυριούχου Ίλον Μασκ, κυκλοφόρησε μόλις δύο εβδομάδες αφότου η OpenAI ανακοίνωσε το GPT-4, μια εξαιρετικά προηγμένη τεχνολογία που κρύβεται πίσω από το chatbox CHATGPT.

To logo του ΟpenAI / (AP Photo/Michael Dwyer, File)

Ο συνιδρυτής της Apple, Στιβ Βόσνιακ, ένας εκ των επιστημόνων που υπέγραψαν την επιστολή, εμφανίστηκε την Τρίτη στην εκπομπή «CNN, Σήμερα το πρωί» και εξέφρασε επίσης την ανησυχία του ότι συστήματα τεχνητής νοημοσύνης ενδεχομένως να συνδράμουν στην παραπληροφόρηση.

«Θα είναι πολύ πιο εύκολο για κάποιον που θέλει να ξεγελάσει τον κόσμο να το κάνει» είπε ο Βόσνιακ, και συμπλήρωσε:


«Δεν κάνουμε αλλαγές ως προς αυτό, απλά εικάζουμε ότι οι υπάρχοντες νόμοι θα το ρυθμίσουν» είπε ο ίδιος, εκτιμώντας παράλληλα ότι θα πρέπει να θεσμοθετηθούν κάποιοι κανόνες.

Ο Χίντον, ωστόσο, είπε στο CNNi ότι δεν υπέγραψε την εν λόγω επιστολή.

«Δεν νομίζω ότι μπορούμε να σταματήσουμε την πρόοδο. Δεν υπέγραψα την επιστολή που λέει ότι πρέπει να σταματήσουμε να εργαζόμαστε τον τομέα της τεχνητής νοημοσύνης, γιατί θεωρώ ότι εάν σταματήσουν οι ΗΠΑ, δεν θα σταματήσει η Κίνα».
Παραδέχτηκε, ωστόσο, ότι δεν έχει κάποια συγκεκριμένη πρόταση ή απάντηση για το τι πρέπει να γίνει, ώστε να περιοριστούν τα συστήματα τεχνητής νοημοσύνης.

«Δεν είναι ξεκάθαρο σε εμένα τι πρέπει να κάνουμε για να λύσουμε αυτό το πρόβλημα» είπε ο Χίντον, και κατέληξε λέγοντας:

«Πιστεύω ότι θα πρέπει να επενδύσουμε σημαντικά στο πώς θα μπορέσουμε να λύσουμε αυτό το πρόβλημα. Αλλά αυτή τη στιγμή δεν έχω λύση».

Why the ‘Godfather of AI’ decided he had to ‘blow the whistle’ on the technology, by Jennifer Korn

ΔΗΜΟΦΙΛΗ