Νόαμ Τσόμσκι: H τεχνητή νοημοσύνη δεν μπορεί να φτάσει τον ανθρώπινο εγκέφαλο

Νόαμ Τσόμσκι: H τεχνητή νοημοσύνη δεν μπορεί να φτάσει τον ανθρώπινο εγκέφαλο
The US american social critic Noam Chomsky delivers a speech in the Center for Art and Media in Karlsruhe, Germany, 30 May 2014. Photo: Uli Deck/dpa Photo: AFP
Ο εμβληματικός διανοούμενος Νόαμ Τσόμσκι λέει ότι τα chatbots είναι «θαύματα της μηχανικής μάθησης» αλλά και η κοινοτοπία του κακού.

Από το ντεμπούτο του ChatGPT τον Νοέμβριο, αυτό και άλλα chatbots με τεχνολογία τεχνητής νοημοσύνης από την Google και τη Microsoft έχουν τρομοκρατήσει τους χρήστες, έχουν εμπλακεί σε ενοχλητικές συνομιλίες και έχουν παράσχει ανακριβείς πληροφορίες. Αλλά ο μεγαλύτερος περιορισμός της τεχνητής νοημοσύνης μπορεί να είναι αυτό για το οποίο οι νευρολόγοι έχουν προειδοποιήσει εδώ και καιρό: Μπορεί να μην είναι ποτέ σε θέση να αναπαράγει πλήρως τον τρόπο λειτουργίας του ανθρώπινου εγκεφάλου.

Ενώ η τεχνητή νοημοσύνη και τα έξυπνα chatbots όπως το ChatGPT μπορεί να είναι χρήσιμα για τη συγγραφή κώδικα και τον προγραμματισμό ταξιδιών, η τεχνολογία μπορεί να μην είναι ποτέ ικανή για τις πρωτότυπες, στοχαστικές και ενδεχομένως αμφιλεγόμενες συζητήσεις στις οποίες διαπρέπει ο ανθρώπινος εγκέφαλος, σύμφωνα με τον Νόαμ Τσόμσκι, έναν από τους πιο επιδραστικούς σύγχρονους γλωσσολόγους και φιλοσόφους.

«Το ChatGPT της OpenAI, το Bard της Google και το Sydney της Microsoft είναι θαύματα της μηχανικής μάθησης», έγραψε ο Τσόμσκι μαζί με τον καθηγητή γλωσσολογίας Ian Roberts και τον ερευνητή της τεχνητής νοημοσύνης Jeffrey Watumull σε ένα δοκίμιο που δημοσιεύθηκε στους New York Times την Τετάρτη. Αλλά ενώ ο Τσόμσκι λέει ότι το ChatGPT θα μπορούσε να θεωρηθεί ένα πρώιμο βήμα προς τα εμπρός, η τεχνητή νοημοσύνη που μπορεί να εξισωθεί ή να ξεπεράσει την ανθρώπινη νοημοσύνη απέχει ακόμη πολύ.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Ο Τσόμσκι έγραψε ότι η έλλειψη ηθικής και ορθολογικής σκέψης της τεχνητής νοημοσύνης την καθιστά παράδειγμα της «κοινοτοπίας του κακού, καθώς αδιαφορεί για την πραγματικότητα και την αλήθεια, ενώ απλά εκτελεί τις κινήσεις που ορίζει ο προγραμματισμός της. Αυτός ο περιορισμός μπορεί να αποτελέσει ανυπέρβλητο εμπόδιο για την τεχνητή νοημοσύνη να μιμηθεί την ανθρώπινη σκέψη.

«Γνωρίζουμε από την επιστήμη της γλωσσολογίας και τη φιλοσοφία της γνώσης ότι διαφέρουν βαθύτατα από τον τρόπο με τον οποίο οι άνθρωποι συλλογίζονται και χρησιμοποιούν τη γλώσσα. Αυτές οι διαφορές θέτουν σημαντικούς περιορισμούς στο τι μπορούν να κάνουν αυτά τα προγράμματα», έγραψε ο Τσόμσκι.

Και συνεχίζει: «Πράγματι, τα προγράμματα αυτά έχουν κολλήσει σε μια προανθρώπινη ή μη ανθρώπινη φάση της γνωστικής εξέλιξης. Η αληθινή νοημοσύνη αποδεικνύεται στην ικανότητα να σκέφτονται και να εκφράζουν απίθανα αλλά διορατικά πράγματα».

Όπου η τεχνητή νοημοσύνη δεν μπορεί να φτάσει τον ανθρώπινο εγκέφαλο

Το ChatGPT της OpenAI έχει εντυπωσιάσει τους χρήστες με την ικανότητά του να επεξεργάζεται μεγάλες ποσότητες δεδομένων για να παράγει συνεκτικές συνομιλίες. Η τεχνολογία έγινε η ταχύτερα αναπτυσσόμενη εφαρμογή στην ιστορία τον περασμένο μήνα και επιτάχυνε την εξάπλωση των προϊόντων της Big Tech με τη βοήθεια τεχνητής νοημοσύνης.

Τα chatbots που υποστηρίζονται από τεχνητή νοημοσύνη βασίζονται σε μεγάλα γλωσσικά μοντέλα, τα οποία σκάβουν βαθιά σε terabytes δεδομένων για να παράγουν λεπτομερείς πληροφορίες με τη μορφή κειμένου. Αλλά η τεχνητή νοημοσύνη προβλέπει τι θα έβγαζε το μεγαλύτερο νόημα σε μια πρόταση για να δημιουργήσει την επόμενη λέξη της, χωρίς να είναι σε θέση να πει αν αυτό που μόλις είπε ήταν αληθινό ή ψευδές ή αν είναι αυτό που ήθελε να ακούσει ο χρήστης.

Η αδυναμία διάκρισης της ακρίβειας έχει οδηγήσει σε εξόφθαλμα λάθη και ευθεία παραπληροφόρηση. Οι προγραμματιστές των chatbot δήλωσαν ότι τα λάθη αποτελούν μέρος της διαδικασίας εκμάθησης της τεχνητής νοημοσύνης και ότι η τεχνολογία θα βελτιωθεί με την πάροδο του χρόνου. Αλλά η έλλειψη λογικής της τεχνητής νοημοσύνης μπορεί επίσης να είναι το μεγαλύτερο εμπόδιο στο να βοηθήσει να γίνει η ζωή της ανθρωπότητας καλύτερη.

«Το βαθύτερο ελάττωμά τους είναι η απουσία της πιο κρίσιμης ικανότητας οποιασδήποτε νοημοσύνης», έγραψε ο Τσόμσκι για τα σημερινά προγράμματα τεχνητής νοημοσύνης. «Να λες όχι μόνο τι συμβαίνει, τι συνέβαινε και τι θα συμβεί -αυτό είναι η περιγραφή και η πρόβλεψη- αλλά και τι δεν συμβαίνει και τι θα μπορούσε και τι δεν θα μπορούσε να συμβεί. Αυτά είναι τα συστατικά της εξήγησης, το σημάδι της αληθινής νοημοσύνης».

Η ικανότητα να συλλογίζεται κανείς με βάση τις διαθέσιμες πληροφορίες και να καταλήγει σε νέα και διορατικά συμπεράσματα είναι χαρακτηριστικό γνώρισμα του ανθρώπινου εγκεφάλου, ο οποίος, όπως έγραψε ο Τσόμσκι, είναι σχεδιασμένος να «δημιουργεί εξηγήσεις» και όχι να συμπεραίνει ωμές συσχετίσεις». Αλλά παρ’ όλες τις βελτιώσεις της τεχνητής νοημοσύνης, οι νευρολόγοι έχουν πει εδώ και καιρό ότι απέχει πολύ από το να μπορεί να αναπαράγει την ανθρώπινη λογική.

«Το ανθρώπινο μυαλό είναι ένα εκπληκτικά αποτελεσματικό και κομψό σύστημα που λειτουργεί με μικρές ποσότητες πληροφοριών», έγραψε ο Τσόμσκι.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Η κοινοτοπία του κακού

Σύμφωνα με τον Τσόμσκι, η τεχνητή νοημοσύνη στην τρέχουσα κατάστασή της, η οποία δεν είναι σε θέση να σκέφτεται κριτικά και συχνά λογοκρίνει τον εαυτό της από το να εκφέρει απόψεις, σημαίνει ότι δεν μπορεί να κάνει τις δύσκολες συζητήσεις που έχουν οδηγήσει σε σημαντικές ανακαλύψεις στην επιστήμη, τον πολιτισμό και τη φιλοσοφία.

«Για να είναι χρήσιμο, το ChatGPT πρέπει να έχει τη δυνατότητα να παράγει αποτέλεσμα που να είναι καινοτόμο∙ για να είναι αποδεκτό από τους περισσότερους χρήστες του, πρέπει να αποφεύγει το ηθικά επιλήψιμο περιεχόμενο», έγραψε μαζί με τους συν-συγγραφείς του.

Σίγουρα, η παρεμπόδιση του ChatGPT και άλλων chatbots από το να παίρνουν ελεύθερες αποφάσεις είναι μάλλον προς το καλύτερο. Λαμβάνοντας υπόψη τα προβλήματα με την τεχνολογία, οι ειδικοί έχουν παροτρύνει τους χρήστες να μην βασίζονται σε αυτήν για ιατρικές συμβουλές ή για σχολική δουλειά για το σπίτι. Σε ένα παράδειγμα της τεχνητής νοημοσύνης που ξεφεύγει από τα όρια, μια συζήτηση μεταξύ ενός δημοσιογράφου των New York Times και του Bing της Microsoft τον περασμένο μήνα κατέληξε με το chatbot να προσπαθεί να πείσει τον χρήστη να εγκαταλείψει τη σύζυγό του.

Οι ανακρίβειες της τεχνητής νοημοσύνης θα μπορούσαν ακόμη και να συμβάλουν στην εξάπλωση θεωριών συνωμοσίας, και κινδυνεύουν να εξαναγκάσουν τους χρήστες σε αποφάσεις που είναι επικίνδυνες για τους ίδιους ή για τους άλλους.

Οι φόβοι για την κακόβουλη τεχνητή νοημοσύνη μπορεί να σημαίνουν ότι η AI μπορεί να μην είναι ποτέ σε θέση να λάβει ορθολογικές αποφάσεις και να σταθμίσει ηθικά επιχειρήματα, σύμφωνα με τον Τσόμσκι. Αν είναι έτσι, η τεχνολογία μπορεί να παραμείνει ένα παιχνίδι και περιστασιακό εργαλείο και όχι ένα σημαντικό μέρος της ζωής μας.

«Το ChatGPT παρουσιάζει κάτι σαν την κοινοτοπία του κακού: λογοκλοπή και απάθεια και αποβλάκωση. Συνοψίζει τα τυπικά επιχειρήματα της βιβλιογραφίας με ένα είδος υπερβολικού auto-complete, αρνείται να πάρει θέση για οτιδήποτε, επικαλείται όχι απλώς άγνοια αλλά έλλειψη ευφυΐας και τελικά προσφέρει μια υπεράσπιση τύπου ‘απλώς ακολουθώ εντολές», μεταθέτοντας την ευθύνη στους δημιουργούς του», έγραψε ο Τσόμσκι.

«Ελλείψει της ικανότητας συλλογισμού από ηθικές αρχές, το ChatGPT περιορίστηκε ωμά από τους προγραμματιστές του από το να συνεισφέρει οτιδήποτε νέο σε αμφιλεγόμενες -δηλαδή σημαντικές- συζητήσεις. Θυσίασε τη δημιουργικότητα για ένα είδος ανηθικότητας».

Διαβάστε περισσότερα για την τεχνητή νοημοσύνη:

Η τεχνητή νοημοσύνη βρίσκεται στα πρόθυρα μιας «στιγμής παρόμοιας με του iPhone» χάρη στην «ιλιγγιώδη» ανάπτυξη