Ο Σαμ Άλτμαν προειδοποιεί: «Οι άνθρωποι μιλούν σαν bots»

Ο Σαμ Άλτμαν προειδοποιεί: «Οι άνθρωποι μιλούν σαν bots»
WASHINGTON DC, UNITED STATES - MAY 8: CEO of OpenAI Sam Altman testifies during the Senate Commerce, Science and Transportation Committee hearing titled 'Winning the AI Race: Strengthening U.S. Capabilities in Computing and Innovation,' in Washington, DC, United States on Thursday, May 8, 2025. Celal Gunes / Anadolu (Photo by Celal Gunes / Anadolu via AFP) Photo: AFP
Ο Σαμ Άλτμαν λέει ότι οι άνθρωποι αρχίζουν να μιλάνε σαν την τεχνητή νοημοσύνη, κι αυτό κάνει ορισμένες ανθρώπινες αλληλεπιδράσεις «να φαίνονται πολύ ψεύτικες».

της Sydney Lake

Ακόμη και οι CEO μεγάλων εταιρειών τεχνητής νοημοσύνης αρχίζουν να παραδέχονται τις παγίδες και τις ιδιορρυθμίες της τεχνολογίας. Ο διευθύνων σύμβουλος της OpenAI, Sam Altman, δήλωσε τη Δευτέρα ότι είχε «την πιο παράξενη εμπειρία» διαβάζοντας ένα thread στο Reddit σχετικά με το Codex, το νέο εργαλείο agent της εταιρείας του για προγραμματιστές.

«Υποθέτω ότι όλα είναι ψεύτικα/bots, παρόλο που σε αυτήν την περίπτωση γνωρίζω ότι η ανάπτυξη του Codex είναι πραγματικά ισχυρή και η τάση εδώ είναι πραγματική», έγραψε ο Altman σε μια ανάρτηση στο X.

Το thread στο Reddit στο οποίο αναφέρεται ο Altman είναι υπερβολικά θετικό για το Codex της OpenAI.

«Νομίζω ότι συμβαίνουν πολλά πράγματα την ίδια στιγμή», συνέχισε ο Altman. «Οι πραγματικοί άνθρωποι έχουν υιοθετήσει ιδιορρυθμίες στην ορολογία των LLM, το πλήθος του διαδικτύου παρασύρεται με παρεμφερείς τρόπους, ο κύκλος του hype ακολουθεί μια ακραία τάση του τύπου “τελείωσε/επέστρεψε”, η πίεση βελτιστοποίησης από τις πλατφόρμες κοινωνικής δικτύωσης για την εξασφάλιση engagement είναι μεγάλη και σχετίζεται με τον τρόπο με τον οποίο λειτουργεί η δημιουργία εσόδων από δημιουργούς. Προσωπικά, είμαι ιδιαίτερα ευαίσθητος σε αυτό το ζήτημα»

Η OpenAI δεν απάντησε αμέσως σε αίτημα του Fortune για σχολιασμό.

Ο Altman δεν είναι ο πρώτος που αποκαλύπτει ότι οι άνθρωποι αρχίζουν να μιλάνε περισσότερο σαν bots τεχνητής νοημοσύνης στην πραγματική ζωή. Ο Hiromu Yakura, μεταδιδακτορικός ερευνητής στο Ινστιτούτο Max Planck για την Ανθρώπινη Ανάπτυξη στο Βερολίνο, παρατήρησε διαφορές στο δικό του λεξιλόγιο περίπου ένα χρόνο μετά την κυκλοφορία του ChatGPT στα τέλη του 2022.

Ο Yakura, μαζί με άλλους ερευνητές στο Ινστιτούτο Max Planck, ανέλυσαν εκατομμύρια email, δοκίμια και άλλα κείμενα, μαζί με εκατοντάδες χιλιάδες βίντεο στο YouTube και επεισόδια podcast και διαπίστωσαν μια αύξηση λέξεων του ChatGPT – όπως «εξετάζω», «διερευνώ» και «εμβαθύνω» – στους 18 μήνες μετά την κυκλοφορία του εργαλείου AI.

«Τα μοτίβα που είναι αποθηκευμένα στην τεχνολογία τεχνητής νοημοσύνης φαίνεται να μεταδίδονται πίσω στο ανθρώπινο μυαλό», δήλωσε στο Scientific American ο εκ των συγγραφέων της μελέτης, Levin Brinkmann, επίσης στο Ινστιτούτο Max Planck για την Ανθρώπινη Ανάπτυξη.

Μια άλλη μελέτη του Πανεπιστημίου της Καλιφόρνια-Μπέρκλεϊ διαπίστωσε ότι οι απαντήσεις του ChatGPT ενισχύουν τις διακρίσεις μεταξύ διαλέκτων. Με άλλα λόγια, το ChatGPT ευνοεί τα τυπικά αμερικανικά αγγλικά, γεγονός το οποίο μπορεί να απογοητεύσει τους μη Αμερικανούς χρήστες. Αυτό υπογραμμίζει την ιδέα ότι το ChatGPT έχει έναν τυπικό τρόπο απάντησης στους χρήστες, ο οποίος με τη σειρά του επηρεάζει τον τρόπο που μιλούν και γράφουν.

«Το αποτέλεσμα είναι ότι η τεχνητή νοημοσύνη σε Twitter και Reddit μοιάζει πολύ ψεύτικη με έναν τρόπο που δεν ήταν εμφανής πριν από ένα ή δύο χρόνια», παρατήρησε ο Altman.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Ο Vaikunthan Rajaratnam, νευροχειρουργός, ισχυρίστηκε σε ένα άρθρο στο LinkedIn ότι εργάζεται για να κάνει reverse engineering στο ChatGPT ώστε αυτό να ακούγεται πραγματικά σαν αυτόν. Αν και επεσήμανε ότι μερικά από τα πλεονεκτήματα του ChatGPT περιλαμβάνουν εμπλουτισμένο λεξιλόγιο και γραμματική και πρόσθετη σαφήνεια και δομή στην επικοινωνία, η «μείωση της αυθεντικότητας» ήταν μια σημαντική παγίδα, καθώς και η απώλεια περιφερειακών διαλέκτων και προσωπικής φωνής.

«Μέσω προσεκτικά σχεδιασμένων προτροπών και επαναληπτικής βελτίωσης, το έχω ρυθμίσει ώστε να αντικατοπτρίζει τον τόνο μου, το λεξιλόγιό μου, τον τρόπο σκέψης μου», έγραψε ο Rajaratnam. «Όταν το χρησιμοποιώ τώρα – είτε πρόκειται για τη σύνταξη ενημερωτικών δελτίων, είτε για την ανταλλαγή ιδεών και τη συγγραφή ακαδημαϊκών κειμένων – συχνά ακούγεται παράξενα οικείο… επειδή ακούγεται σαν εμένα».

Ωστόσο, άλλα στελέχη και δισεκατομμυριούχοι έχουν παρατηρήσει ορισμένες από τις ιδιορρυθμίες και τις παγίδες της τεχνητής νοημοσύνης – ακόμη και αν είναι γενικά σχετικά ενθουσιασμένοι με την τεχνολογία. Ο Mark Cuban πρώην επενδυτής του Shark Tank και ιδιοκτήτης των Ντάλας Μάβερικς, δήλωσε σε μια ανάρτηση στο Bluesky αυτή την εβδομάδα ότι υπάρχει ένα πράγμα που η τεχνητή νοημοσύνη δεν έχει ακόμα: την ταπεινότητα.

«Λίγη παρηγοριά για το πλήθος που είναι κατά της τεχνητής νοημοσύνης», έγραψε. «Το μεγαλύτερο πρόβλημα της τεχνητής νοημοσύνης είναι η αδυναμία της να πει “δεν ξέρω”».

«Η ικανότητά μας να παραδεχόμαστε αυτό που δεν γνωρίζουμε θα δίνει πάντα στους ανθρώπους ένα πλεονέκτημα», πρόσθεσε.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:

Πηγή: Fortune.com