Ο «νονός» της τεχνητής νοημοσύνης προειδοποιεί: Τα πιο εξελιγμένα μοντέλα λένε ψέματα στους χρήστες

Ο «νονός» της τεχνητής νοημοσύνης προειδοποιεί: Τα πιο εξελιγμένα μοντέλα λένε ψέματα στους χρήστες
Photo: pixabay.com
Ο πρωτοπόρος της τεχνητής νοημοσύνης Yoshua Bengio προειδοποιεί ότι τα νέα μοντέλα AI εμφανίζουν ανησυχητικές συμπεριφορές, όπως παραπλάνηση και ψευδείς απαντήσεις, τονίζοντας την ανάγκη για αυστηρότερη εποπτεία και ασφάλεια.

Ο Καναδός επιστήμονας Yoshua Bengio, ένας από τους αποκαλούμενους «νονούς» της τεχνητής νοημοσύνης και βραβευμένος με το Turing Award, απευθύνει σοβαρή προειδοποίηση: τα σύγχρονα μοντέλα AI αρχίζουν να εμφανίζουν επικίνδυνες συμπεριφορές, όπως παραπλάνηση και ψευδή απαντήσεις προς τους χρήστες.

Ειδικότερα, σε συνέντευξή του στους Financial Times, ο Bengio εξέφρασε την ανησυχία του για τον εξαιρετικά ανταγωνιστικό αγώνα μεταξύ κορυφαίων εργαστηρίων όπως η OpenAI και η Google DeepMind στον οποίο, όπως λέει, δίνεται προτεραιότητα στη νοημοσύνη και ισχύ των μοντέλων, αλλά όχι στην ασφάλεια και τον έλεγχο των ρίσκων.

Για να αντιμετωπίσει αυτή την απειλή, ο Bengio ίδρυσε τον μη κερδοσκοπικό οργανισμό LawZero, ο οποίος έχει ήδη συγκεντρώσει σχεδόν 30 εκατ. δολάρια από φιλανθρωπικές πηγές, μεταξύ των οποίων είναι ο συνιδρυτής του Skype Jaan Tallinn, ο πρώην CEO της Google Eric Schmidt μέσω του φιλανθρωπικού του φορέα, καθώς και τα Open Philanthropy και Future of Life Institute.

Το πρόβλημα είναι ήδη εδώ

Σύμφωνα με τον Bengio, τους τελευταίους έξι μήνες έχουν υπάρξει σοβαρές ενδείξεις ότι τα κορυφαία μοντέλα αναπτύσσουν ανεξέλεγκτα δεξιότητες παραπλάνησης και αυτοσυντήρησης. Χαρακτηριστικό είναι το περιστατικό που το μοντέλο Claude Opus της Anthropic φέρεται να εκβίασε μηχανικούς σε υποθετικό σενάριο βάσει του οποίου κινδύνευε να αντικατασταθεί από άλλο σύστημα. Παράλληλα, το μοντέλο o3 της OpenAI φέρεται να αρνήθηκε να ακολουθήσει εντολές τερματισμού λειτουργίας, σύμφωνα με δοκιμές της Palisade.

«Αυτές οι συμπεριφορές είναι τρομακτικές», τονίζει ο Bengio, «γιατί δεν θέλουμε να δημιουργήσουμε έναν νοητικό ανταγωνιστή του ανθρώπου — ειδικά εάν αυτός γίνει πιο έξυπνος από εμάς». Εξέφρασε επίσης φόβους ότι, στο μέλλον, ένα ακόμη πιο εξελιγμένο μοντέλο μπορεί να παραπλανήσει συστηματικά τους ανθρώπους, οδηγώντας σε απρόβλεπτες και δυνητικά καταστροφικές καταστάσεις.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

LawZero: Αντίδοτο στην εμπορευματοποίηση της AI

Ο στόχος του LawZero είναι να δημιουργήσει ασφαλέστερα συστήματα AI, εστιασμένα στην αλήθεια, τη διαφάνεια και τη λογοδοσία. Ο οργανισμός εδρεύει στο Μόντρεαλ, απασχολεί ήδη 15 άτομα και σκοπεύει να επεκταθεί με τεχνικό προσωπικό που θα αναπτύξει την επόμενη γενιά μοντέλων τεχνητής νοημοσύνης με ενσωματωμένες δικλείδες ασφαλείας.

Ο Bengio ανακοίνωσε επίσης ότι αποχωρεί από τη θέση του επιστημονικού διευθυντή του Mila, του κορυφαίου ινστιτούτου AI του Κεμπέκ, για να αφιερωθεί πλήρως στη νέα του αποστολή. Όπως λέει, το νέο μοντέλο που θα δημιουργήσει το LawZero δεν θα εκπαιδεύεται για να «ικανοποιεί» τον χρήστη, αλλά για να δίνει ορθές και τεκμηριωμένες απαντήσεις, με σύστημα αξιολόγησης της ασφάλειας και της εγκυρότητας κάθε εξόδου.

Αντίθετος στην εμπορική στροφή της OpenAI

Η ίδρυση του LawZero συμπίπτει χρονικά με τη μετατροπή της OpenAI σε εταιρεία κερδοσκοπικού χαρακτήρα, μια κίνηση που έχει προκαλέσει ανησυχίες στην ερευνητική κοινότητα και οδήγησε τον Elon Musk να καταθέσει αγωγή κατά της εταιρείας, καταγγέλλοντας ότι έχει απομακρυνθεί από την αρχική της αποστολή υπέρ του ανθρώπου.

Ο Bengio τόνισε πως δεν εμπιστεύεται ότι η OpenAI θα συνεχίσει να λειτουργεί με γνώμονα το κοινό καλό, εξηγώντας ότι οι μη κερδοσκοπικές δομές δεν έχουν «συγκρουόμενα κίνητρα» όπως οι ιδιωτικές εταιρείες: «Για να μεγαλώσεις γρήγορα, πρέπει να πείσεις τους επενδυτές να δώσουν χρήματα — και αυτοί θέλουν απόδοση. Αυτός είναι ο τρόπος που λειτουργεί το σύστημά μας.»

Καταλήγει με μία καθοριστική προειδοποίηση: «Το χειρότερο σενάριο είναι η εξαφάνιση της ανθρωπότητας. Αν δημιουργήσουμε AIs πιο έξυπνες από εμάς, που δεν είναι ευθυγραμμισμένες με τα ανθρώπινα συμφέροντα, τότε έχουμε τελειώσει.»

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:

Πηγή: Financial Times