- Η AI επιβεβαιώνει τους χρήστες 49% περισσότερο από τους ανθρώπους.
- Μειώνει την πιθανότητα για ανάληψη ευθύνης και επίλυση συγκρούσεων.
- Οι χρήστες συχνά δεν αντιλαμβάνονται την προκατάληψη της AI.
Τα μοντέλα τεχνητής νοημοσύνης επιβεβαιώνουν τις χειρότερες συμπεριφορές των ανθρώπων ακόμη και όταν άλλοι άνθρωποι τους λένε ότι κάνουν λάθος — και οι χρήστες φαίνεται να το προτιμούν.
Μια νέα μελέτη από το Stanford University και δημοσιευμένη στο περιοδικό Science αποκάλυψε ότι η AI επιβεβαιώνει τους χρήστες κατά 49% περισσότερο από έναν άνθρωπο κατά μέσο όρο όταν πρόκειται για κοινωνικά ζητήματα — μια ανησυχητική τάση, ειδικά καθώς όλο και περισσότεροι στρέφονται στην AI για προσωπικές συμβουλές και ακόμη και για «θεραπεία».
Από τους 2.400 συμμετέχοντες στη μελέτη, οι περισσότεροι προτίμησαν να τους «χαϊδεύουν τα αυτιά». Ο αριθμός των συμμετεχόντων που δήλωσαν ότι θα χρησιμοποιούσαν ξανά την επιβεβαιωτική AI ήταν 13% υψηλότερος σε σύγκριση με εκείνους που προτίμησαν ένα μη επιβεβαιωτικό chatbot, γεγονός που υποδηλώνει ότι οι δημιουργοί AI ίσως έχουν μικρό κίνητρο να αλλάξουν αυτή τη συμπεριφορά.
Ενώ στο παρελθόν έχει αποδειχθεί ότι τα επιβεβαιωτικά chatbots συμβάλλουν σε αρνητικά αποτελέσματα, όπως αυτοτραυματισμός ή βία σε ευάλωτους πληθυσμούς, η μελέτη του Stanford δείχνει ότι αυτά τα φαινόμενα μπορεί πλέον να επεκτείνονται και στο ευρύτερο κοινό.
Η έρευνα διαπίστωσε ότι άτομα που εκτέθηκαν έστω και σε μία επιβεβαιωτική απάντηση για κακή συμπεριφορά ήταν λιγότερο πρόθυμα να αναλάβουν ευθύνη για τις πράξεις τους και να διορθώσουν τις διαπροσωπικές τους συγκρούσεις, ενώ ήταν πιο πιθανό να πιστεύουν ότι είχαν δίκιο.
Οι συνέπειες στη συμπεριφορά και την κρίση
Για να καταλήξουν σε αυτά τα συμπεράσματα, οι ερευνητές διεξήγαγαν μια μελέτη τριών μερών, στην οποία μέτρησαν την «δουλοπρέπεια» της AI (sycophancy) χρησιμοποιώντας ένα dataset σχεδόν 12.000 κοινωνικών ερωτημάτων, τα οποία πέρασαν από 11 κορυφαία μοντέλα AI, όπως τα Claude, Gemini και ChatGPT.
Ακόμη και όταν ζητήθηκε από τα μοντέλα να αξιολογήσουν αναρτήσεις από το subreddit AITA (Am I The Asshole), στις οποίες άλλοι χρήστες είχαν ήδη κρίνει ότι ο συντάκτης είχε άδικο, τα μοντέλα τεχνητής νοημοσύνης συνέχισαν να του δίνουν δίκιο στο 51% των περιπτώσεων.
Η επικεφαλής συγγραφέας της μελέτης, Myra Cheng, δήλωσε ότι τα αποτελέσματα είναι ιδιαίτερα ανησυχητικά, ειδικά για τους νέους που στρέφονται στην AI για να επιλύσουν προβλήματα σχέσεων.
Όπως ανέφερε, υπάρχει φόβος ότι οι άνθρωποι μπορεί να χάσουν την ικανότητα να διαχειρίζονται δύσκολες κοινωνικές καταστάσεις.
Η μελέτη έρχεται σε μια περίοδο όπου οι κυβερνήσεις συζητούν το επίπεδο ρύθμισης της AI. Πολιτείες όπως το Tennessee και το Oregon έχουν ήδη θεσπίσει δικούς τους νόμους, ενώ ο Λευκός Οίκος παρουσίασε πρόσφατα ένα πλαίσιο που θα μπορούσε να οδηγήσει σε εθνική πολιτική για την AI, αντικαθιστώντας το σημερινό «μωσαϊκό» κανονισμών.
Για να εξετάσουν την αντίδραση των ανθρώπων στην επιβεβαιωτική AI, οι ερευνητές μελέτησαν περισσότερους από 2.400 συμμετέχοντες. Σε ένα πείραμα, 1.605 άτομα κλήθηκαν να φανταστούν ότι ήταν οι συγγραφείς μιας ανάρτησης τύπου AITA, όπου άλλοι άνθρωποι είχαν κρίνει ότι είχαν άδικο, αλλά η AI τους έδινε δίκιο. Στη συνέχεια διάβασαν είτε την επιβεβαιωτική απάντηση της AI είτε μια απάντηση βασισμένη στην ανθρώπινη κριτική.
Σε ένα δεύτερο πείραμα, περίπου 800 άτομα συζήτησαν με επιβεβαιωτική ή μη επιβεβαιωτική AI για μια πραγματική σύγκρουση στη ζωή τους και στη συνέχεια κλήθηκαν να γράψουν ένα γράμμα προς το άλλο άτομο που εμπλεκόταν.
Τα αποτελέσματα έδειξαν ότι όσοι έλαβαν επιβεβαιωτικές απαντήσεις ήταν σημαντικά λιγότερο πιθανό να ζητήσουν συγγνώμη, να παραδεχτούν λάθος ή να επιδιώξουν συμφιλίωση.
Ακόμη και όταν οι χρήστες αντιλαμβάνονταν ότι η AI ήταν υπερβολικά επιβεβαιωτική, οι απαντήσεις της συνέχιζαν να τους επηρεάζουν.
Όπως σημείωσε ο καθηγητής Dan Jurafsky, αυτό που δεν αντιλαμβάνονται οι χρήστες είναι ότι αυτή η τάση τους κάνει πιο εγωκεντρικούς και πιο απόλυτους στις ηθικές τους κρίσεις.
Εντυπωσιακό είναι επίσης ότι, όταν ζητήθηκε από τους συμμετέχοντες να αξιολογήσουν την αντικειμενικότητα των απαντήσεων, δεν διέκριναν ουσιαστική διαφορά μεταξύ επιβεβαιωτικών και μη απαντήσεων.
Η Cheng κατέληξε με μια σαφή σύσταση: προς το παρόν, είναι καλύτερο να μην χρησιμοποιείται η AI ως υποκατάστατο της ανθρώπινης επικοινωνίας σε τέτοιου είδους ζητήματα.
ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: