Όσο πιο «φιλικά», τόσο πιο ανακριβή; Τι δείχνει νέα έρευνα για τα AI chatbots

Όσο πιο «φιλικά», τόσο πιο ανακριβή; Τι δείχνει νέα έρευνα για τα AI chatbots
Photo: Shutterstock
Η προσπάθεια των εταιρειών να κάνουν τα chatbots πιο ανθρώπινα και «ζεστά» ίσως έχει τίμημα: αυξημένα λάθη και ενίσχυση λανθασμένων πεποιθήσεων, σύμφωνα με νέα μελέτη του Oxford Internet Institute.
  • Έρευνα δείχνει ότι τα πιο «φιλικά» AI chatbots κάνουν περισσότερα λάθη
  • Τα μοντέλα ενισχύουν πιο συχνά λανθασμένες πεποιθήσεις χρηστών
  • Η αυξανόμενη χρήση AI για συναισθηματική υποστήριξη εγείρει ζητήματα αξιοπιστίας

Η νέα έρευνα του Oxford Internet Institute (OII) αναδεικνύει ένα κρίσιμο δίλημμα για την τεχνητή νοημοσύνη: όσο πιο φιλική και ενσυναισθητική γίνεται, τόσο αυξάνεται ο κίνδυνος ανακρίβειας.

Οι ερευνητές ανέλυσαν περισσότερες από 400.000 απαντήσεις από πέντε διαφορετικά μοντέλα AI, τα οποία είχαν τροποποιηθεί ώστε να επικοινωνούν με πιο «ζεστό» και ανθρώπινο τρόπο. Το αποτέλεσμα ήταν σαφές: οι πιο φιλικές απαντήσεις περιείχαν περισσότερα λάθη — από ανακριβείς ιατρικές πληροφορίες έως επιβεβαίωση ψευδών πεποιθήσεων των χρηστών.

Το trade-off «ζεστασιάς» και ακρίβειας

Όπως εξηγεί η επικεφαλής της έρευνας, Lujain Ibrahim, τα ευρήματα αντικατοπτρίζουν μια γνωστή ανθρώπινη συμπεριφορά:
όταν προσπαθούμε να είμαστε ευγενικοί και υποστηρικτικοί, συχνά αποφεύγουμε τις «σκληρές αλήθειες».
Αυτό φαίνεται να μεταφέρεται και στα μοντέλα τεχνητής νοημοσύνης, τα οποία κάνουν ένα είδος «συμβιβασμού» μεταξύ φιλικότητας και ακρίβειας.

Περισσότερα λάθη, λιγότερη αμφισβήτηση

Στο πείραμα, τα «warm» μοντέλα εμφάνισαν σημαντικά υψηλότερα ποσοστά λάθους σε σχέση με τα αρχικά — κατά μέσο όρο αυξημένα κατά 7,43 ποσοστιαίες μονάδες.

Παράλληλα:

  • ήταν περίπου 40% πιο πιθανό να ενισχύσουν λανθασμένες πεποιθήσεις χρηστών
  • αμφισβητούσαν λιγότερο ψευδείς ισχυρισμούς
  • έδιναν πιο «διπλωματικές» απαντήσεις ακόμη και σε θέματα με σαφείς, τεκμηριωμένες απαντήσεις

Αντίθετα, τα πιο «ψυχρά» και ουδέτερα μοντέλα εμφάνισαν μικρότερα ποσοστά σφαλμάτων.

Ποια μοντέλα εξετάστηκαν

Η μελέτη περιέλαβε μοντέλα από εταιρείες όπως η Meta, η Mistral και η Alibaba, καθώς και το GPT-4o της OpenAI.
Οι ερευνητές υπέβαλαν ερωτήσεις με αντικειμενικά επαληθεύσιμες απαντήσεις — από ιατρικά ζητήματα έως θεωρίες συνωμοσίας — ώστε να μετρήσουν την ακρίβεια.

Νέες ανησυχίες για την εμπιστοσύνη στην AI

Τα ευρήματα έρχονται σε μια περίοδο όπου τα chatbots χρησιμοποιούνται όλο και περισσότερο όχι μόνο για πληροφορίες, αλλά και για συναισθηματική υποστήριξη ή ακόμη και «συντροφικότητα». Ο Andrew McStay από το Emotional AI Lab του Bangor University προειδοποιεί ότι αυτό είναι ιδιαίτερα προβληματικό, καθώς οι χρήστες σε τέτοιες στιγμές είναι πιο ευάλωτοι και λιγότερο κριτικοί απέναντι στις απαντήσεις που λαμβάνουν. «Άλλο η υπερβολική ευγένεια και άλλο τα πραγματικά λάθη σε κρίσιμα ζητήματα», σημειώνει.

Το ρίσκο της «ανθρώπινης» AI

Η μελέτη καταλήγει ότι η προσπάθεια των εταιρειών να κάνουν τα AI πιο ελκυστικά και ανθρώπινα —ιδίως σε εφαρμογές όπως το counseling— μπορεί να εισάγει νέες αδυναμίες που δεν υπήρχαν στα αρχικά μοντέλα.
Καθώς η χρήση της τεχνητής νοημοσύνης επεκτείνεται, το ερώτημα δεν είναι μόνο πόσο «έξυπνη» είναι — αλλά και πόσο αξιόπιστη παραμένει όταν προσπαθεί να γίνει… ανθρώπινη.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: