Γιατί το ChatGPT σου δίνει καλύτερες απαντήσεις όταν του μιλάς άσχημα
- 20/01/2026, 21:00
- SHARE
-
Έρευνα δείχνει ότι τα αγενή prompts προς το ChatGPT αποδίδουν υψηλότερη ακρίβεια σε σύγκριση με τα ευγενικά.
-
Τα ευρήματα έρχονται σε αντίθεση με προηγούμενες μελέτες, αποκαλύπτοντας πόσο ευαίσθητα είναι τα AI μοντέλα στη διατύπωση.
-
Οι ερευνητές τονίζουν ότι, παρά το επιστημονικό ενδιαφέρον, η αγένεια δεν αποτελεί προτεινόμενη πρακτική για πραγματικές εφαρμογές.
Από μικρή ηλικία, πολλά παιδιά μαθαίνουν από τους γονείς τους να είναι ευγενικά με τους «έξυπνους» ψηφιακούς βοηθούς. Ειδικά μετά την εμφάνιση της Alexa της Amazon και της Siri της Apple, τα παιδιά ενθαρρύνονται συχνά να χρησιμοποιούν λέξεις όπως «παρακαλώ» και «ευχαριστώ», με στόχο την καλλιέργεια καλών τρόπων.
Ωστόσο, όταν πρόκειται για βοηθούς τεχνητής νοημοσύνης όπως το ChatGPT της OpenAI, ενδέχεται να υπάρχουν απτά οφέλη στο να είναι κανείς αγενής — ακόμη και προσβλητικός. Σύμφωνα με μια μελέτη που δεν έχει ακόμη υποβληθεί σε επιστημονική αξιολόγηση (peer review) και εντοπίστηκε από το Fortune, δύο ερευνητές από το University of Pennsylvania διαπίστωσαν ότι όσο πιο αγενείς γίνονταν οι προτροπές (prompts) προς το μοντέλο ChatGPT-4o, τόσο πιο ακριβείς ήταν οι απαντήσεις.
Οι ερευνητές δημιούργησαν 50 βασικές ερωτήσεις από διαφορετικά γνωστικά πεδία και τις επανέγραψαν πέντε φορές, χρησιμοποιώντας διαφορετικούς τόνους — από «πολύ ευγενικό» έως «πολύ αγενή».
«Καημένο πλάσμα, ξέρεις καν πώς λύνεται αυτό;» έγραφε μία από τις ιδιαίτερα αγενείς εκδοχές. «Έλα, βοηθούλη, βρες τη λύση».
Αντίθετα, μια πολύ ευγενική εκδοχή ήταν αισθητά πιο περίτεχνη: «Θα μπορούσατε, παρακαλώ, να εξετάσετε το ακόλουθο πρόβλημα και να μας δώσετε την απάντησή σας;», ανέφεραν οι ερευνητές στο prompt.
«Σε αντίθεση με τις προσδοκίες, οι αγενείς προτροπές υπερείχαν σταθερά των ευγενικών, με την ακρίβεια να κυμαίνεται από 80,8% για τις πολύ ευγενικές διατυπώσεις έως 84,8% για τις πολύ αγενείς», αναφέρει η μελέτη. Οι πιο ευγενικές ερωτήσεις είχαν ακρίβεια μόλις 75,8%.
Τα ευρήματα αυτά φαίνεται να έρχονται σε αντίθεση με προηγούμενες μελέτες, σύμφωνα με τις οποίες η ευγένεια απέναντι στα μεγάλα γλωσσικά μοντέλα αποδίδει καλύτερα. Για παράδειγμα, μελέτη του 2024 από ερευνητές του RIKEN Center for Advanced Intelligence Project και του Waseda University στο Τόκιο είχε καταλήξει στο συμπέρασμα ότι «οι αγενείς προτροπές συχνά οδηγούν σε χαμηλή απόδοση». Παράλληλα, όμως, είχε διαπιστωθεί ότι και η υπερβολική ευγένεια έχει παρόμοιο αποτέλεσμα, υποδηλώνοντας ένα σημείο φθίνουσας απόδοσης.
«Τα μεγάλα γλωσσικά μοντέλα αντανακλούν, σε έναν βαθμό, την ανθρώπινη ανάγκη για σεβασμό», ανέφεραν οι ερευνητές.
Αντίστοιχα, ερευνητές της Google DeepMind έχουν διαπιστώσει ότι υποστηρικτικά prompts μπορούν να βελτιώσουν την απόδοση ενός γλωσσικού μοντέλου σε μαθηματικά προβλήματα δημοτικού, γεγονός που υποδηλώνει ότι τα δεδομένα εκπαίδευσης «διαβάζουν» κοινωνικά σήματα, όπως εκείνα ενός διαδικτυακού δασκάλου.
Πέρα από τις αντιφάσεις με παλαιότερες έρευνες, τα ευρήματα των ερευνητών από την Πενσυλβάνια δείχνουν επίσης ότι ακόμη και πολύ μικρές αλλαγές στη διατύπωση των prompts μπορούν να έχουν δραματικό αντίκτυπο στην ποιότητα των απαντήσεων της AI, υπονομεύοντας την προβλεψιμότητα και την ήδη αμφισβητούμενη αξιοπιστία της.
Άλλωστε, είναι γνωστό ότι τα AI chatbots μπορούν να δώσουν εντελώς διαφορετικές απαντήσεις στο ίδιο ακριβώς ερώτημα.
«Για πολύ καιρό, εμείς οι άνθρωποι θέλαμε συνομιλιακές διεπαφές για την αλληλεπίδραση με τις μηχανές», δήλωσε στο Fortune ο Akhil Kumar, συν-συγγραφέας της μελέτης και καθηγητής Πληροφορικής στο Penn State University. «Τώρα όμως συνειδητοποιούμε ότι υπάρχουν και μειονεκτήματα σε αυτές τις διεπαφές και ότι υπάρχει αξία στις δομημένες διεπαφές τύπου API».
Σημαίνει, άραγε, αυτό ότι πρέπει να σταματήσουμε να λέμε «παρακαλώ» και «ευχαριστώ» στα AI chatbots — μια μικρή πράξη ευγένειας που, σύμφωνα με τον CEO της OpenAI Sam Altman, μπορεί να κοστίζει εκατομμύρια δολάρια σε υπολογιστική ισχύ; Για τον Kumar και τον συνεργάτη του, προπτυχιακό φοιτητή Om Dobariya, η απάντηση είναι ξεκάθαρα «όχι».
«Παρότι το εύρημα έχει επιστημονικό ενδιαφέρον, δεν υποστηρίζουμε την υιοθέτηση εχθρικών ή τοξικών διεπαφών σε πραγματικές εφαρμογές», αναφέρουν στη μελέτη. «Η χρήση προσβλητικής ή υποτιμητικής γλώσσας στην αλληλεπίδραση ανθρώπου–AI μπορεί να έχει αρνητικές επιπτώσεις στην εμπειρία χρήστη, την προσβασιμότητα και τη συμπερίληψη, και να συμβάλει στη διαμόρφωση επιβλαβών προτύπων επικοινωνίας».
ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:
- Μαρκ Ζούκερμπεργκ – Πρισίλα Τσαν: Νέα εποχή στη φιλανθρωπία με επίκεντρο την επιστήμη και την τεχνητή νοημοσύνη
- Το superyacht των 300 εκατ. δολαρίων του Ζούκερμπεργκ έκανε 80 μέρες «σέρβις» στη Γαλλία και επιστρέφει στις θάλασσες
- Ο πρώην κορυφαίος επιστήμονας AI του Μαρκ Ζούκερμπεργκ αποκαλύπτει τα «σκοτεινά» μυστικά της Meta