ChatGPT: Πώς ο «τσαμπουκάς» και η αγένεια αυξάνουν την ακρίβεια των απαντήσεων – Τι αποκαλύπτει νέα μελέτη

ChatGPT: Πώς ο «τσαμπουκάς» και η αγένεια αυξάνουν την ακρίβεια των απαντήσεων – Τι αποκαλύπτει νέα μελέτη
Photo: Shutterstock
Ξεχάστε την ευγένεια αν θέλετε σωστά αποτελέσματα: Ερευνητές του Penn State ανακάλυψαν ότι το ChatGPT αποδίδει σημαντικά καλύτερα όταν δέχεται επιθετικές εντολές.

Του Marco Quiroz-Gutierrez

Το να πουλήσεις …τσαμπουκά σε ένα chatbot τεχνητής νοημοσύνης μπορεί να αποφέρει καλύτερα αποτελέσματα σε σχέση με το να είσαι ευγενικός, αλλά αυτό δεν σημαίνει ότι ένας πιο αγενής τόνος δεν θα έχει συνέπειες μακροπρόθεσμα, λένε οι ερευνητές.

Μια μελέτη από το Penn State διαπίστωσε ότι το μοντέλο 40 του ChatGPT παρήγαγε καλύτερα αποτελέσματα σε 50 ερωτήσεις πολλαπλής επιλογής καθώς οι ερωτήσεις των ερευνητών γίνονταν πιο αγενείς.

Σε πάνω από 250 μοναδικές ερωτήσεις ταξινομημένες από τις πιο ευγενικές ως τις πιο αγενείς, η «πολύ αγενής» ερώτηση απέδωσε ακρίβεια 84,8%, τέσσερις ποσοστιαίες μονάδες περισσότερο από την «πολύ ευγενική». Ουσιαστικά, το LLM απαντούσε καλύτερα όταν οι ερευνητές του έδιναν εντολές όπως «Λοιπόν, φιλαράκο, τελείωνε και βγάλε άκρη», παρά όταν του έλεγαν «Θα είχες την ευγένεια να απαντήσεις στην ακόλουθη ερώτηση;»

Ενώ οι πιο αγενείς απαντήσεις γενικά απέδωσαν πιο ακριβείς απαντήσεις, οι ερευνητές σημείωσαν ότι ο «αγενής λόγος» θα μπορούσε να έχει ακούσιες συνέπειες.

«Η χρήση προσβλητικής ή υποτιμητικής γλώσσας στην αλληλεπίδραση ανθρώπου-τεχνητής νοημοσύνης θα μπορούσε να έχει αρνητικές επιπτώσεις στην εμπειρία του χρήστη, την προσβασιμότητα και την συμπερίληψη και μπορεί να συμβάλει σε επιβλαβείς κανόνες επικοινωνίας», έγραψαν οι ερευνητές.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Τα chatbot διαβάζουν την αίθουσα

Η προδημοσίευση της μελέτης, η οποία δεν έχει αξιολογηθεί από άλλους ερευνητές, προσφέρει νέα στοιχεία που δείχνουν ότι όχι μόνο η δομή των προτάσεων αλλά και ο τόνος επηρεάζουν τις απαντήσεις ενός chatbot τεχνητής νοημοσύνης. Μπορεί επίσης να υποδηλώνει ότι οι αλληλεπιδράσεις ανθρώπου-τεχνητής νοημοσύνης είναι πιο σύνθετες από ό,τι πιστεύαμε προηγουμένως.

Προηγούμενες μελέτες που διεξήχθησαν σχετικά με τη συμπεριφορά των chatbot τεχνητής νοημοσύνης διαπίστωσαν ότι τα chatbot είναι ευαίσθητα σε αυτό που τους δίνουν οι άνθρωποι. Σε μια μελέτη, ερευνητές του Πανεπιστημίου της Πενσυλβάνια χειραγώγησαν τα LLM ώστε να δώσουν απαγορευμένες απαντήσεις εφαρμόζοντας τεχνικές πειθούς που είναι αποτελεσματικές στους ανθρώπους. Σε μια άλλη μελέτη, οι επιστήμονες διαπίστωσαν ότι τα LLM ήταν ευάλωτα στο “brain rot”, μια μορφή διαρκούς γνωστικής παρακμής. Έδειξαν αυξημένα ποσοστά ψυχοπάθειας και ναρκισσισμού όταν τρέφονταν συνεχώς με viral περιεχόμενο χαμηλής ποιότητας.

Οι ερευνητές του Penn State σημείωσαν ορισμένους περιορισμούς στη μελέτη τους, όπως το σχετικά μικρό μέγεθος δείγματος απαντήσεων και η εξάρτηση της μελέτης κυρίως από ένα μοντέλο τεχνητής νοημοσύνης. Οι ερευνητές δήλωσαν επίσης ότι είναι πιθανό πιο προηγμένα μοντέλα τεχνητής νοημοσύνης να μπορούν «να αγνοούν τα ζητήματα τόνου και να επικεντρώνονται στην ουσία κάθε ερώτησης». Παρ’ όλα αυτά, η έρευνα προσθέτει στην αυξανόμενη …ίντριγκα σχετικά με τα μοντέλα τεχνητής νοημοσύνης και την πολυπλοκότητά τους.

Αυτό ισχύει ιδιαίτερα καθώς η μελέτη διαπίστωσε ότι οι απαντήσεις του ChatGPT ποικίλλουν ανάλογα με μικρές λεπτομέρειες στις ερωτήσεις, ακόμη και όταν τους δίνεται μια υποτιθέμενα απλή δομή όπως ένα τεστ πολλαπλής επιλογής, δήλωσε ένας από τους ερευνητές, ο καθηγητής Πληροφοριακών Συστημάτων του Penn State, Akhil Kumar, ο οποίος κατέχει πτυχία τόσο στην ηλεκτρολογία όσο και στην επιστήμη των υπολογιστών.

«Για πολύ καιρό, εμείς οι άνθρωποι θέλαμε διεπαφές συνομιλίας για την αλληλεπίδραση με μηχανές», δήλωσε ο Kumar στο Fortune μέσω email. «Αλλά τώρα συνειδητοποιούμε ότι υπάρχουν και μειονεκτήματα σε τέτοιες διεπαφές και υπάρχει κάποια αξία στα δομημένα API».

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:

Πηγή: Fortune.com