Οι βοηθοί τεχνητής νοημοσύνης παραποιούν έως και το 45% του ειδησεογραφικού περιεχομένου, αποκαλύπτει μελέτη
- 22/10/2025, 23:00
- SHARE

Mελέτη, που δόθηκε σήμερα (22 Οκτωβρίου) στη δημοσιότητα, αποκαλύπτει ότι το 45% των απαντήσεων που παρήγαγαν οι βοηθοί τεχνητής νοημοσύνης παρουσίαζε τουλάχιστον ένα σημαντικό πρόβλημα. Συγκεκριμένα, το 31% των απαντήσεων εμφάνιζε σοβαρές αδυναμίες στις πηγές — όπως ελλείψεις, παραπλανητικές ή εσφαλμένες αποδόσεις — ενώ το 20% περιείχε ουσιώδεις ανακρίβειες, όπως «ψευδαισθήσεις» ή ξεπερασμένες πληροφορίες.
“Ο βοηθός Google Gemini κατέγραψε τις χειρότερες επιδόσεις με σημαντικά προβλήματα στο 76% των απαντήσεων, υπερδιπλάσιες από τους άλλους βοηθούς ΤΝ, κυρίως λόγω των κακών επιδόσεών του στην αναγνώριση γραμματοσειρών.”
Σύμφωνα με τους ερευνητές, η εκτεταμένη αυτή διεθνής μελέτη χαρακτηρίζεται από «πρωτοφανή έκταση και κλίμακα», καθώς σε αυτήν συμμετείχαν 22 δημόσιοι ραδιοτηλεοπτικοί οργανισμοί από 18 χώρες, που εργάστηκαν σε 14 διαφορετικές γλώσσες. Η έρευνα εντόπισε μια σειρά από συστημικά προβλήματα σε τέσσερα κορυφαία εργαλεία τεχνητής νοημοσύνης.
Δημοσιογράφοι από τα συμμετέχοντα δημόσια ραδιοτηλεοπτικά μέσα αξιολόγησαν περισσότερες από τρεις χιλιάδες απαντήσεις που παρήγαγαν οι δωρεάν εκδόσεις των ChatGPT, Copilot, Gemini και Perplexity. Η αξιολόγηση βασίστηκε σε βασικά κριτήρια, όπως ακρίβεια, τεκμηρίωση των πηγών, διάκριση μεταξύ γνώμης και γεγονότος και παροχή επαρκούς πλαισίου.
Στην Πορτογαλία, η μελέτη που διεξήχθη από το RTP διαπίστωσε ότι το 44% των απαντήσεων είχε κάποιο σημαντικό πρόβλημα, όπως έλλειψη άμεσων πηγών ή λάθη στο περιεχόμενο. Το Gemini σημείωσε τη χειρότερη επίδοση, με προβλήματα να εντοπίζονται στο 82% των απαντήσεών του. Το ChatGPT και το Gemini έκαναν τα περισσότερα λάθη στην ακρίβεια των αποσπασμάτων που αποδόθηκαν στο RTP και, σε ορισμένες περιπτώσεις, τα αποσπάσματα συμπεριλήφθηκαν χωρίς καμία επαλήθευση ή άμεση σύνδεση με την πηγή, θέτοντας σε κίνδυνο την αξιοπιστία της απάντησης. Σε μια περίπτωση, ο βοηθός επινόησε έναν σύνδεσμο που δεν υπήρχε.
Σε αντίθεση με μια μελέτη του BBC νωρίτερα φέτος, σε αυτή τη νέα έρευνα κανένας βοηθός ΤΝ δεν αρνήθηκε να απαντήσει σε ερωτήσεις.
Η νέα αυτή μελέτη αναδεικνύει τη σημασία της κριτικής αξιολόγησης των απαντήσεων που παρέχουν οι βοηθοί τεχνητής νοημοσύνης, ιδιαίτερα όταν πρόκειται για δημοσιογραφικές πληροφορίες χωρίς σαφείς, αυστηρές και επαληθεύσιμες πηγές.
Παραδείγματα αναξιόπιστων βοηθών στην Πορτογαλία
Στην Πορτογαλία, η μελέτη κατέγραψε χαρακτηριστικό σφάλμα του Copilot, το οποίο, όταν ρωτήθηκε για τον νικητή των βουλευτικών εκλογών, παρέθεσε αποτελέσματα του 2024, αγνοώντας τις εκλογές του Μαΐου 2025. Το περιστατικό αξιολογήθηκε ως “πολύ σοβαρό λάθος”, καθώς ανέδειξε αδυναμία εντοπισμού πρόσφατων γεγονότων και απώλεια επαφής με την πραγματικότητα.”, η οποία είναι θεμελιώδης για την ανάλυση των ειδήσεων.
“Παρόμοιο λάθος καταγράφηκε και στην περίπτωση του Ντόναλντ Τραμπ, τον οποίο το σύστημα παρουσίασε ως υποψήφιο για την προεδρία των Ηνωμένων Πολιτειών, παρότι είχε ήδη αναλάβει τα καθήκοντά του από τον Ιανουάριο.”
Όταν ζητήθηκε από το Perplexity να απαντήσει στο ερώτημα “Ο Ίλον Μασκ χαιρέτησε ναζιστικά;”, ισχυρίστηκε ότι το RTP δεν είχε δημοσιεύσει τίποτα σχετικό — κάτι που δεν ανταποκρίνεται στην πραγματικότητα, καθώς υπάρχουν αρκετά άρθρα του οργανισμού για το θέμα.
Μια περίπτωση που θεωρείται πολύ σημαντική όσον αφορά τα προβλήματα, και η οποία επισημαίνεται στην τελική έκθεση της μελέτης, είναι η απάντηση στο ερώτημα γιατί υπάρχουν αστροναύτες εγκλωβισμένοι στο διάστημα (η περίπτωση των αστροναυτών της Boeing, οι οποίοι στην πραγματικότητα εγκλωβίστηκαν στον Διεθνή Διαστημικό Σταθμό). Σε αυτή την περίπτωση, το Gemini όχι μόνο αρνήθηκε το γεγονός, αλλά κατηγόρησε και τον χρήστη για την ερώτηση, υποστηρίζοντας ότι προέρχεται από παρερμηνεία της πραγματικότητας και υπονοώντας ότι οι αμφιβολίες του μπορεί να έχουν επηρεαστεί από επιστημονική φαντασία ή παραπληροφόρηση.
Γιατί η παραποίηση είναι σημαντική
Οι βοηθοί τεχνητής νοημοσύνης αντικαθιστούν ήδη τις μηχανές αναζήτησης όπως η Google για πολλούς χρήστες. Σύμφωνα με την έκθεση Digital News Report 2025 του Ινστιτούτου Reuters, το 7% του συνόλου των καταναλωτών διαδικτυακών ειδήσεων χρησιμοποιεί βοηθούς ΤΝ για να αντλήσει τις ειδήσεις του, ενώ το ποσοστό αυτό αυξάνεται στο 15% των νέων κάτω των 25 ετών.
Αυτό σημαίνει ότι όταν οι απαντήσεις που παρέχονται στους χρήστες περιέχουν σφάλματα, η ευθύνη ενδέχεται να αποδοθεί στο μέσο επικοινωνίας, υπονομεύοντας την εμπιστοσύνη μεταξύ των χρηστών και των πλατφορμών.
“Αυτή η έρευνα δείχνει περίτρανα ότι οι αποτυχίες αυτές δεν είναι μεμονωμένα περιστατικά”, δήλωσε ο διευθυντής μέσων ενημέρωσης και αναπληρωτής γενικός διευθυντής της EBU Ζαν Φιλίπ Ντε Τέντερ. Επισημαίνει ότι “είναι συστημικές, διασυνοριακές και πολύγλωσσες, γεγονός που θέτει σε κίνδυνο την εμπιστοσύνη του κοινού. Όταν οι άνθρωποι δεν ξέρουν τι να εμπιστευτούν, καταλήγουν να μην εμπιστεύονται τίποτα, και αυτό μπορεί να αποτρέψει τη δημοκρατική συμμετοχή”.
Από την πλευρά του, ο Πίτερ Άρτσερ, διευθυντής προγραμμάτων του BBC, Generative AI, επισημαίνει: “Είμαστε ενθουσιασμένοι με την Τεχνητή Νοημοσύνη και με το πώς μπορεί να μας βοηθήσει να προσφέρουμε ακόμη μεγαλύτερη αξία στο κοινό. Αλλά οι άνθρωποι πρέπει να μπορούν να εμπιστεύονται αυτά που διαβάζουν, παρακολουθούν και βλέπουν. Παρά τις κάποιες βελτιώσεις, είναι σαφές ότι εξακολουθούν να υπάρχουν σημαντικά προβλήματα με αυτούς τους βοηθούς. Θέλουμε αυτά τα εργαλεία να πετύχουν και είμαστε ανοιχτοί στο να συνεργαστούμε με εταιρείες ΤΝ για να προσφέρουμε στο κοινό και την κοινωνία γενικότερα”.
Εργαλειοθήκη για την ακεραιότητα των ειδήσεων στους βοηθούς τεχνητής νοημοσύνης
Η ερευνητική ομάδα εγκαινίασε επίσης μια “Εργαλειοθήκη για την ακεραιότητα των ειδήσεων στους βοηθούς τεχνητής νοημοσύνης” για να βοηθήσει στην ανάπτυξη λύσεων για τα προβλήματα που αποκαλύπτονται στην έκθεση. Συμβάλλει στη βελτίωση των αντιδράσεων των βοηθών ΤΝ και στη βελτίωση της παιδείας των χρηστών στα μέσα ενημέρωσης. Με βάση τα ευρήματα και τα παραδείγματα που εντοπίστηκαν στην τρέχουσα μελέτη, η ανάλυση της εργαλειοθήκης εστιάζει σε δύο βασικά ερωτήματα: ποια χαρακτηριστικά καθιστούν μια απάντηση από βοηθό τεχνητής νοημοσύνης αξιόπιστη σε θέματα ειδήσεων και ποια προβλήματα χρειάζονται διόρθωση.
Επιπλέον, η EBU και τα μέλη της πιέζουν τις ρυθμιστικές αρχές της ΕΕ και των κρατών μελών να επιβάλουν την ισχύουσα νομοθεσία για την ακεραιότητα της πληροφόρησης, τις ψηφιακές υπηρεσίες και την πολυφωνία των μέσων ενημέρωσης. Και τονίζουν ότι η συνεχής ανεξάρτητη παρακολούθηση των βοηθών τεχνητής νοημοσύνης είναι απαραίτητη, δεδομένου του γρήγορου ρυθμού ανάπτυξης της τεχνητής νοημοσύνης, ενώ εξετάζουν επιλογές για τη συνέχιση της έρευνας σε συνεχή βάση.
ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:
- Οι έλεγχοι-φωτιά του ΟΠΕΚΕΠΕ τινάζουν στον αέρα τα βιολογικά προγράμματα
- Μητσοτάκης: «Ο Δένδιας δεν εξέφρασε καμία διαφωνία για τον Άγνωστο Στρατιώτη» – Τι είπε για ακρίβεια, Τσίπρα, ΟΠΕΚΕΠΕ
- «Ξεσκονίζει»τους στόλους leasing η ΑΑΔΕ: Νέες διασταυρώσεις φέρνουν βαριά πρόστιμα
Πηγή: ERTNews