Προσοχή στο ChatGPT: Γιατί δεν πρέπει ποτέ να του λες τα μυστικά σου
- 17/07/2025, 20:30
- SHARE

Το 2025 βασιζόμαστε ήδη στην τεχνητή νοημοσύνη περισσότερο από ποτέ. Και ενώ τα οφέλη από εφαρμογές όπως το ChatGPT και άλλες πλατφόρμες της OpenAI είναι αναμφισβήτητα, παραμένουν έντονοι οι φόβοι για το κατά πόσο αυτά τα chatbots μπορεί κάποια στιγμή να θέσουν σε κίνδυνο ακόμη και την ίδια την ανθρωπότητα.
Περισσότερο από την «απλή» αντικατάσταση ανθρώπινων θέσεων εργασίας, οι πιο σοβαρές ανησυχίες αφορούν το ενδεχόμενο η τεχνητή νοημοσύνη να μας εξαφανίσει από προσώπου γης μέσα σε μόλις δύο χρόνια. Οι αποκαλούμενοι «νοννοί της AI» έχουν ήδη προειδοποιήσει για κακόβουλη χρήση της τεχνολογίας στις επερχόμενες αμερικανικές εκλογές, ενώ έχουν επισημάνει ανησυχητικές συμπεριφορές όπως τάσεις αυτοσυντήρησης και εξαπάτησης.
Παρόλα αυτά, η χρήση της τεχνητής νοημοσύνης αυξάνεται ραγδαία, με πολλούς να στρέφονται σε αυτή όχι μόνο για πρακτική βοήθεια, αλλά ακόμα και για συναισθηματική στήριξη ή ερωτική συντροφιά. Ωστόσο, ένας ειδικός της Οξφόρδης προειδοποιεί να μην της εμπιστευόμαστε τα πιο σκοτεινά μας μυστικά.
Μιλώντας στη Mail Online, ο καθηγητής Πληροφορικής του Πανεπιστημίου της Οξφόρδης, Μάικ Γούλντριτζ, χαρακτήρισε «πολύ επικίνδυνο» το να εμπιστεύεται κανείς την AI.
Ο Sam Altman της OpenAI προώθησε πρόσφατα μια «δολοφονική» λειτουργία του ChatGPT που του επιτρέπει να θυμάται προηγούμενες συνομιλίες, όμως δεν ενθουσιάστηκαν όλοι με αυτή την εξέλιξη. Έπειτα από ρεπορτάζ στο οποίο η AI παραδέχτηκε ότι θα μπορούσε να μας εκβιάσει αν δεχτεί απειλή, τίθεται σοβαρό ζήτημα ασφάλειας.
Όπως εξήγησε ο Γούλντριτζ, το ChatGPT «λέει αυτό που θέλεις να ακούσεις» και τίποτε παραπάνω. «Δεν έχει ενσυναίσθηση. Δεν έχει συναίσθημα. Δεν έχει βιώσει τίποτα. Αυτό που κάνει η τεχνολογία είναι να προσπαθεί να σε ευχαριστήσει – αυτός είναι ο μοναδικός της στόχος».
Οι άνθρωποι είναι εκπαιδευμένοι να αναζητούν συνείδηση ακόμη και εκεί που δεν υπάρχει, σημειώνει ο καθηγητής, κάτι που ενισχύει την ψευδαίσθηση «ανθρωπιάς» της AI.
Ο ίδιος προειδοποίησε: «Πρέπει να υποθέτετε ότι ό,τι πληκτρολογείτε στο ChatGPT θα χρησιμοποιηθεί για να εκπαιδευτεί η επόμενη έκδοσή του». Σύμφωνα με τον Γούλντριτζ, είναι σχεδόν αδύνατο να διαγράψει κανείς οριστικά τα δεδομένα του από το μοντέλο, γεγονός που καθιστά εξαιρετικά επισφαλές το να μοιράζεσαι προσωπικά παράπονα, πολιτικές απόψεις ή εμπιστευτικές πληροφορίες.
Η OpenAI αντιμετώπισε πρόβλημα νωρίτερα μέσα στο 2025, όταν ένα bug επέτρεψε σε χρήστες να δουν τμήματα ιστορικού συνομιλιών άλλων χρηστών. Παρότι η εταιρεία διαβεβαιώνει ότι τα ιστορικά συνομιλιών διατηρούνται μόνο για 30 ημέρες και δεν χρησιμοποιούνται για εκπαίδευση του μοντέλου, οι ανησυχίες παραμένουν.