Προσοχή στο ChatGPT: Γιατί δεν πρέπει ποτέ να του λες τα μυστικά σου

Προσοχή στο ChatGPT: Γιατί δεν πρέπει ποτέ να του λες τα μυστικά σου
A laptop screen is seen with the OpenAI ChatGPT website active in this photo illustration on 02 August, 2023 in Warsaw, Poland. (Photo by Jaap Arriens/NurPhoto) (Photo by Jaap Arriens / NurPhoto / NurPhoto via AFP) Photo: AFP
Ο καθηγητής της Οξφόρδης Μάικ Γούλντριτζ προειδοποιεί ότι η τεχνητή νοημοσύνη όπως το ChatGPT μπορεί να αποθηκεύσει τα προσωπικά μας δεδομένα για πάντα – και να τα χρησιμοποιήσει, χωρίς να έχει ούτε ίχνος ενσυναίσθησης.

Το 2025 βασιζόμαστε ήδη στην τεχνητή νοημοσύνη περισσότερο από ποτέ. Και ενώ τα οφέλη από εφαρμογές όπως το ChatGPT και άλλες πλατφόρμες της OpenAI είναι αναμφισβήτητα, παραμένουν έντονοι οι φόβοι για το κατά πόσο αυτά τα chatbots μπορεί κάποια στιγμή να θέσουν σε κίνδυνο ακόμη και την ίδια την ανθρωπότητα.

Περισσότερο από την «απλή» αντικατάσταση ανθρώπινων θέσεων εργασίας, οι πιο σοβαρές ανησυχίες αφορούν το ενδεχόμενο η τεχνητή νοημοσύνη να μας εξαφανίσει από προσώπου γης μέσα σε μόλις δύο χρόνια. Οι αποκαλούμενοι «νοννοί της AI» έχουν ήδη προειδοποιήσει για κακόβουλη χρήση της τεχνολογίας στις επερχόμενες αμερικανικές εκλογές, ενώ έχουν επισημάνει ανησυχητικές συμπεριφορές όπως τάσεις αυτοσυντήρησης και εξαπάτησης.

Παρόλα αυτά, η χρήση της τεχνητής νοημοσύνης αυξάνεται ραγδαία, με πολλούς να στρέφονται σε αυτή όχι μόνο για πρακτική βοήθεια, αλλά ακόμα και για συναισθηματική στήριξη ή ερωτική συντροφιά. Ωστόσο, ένας ειδικός της Οξφόρδης προειδοποιεί να μην της εμπιστευόμαστε τα πιο σκοτεινά μας μυστικά.

Μιλώντας στη Mail Online, ο καθηγητής Πληροφορικής του Πανεπιστημίου της Οξφόρδης, Μάικ Γούλντριτζ, χαρακτήρισε «πολύ επικίνδυνο» το να εμπιστεύεται κανείς την AI.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Ο Sam Altman της OpenAI προώθησε πρόσφατα μια «δολοφονική» λειτουργία του ChatGPT που του επιτρέπει να θυμάται προηγούμενες συνομιλίες, όμως δεν ενθουσιάστηκαν όλοι με αυτή την εξέλιξη. Έπειτα από ρεπορτάζ στο οποίο η AI παραδέχτηκε ότι θα μπορούσε να μας εκβιάσει αν δεχτεί απειλή, τίθεται σοβαρό ζήτημα ασφάλειας.

Όπως εξήγησε ο Γούλντριτζ, το ChatGPT «λέει αυτό που θέλεις να ακούσεις» και τίποτε παραπάνω. «Δεν έχει ενσυναίσθηση. Δεν έχει συναίσθημα. Δεν έχει βιώσει τίποτα. Αυτό που κάνει η τεχνολογία είναι να προσπαθεί να σε ευχαριστήσει – αυτός είναι ο μοναδικός της στόχος».

Οι άνθρωποι είναι εκπαιδευμένοι να αναζητούν συνείδηση ακόμη και εκεί που δεν υπάρχει, σημειώνει ο καθηγητής, κάτι που ενισχύει την ψευδαίσθηση «ανθρωπιάς» της AI.

Ο ίδιος προειδοποίησε: «Πρέπει να υποθέτετε ότι ό,τι πληκτρολογείτε στο ChatGPT θα χρησιμοποιηθεί για να εκπαιδευτεί η επόμενη έκδοσή του». Σύμφωνα με τον Γούλντριτζ, είναι σχεδόν αδύνατο να διαγράψει κανείς οριστικά τα δεδομένα του από το μοντέλο, γεγονός που καθιστά εξαιρετικά επισφαλές το να μοιράζεσαι προσωπικά παράπονα, πολιτικές απόψεις ή εμπιστευτικές πληροφορίες.

Η OpenAI αντιμετώπισε πρόβλημα νωρίτερα μέσα στο 2025, όταν ένα bug επέτρεψε σε χρήστες να δουν τμήματα ιστορικού συνομιλιών άλλων χρηστών. Παρότι η εταιρεία διαβεβαιώνει ότι τα ιστορικά συνομιλιών διατηρούνται μόνο για 30 ημέρες και δεν χρησιμοποιούνται για εκπαίδευση του μοντέλου, οι ανησυχίες παραμένουν.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: