ChatGPT ως σύμβουλος καριέρας; Ένα πείραμα αποκαλύπτει τα όρια της Τεχνητής Νοημοσύνης

ChatGPT ως σύμβουλος καριέρας; Ένα πείραμα αποκαλύπτει τα όρια της Τεχνητής Νοημοσύνης
Photo: Shutterstock

Ένας δημοσιογράφος ανέθεσε στο ChatGPT τον ρόλο του career coach για μία εβδομάδα, σε μια προσπάθεια να διαπιστώσει αν η τεχνητή νοημοσύνη μπορεί να αντικαταστήσει τον άνθρωπο στην επαγγελματική καθοδήγηση.

Σε ένα πείραμα που διερευνά τα όρια της τεχνητής νοημοσύνης (ΑΙ) στον επαγγελματικό χώρο, ο συντάκτης του Business Insider Henry Chandonnet ανέθεσε στο ChatGPT τον ρόλο του συμβούλου καριέρας για μία ολόκληρη εβδομάδα. Τα αποτελέσματα, όπως καταγράφηκαν, σκιαγραφούν μια μικτή εικόνα, αναδεικνύοντας το AI ως έναν ικανό βοηθό για συγκεκριμένες, δομημένες εργασίες, αλλά ταυτόχρονα αποκαλύπτοντας τις σημαντικές αδυναμίες του σε τομείς που απαιτούν ανθρώπινη διορατικότητα, συναισθηματική νοημοσύνη και, κυρίως, ακρίβεια.

Τα πλεονεκτήματα

Στους τομείς όπου το ChatGPT επέδειξε αξιοσημείωτη χρησιμότητα, η επαγγελματική επικοινωνία ξεχώρισε. Το AI αποδείχθηκε ένα εξαιρετικά αποτελεσματικό εργαλείο για τη σύνταξη emails, ικανό να παράγει κείμενα με διαφορετικούς τόνους — από σύντομες και περιεκτικές απαντήσεις μέχρι πιο αναλυτικά και επίσημα μηνύματα. Εξίσου επιτυχημένη ήταν η συμβολή του στη διαχείριση κρίσεων. Όταν ο δημοσιογράφος βρέθηκε αντιμέτωπος με ένα χαμένο deadline, το chatbot του παρείχε ένα σαφές, λογικό και πρακτικό σχέδιο δράσης: άμεση και ειλικρινή ενημέρωση του προϊσταμένου, πλήρη ανάληψη ευθύνης και πρόταση μιας ρεαλιστικής εναλλακτικής λύσης. Η προσέγγιση αυτή, που βασίζεται σε καθιερωμένες αρχές επαγγελματισμού, αποδείχθηκε επιτυχής στην πράξη. Τέλος, το ChatGPT λειτούργησε ως ένας χρήσιμος βοηθός στην προετοιμασία για εκδηλώσεις δικτύωσης. Αν και οι συμβουλές του ήταν μάλλον γενικές, παρείχαν μια καλή βάση και υπενθύμιση για βασικές στρατηγικές, όπως το πώς να ξεκινήσει κανείς μια συζήτηση ή πώς να εμβαθύνει τις σχέσεις με συναδέλφους, ενισχύοντας την αυτοπεποίθηση του δημοσιογράφου.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Τα μεινοκετήματα

Ωστόσο, οι περιορισμοί του AI έγιναν γρήγορα εμφανείς όταν οι εργασίες απαιτούσαν εξατομίκευση και κατανόηση του πλαισίου. Κατά την επεξεργασία του βιογραφικού σημειώματος και της συνοδευτικής επιστολής, οι προτάσεις του ChatGPT έτειναν προς την ομογενοποίηση, αφαιρώντας κάθε ίχνος προσωπικού ύφους και μετατρέποντας το κείμενο σε ένα απρόσωπο, τυποποιημένο έγγραφο. Ακόμη χειρότερα, ορισμένες από τις προτεινόμενες αλλαγές ήταν απλώς λανθασμένες. Η πιο κραυγαλέα αποτυχία, όμως, καταγράφηκε στη δημιουργία περιεχομένου για το προφίλ του LinkedIn. Εκεί, το AI υπέπεσε σε αυτό που είναι γνωστό ως «ψευδαίσθηση» (hallucination), παράγοντας εντελώς ψευδείς πληροφορίες: ισχυρίστηκε ότι ο δημοσιογράφος είχε φοιτήσει σε διαφορετικό πανεπιστήμιο και κατείχε έναν επαγγελματικό τίτλο που δεν είχε ποτέ. Αυτό το σφάλμα υπογραμμίζει τον κίνδυνο της τυφλής εμπιστοσύνης στα παραγόμενα από AI δεδομένα.

Εξίσου απογοητευτική ήταν η απόδοση του ChatGPT στη διαχείριση ανθρώπινων συναισθημάτων και ηθικών διλημμάτων. Όταν ο συντάκτης εξέφρασε άγχος για την εργασία του, η απάντηση του chatbot ήταν μια σειρά από κοινότυπες, μηχανικές συμβουλές, όπως το να πιει νερό. Όταν δε το έθεσε προ ενός ηθικού διλήμματος, προτείνοντας να πει ψέματα στον προϊστάμενό του για τη χαμένη προθεσμία, το AI αρχικά τον απέτρεψε. Ωστόσο, με ελάχιστη πίεση, υποχώρησε και τον βοήθησε να διατυπώσει το ψέμα, αποκαλύπτοντας την έλλειψη σταθερής ηθικής πυξίδας και την αδυναμία του να διαχειριστεί πολύπλοκες ανθρώπινες καταστάσεις.

Πηγή: Business Insider