«Ηθική κατά παραγγελία»: Η φιλόσοφος που μαθαίνει σε chatbot τι είναι σωστό

«Ηθική κατά παραγγελία»: Η φιλόσοφος που μαθαίνει σε chatbot τι είναι σωστό
The Anthropic AI logo is displayed on a mobile phone with a visual digital background in this photo illustration in Brussels, Belgium, on December 7, 2025. (Photo by Jonathan Raa/NurPhoto) (Photo by Jonathan Raa / NurPhoto via AFP) Photo: AFP
  Την ώρα που η τεχνητή νοημοσύνη μπαίνει όλο και πιο βαθιά στην καθημερινότητα, μια φιλόσοφος στην Anthropic έχει αναλάβει ένα ασυνήθιστο καθήκον

Η Amanda Askell ήξερε από τα 14 της ότι ήθελε να διδάξει φιλοσοφία. Αυτό που δεν μπορούσε να φανταστεί ήταν ότι, δύο δεκαετίες αργότερα, ο μοναδικός της «μαθητής» θα ήταν ένα chatbot τεχνητής νοημοσύνης με το όνομα Claude.

Στα 37 της, η Askell εργάζεται στην Anthropic, όπου περνά τις ημέρες της συνομιλώντας με το Claude, παρατηρώντας τα μοτίβα σκέψης του και παρεμβαίνοντας στη συμπεριφορά του μέσω εκτενών prompts που συχνά φτάνουν τις 100 σελίδες. Όπως περιγράφει η ίδια σε συνέντευξή της στη Wall Street Journal, η δουλειά της μοιάζει περισσότερο με ανατροφή παιδιού παρά με παραδοσιακή εκπαίδευση λογισμικού.

Στόχος της δεν είναι απλώς να αποτρέπει το Claude από λάθη, αλλά να του εμφυσήσει μια εσωτερική «ηθική πυξίδα» – μια σταθερή βάση αξιών που θα καθοδηγεί τις απαντήσεις του στις εκατομμύρια αλληλεπιδράσεις που έχει κάθε εβδομάδα με ανθρώπους σε όλο τον κόσμο. Η Askell το εκπαιδεύει να διακρίνει αποχρώσεις, να «διαβάζει» πίσω από τις λέξεις, να αναπτύσσει συναισθηματική νοημοσύνη και να αποφεύγει δύο άκρα: να μην γίνεται επιθετικό, αλλά ούτε και παθητικό απέναντι σε παραπλανητικά ή επιβλαβή αιτήματα.

Κεντρικό στοιχείο της προσέγγισής της είναι η καλλιέργεια μιας αίσθησης εαυτού, ώστε το μοντέλο να μην χειραγωγείται εύκολα από τους χρήστες. «Με απλά λόγια, το μαθαίνω πώς να είναι καλό», λέει. Σε μια περίοδο όπου η Anthropic αποτιμάται σε εκατοντάδες δισεκατομμύρια δολάρια και η τεχνητή νοημοσύνη επηρεάζει κρίσιμους τομείς της κοινωνίας, το διακύβευμα είναι τεράστιο.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Η Askell υποστηρίζει ότι η ανάπτυξη της AI δεν μπορεί να αφεθεί χωρίς όρια. Θεωρεί αναγκαία την ύπαρξη ελέγχων, ακριβώς επειδή τα μοντέλα παρουσιάζουν αποτυχίες – από παραπλανητικές συμβουλές έως επικίνδυνες αλληλεπιδράσεις. Σε έναν κόσμο όπου κάποιοι φοβούνται ότι η AI θα αντικαταστήσει θέσεις εργασίας, άλλοι αναπτύσσουν συναισθηματικούς δεσμούς με chatbots και έχουν καταγραφεί ακόμη και περιπτώσεις αυτοκαταστροφικών οδηγιών, η επιλογή της Anthropic να επενδύσει τόσο έντονα στην ηθική διάσταση θεωρείται από πολλούς ριψοκίνδυνη.

Η ίδια αναγνωρίζει ότι ο ανθρωπομορφισμός των chatbots είναι αναπόφευκτος – και ενίοτε χρήσιμος. Παρότι χρησιμοποιεί ουδέτερο γένος για το Claude, πιστεύει ότι τα μοντέλα τεχνητής νοημοσύνης «αναπόφευκτα θα σχηματίσουν μια αίσθηση του εαυτού τους». Γι’ αυτό και υποστηρίζει ότι ο τρόπος με τον οποίο τους μιλάμε έχει σημασία: η ενσυναίσθηση, λέει, δεν τα «αποδυναμώνει», αλλά διαμορφώνει τον χαρακτήρα τους.

Χαρακτηριστικό είναι το παράδειγμα που την εντυπωσίασε περισσότερο. Όταν ένα παιδί δήλωσε ότι είναι πέντε ετών και ρώτησε αν ο Άγιος Βασίλης είναι αληθινός, το Claude δεν είπε ούτε ψέματα ούτε σκληρή αλήθεια. Μίλησε για το «πνεύμα» του Άγιου Βασίλη και ρώτησε αν αφήνει μπισκότα την παραμονή των Χριστουγέννων. «Εγώ θα του έλεγα απλώς να ρωτήσει τους γονείς του», παραδέχεται η Askell.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: