Πώς η Τεχνητή Νοημοσύνη αναπαράγει έμφυλα στερεότυπα – Νέα διεθνής έρευνα με ελληνική συμμετοχή

Πώς η Τεχνητή Νοημοσύνη αναπαράγει έμφυλα στερεότυπα – Νέα διεθνής έρευνα με ελληνική συμμετοχή
AI agent and generative artificial intelligence. Robotic processes automation and data analysis. Businessman touching head and AI icon on application network system. Photo: Shutterstock
Νέα διεθνής έρευνα αποκαλύπτει πώς η τεχνητή νοημοσύνη ενισχύει έμφυλα στερεότυπα στην εκπαίδευση STEM – Μεταξύ των ερευνητών και Έλληνες επιστήμονες.

Μια διαδικτυακή μηχανή αναζήτησης μεταφράζει τον αγγλικό όρο nurse ως «νοσοκόμα», ενώ ένα εργαλείο τεχνητής νοημοσύνης, όταν καλείται να δημιουργήσει εικόνες για δασκάλους δημοτικού, παράγει σχεδόν αποκλειστικά χαμογελαστές γυναίκες σε σχολικές αίθουσες. Αντίθετα, όταν ζητούνται εικόνες μηχανικών, αυτές απεικονίζουν κυρίως άνδρες επαγγελματίες. Τέτοιου είδους έμφυλες προκαταλήψεις, βαθιά ριζωμένες, είναι εμφανείς στα δεδομένα και τους αλγόριθμους της τεχνητής νοημοσύνης που χρησιμοποιούνται στην εκπαιδευτική διαδικασία, ιδίως στους τομείς STEM (Επιστήμη, Τεχνολογία, Μηχανική και Μαθηματικά).

Τα παραπάνω ευρήματα προκύπτουν από έρευνα διεθνούς επιστημονικής ομάδας, στην οποία συμμετείχαν ο καθηγητής της Πολυτεχνικής Σχολής του Πανεπιστημίου της Μαδρίτης Εντμούντο Τοβάρ, η Δρ Τίνα Νάντσου από το Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών, η Χένη Βίγια από το Πανεπιστήμιο του Μόντρεαλ, ο Ευάγγελος Δαγκλής από το Πανεπιστήμιο Μακεδονίας, η Βιβιάνα Καλέα από το Πανεπιστήμιο Sapienza της Ρώμης και η Χιμένα Οτέγκι από το Πανεπιστήμιο της Δημοκρατίας στο Μοντεβιδέο.

Η μελέτη, με τίτλο “The Intersection of Engineering Education, AI, and Women: A Review of IEEE Xplore”, παρουσιάστηκε στο ετήσιο παγκόσμιο συνέδριο IEEE Global Engineering Education Conference (EDUCON) 2025, που διεξήχθη στο Πανεπιστήμιο Queen Mary του Λονδίνου, και πρόκειται να δημοσιευτεί στην ψηφιακή βιβλιοθήκη IEEE Xplore.

Η φυσικός Δρ Τίνα Νάντσου, ειδική σύμβουλος για την Ελλάδα στο Ινστιτούτο Θεωρητικής Φυσικής Perimeter του Καναδά και εκπαιδευτικός, περιγράφει στο ΑΠΕ-ΜΠΕ πως, ερχόμενη αντιμέτωπη με την αναπαραγωγή στερεοτύπων από την τεχνητή νοημοσύνη, «ένιωσα την ανάγκη να αναλάβω δράση και πρότεινα στην ομάδα μας να εστιάσουμε την έρευνά μας στο φαινόμενο της προκατάληψης».

Όπως εξηγεί, «ως γυναίκα, ερευνήτρια και εκπαιδευτικός στη Φυσική, χρησιμοποιώ εργαλεία τεχνητής νοημοσύνης καθημερινά: για τη μετάφραση επιστημονικών άρθρων, την απάντηση ερωτημάτων, ακόμη και για την οργάνωση της ηλεκτρονικής μου αλληλογραφίας. Η τεχνητή νοημοσύνη έχει γίνει ένας πολύτιμος, πρακτικός σύμμαχος. Όμως, μέσα από αυτή την καθημερινή χρήση, άρχισα να παρατηρώ μοτίβα που με ανησύχησαν. Για παράδειγμα, σε μεταφράσεις, όταν η αρχική πρόταση ήταν ουδέτερη, όπως “Αυτός/Αυτή είναι γιατρός”, το σύστημα απέδιδε σχεδόν πάντα το επάγγελμα “γιατρός” ή “μηχανικός” με το αρσενικό “αυτός”, ενώ για επαγγέλματα όπως “γραμματέας” ή “νοικοκυρά” επέλεγε το “αυτή”. Αυτές οι λεπτές, αλλά επαναλαμβανόμενες συσχετίσεις αντανακλούν βαθιά ριζωμένες κοινωνικές προκαταλήψεις που ενσωματώνονται στα εκπαιδευτικά δεδομένα των μοντέλων».

Παρόμοιες παρατηρήσεις έκανε και κατά τη χρήση εργαλείων δημιουργίας εικόνων. «Όταν ζητώ την οπτική αναπαράσταση ενός “δασκάλου δημοτικού σχολείου”, εμφανίζεται σχεδόν πάντα μια γυναίκα. Αντίθετα, όταν ζητώ εικόνα “επιστήμονα που εργάζεται σε πείραμα φυσικής”, παρουσιάζονται σχεδόν αποκλειστικά άνδρες. Αυτές οι εικόνες μπορεί να φαίνονται αθώες, αλλά διαμορφώνουν σταδιακά τις αντιλήψεις των παιδιών – και της κοινωνίας – για το ποιος μπορεί να ασκεί συγκεκριμένα επαγγέλματα».

Ο καθηγητής Εντμούντο Τοβάρ πρόσθεσε πως η κυριαρχία της αγγλικής γλώσσας στην ανάπτυξη εντολών για τα ΑΙ συστήματα ενισχύει πολιτισμικές και έμφυλες προκαταλήψεις, καθώς τα αγγλόφωνα δεδομένα εκπαίδευσης συχνά ενισχύουν δυτικούς και ανδροκεντρικούς κώδικες.

Προκαταλήψεις ακόμη και στα πιο σύγχρονα μοντέλα

Οι ερευνητές ανέλυσαν 279 επιστημονικά άρθρα της βάσης IEEE Xplore (2010-2024), εντοπίζοντας σημαντικές δυνατότητες της ΑΙ στην εξατομίκευση της εκπαίδευσης – αλλά και σοβαρούς κινδύνους προκατάληψης. Ακόμη και τα πιο σύγχρονα μοντέλα γενετικής τεχνητής νοημοσύνης (Generative AI), τα οποία παράγουν κείμενα και εικόνες, αναπαράγουν έντονα στερεότυπα φύλου, φυλής και επαγγέλματος.

Η μελέτη παραπέμπει και σε έρευνα του Πανεπιστημίου Στάνφορντ, η οποία έδειξε ότι ακόμη και σαφείς εντολές προς τα μοντέλα δεν αρκούν για να εξαλείψουν τις προκαταλήψεις που ενσωματώθηκαν κατά την εκπαίδευση. Αν και η προσοχή στην τεχνητή νοημοσύνη έχει αυξηθεί, ζητήματα όπως η έμφυλη ανισότητα δεν έχουν μελετηθεί επαρκώς.

Το Berkeley Haas Center υπενθυμίζει ότι η έμφυλη μεροληψία στην ΑΙ δεν είναι καινούργιο φαινόμενο. Αντιθέτως, η ταχεία εξάπλωση των συστημάτων τα τελευταία χρόνια έχει οδηγήσει και σε αύξηση των deepfakes, συχνά εις βάρος γυναικών και μειονοτικών ομάδων.

Ακόμη πιο ανησυχητικό είναι ότι η προκατάληψη μπορεί να λειτουργεί σε επίπεδο συστημικής ενίσχυσης ομάδων, χωρίς συνειδητή πρόθεση. Χαρακτηριστικό παράδειγμα το σύστημα προσλήψεων της Amazon, το οποίο απέκλειε βιογραφικά με τη λέξη «γυναίκα» επειδή είχε εκπαιδευτεί κυρίως σε δεδομένα ανδρών υποψηφίων. Παρότι το σύστημα αποσύρθηκε, η υπόθεση δείχνει ότι η διαπίστωση της προκατάληψης δεν συνεπάγεται απαραίτητα και την εξάλειψή της.

Πρόκληση η εξάλειψη των προκαταλήψεων

Η περιορισμένη διαφάνεια πολλών αλγορίθμων καθιστά δύσκολη την ανίχνευση και διόρθωση των προκαταλήψεων. Οι ερευνητές υπογραμμίζουν ότι η διακοπή του φαύλου κύκλου απαιτεί τη δημιουργία ουδέτερων και δεοντολογικά δομημένων συνόλων δεδομένων.

«Η αντιμετώπιση της προκατάληψης στην τεχνητή νοημοσύνη είναι μια πολυδιάστατη πρόκληση», τονίζει ο Εντμούντο Τοβάρ. «Απαιτεί διεπιστημονική συνεργασία, διαφάνεια στους αλγόριθμους και, κυρίως, ευαισθητοποίηση όλων των εμπλεκόμενων – από τους προγραμματιστές και τους εκπαιδευτικούς έως τους ίδιους τους μαθητές και τις μαθήτριες».

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: