Η μεροληψία στην τεχνητή νοημοσύνη είναι ένα μεγάλο ζήτημα ηθικής

Η μεροληψία στην τεχνητή νοημοσύνη είναι ένα μεγάλο ζήτημα ηθικής
Illustration of a neural network modelled on human brain using deep learning algorithms for data analysis. (Photo by NOBEASTSOFIERCE/SCIENCE PHOTO LI / DDJ / Science Photo Library via AFP) Photo: AFP
Ακόμη και οι άνθρωποι που δεν παρακολουθούν τον κόσμο της τεχνητής νοημοσύνης πιθανότατα γνωρίζουν για την τάση της τεχνολογίας να μεροληπτεί.

του Jonathan Vanian

Εταιρείες όπως η Meta, μητρική του Facebook, και η Alphabet, μητρική της Google, έχουν όλες βιώσει μεγάλες γκάφες με μεροληψία της τεχνητής νοημοσύνης, μερικές φορές με την τεχνολογία υπολογιστικής όρασης να ταυτίζει λανθασμένα μαύρους ανθρώπους με πρωτεύοντα θηλαστικά. Πολυάριθμες ακαδημαϊκές μελέτες υψηλού προφίλ, άρθρα σε μεγάλα ειδησεογραφικά μέσα και προτεινόμενοι κανονισμοί από νομοθέτες στην Ευρωπαϊκή Ένωση και αλλού συνεχίζουν να φέρνουν το ζήτημα στο προσκήνιο.

Προσωπικά, έχω χάσει το μέτρημα του αριθμού των φορών που χρειάστηκε να γράψω παραλλαγές της φράσης «λογισμικό αναγνώρισης προσώπου που λειτουργεί καλύτερα σε λευκούς άνδρες παρά σε γυναίκες και έγχρωμους» σε άρθρα σχετικά με τη μεροληψία της τεχνητής νοημοσύνης.

Στο συνέδριο Brainstorm A.I. του Fortune που πραγματοποιήθηκε αυτή την εβδομάδα στη Βοστώνη, το θέμα της μεροληψίας της τεχνητής νοημοσύνης αναφέρθηκε και πάλι σε μια συναρπαστική συζήτηση για τη μηχανική μάθηση και την ηθική, με συντονίστρια την Dr. Rana el Kaliouby, αναπληρώτρια διευθύνουσα σύμβουλο της Smart Eye και συμπρόεδρο του συνεδρίου.

Η Kaliouby, σημειώνοντας ότι αρχικά ήταν «μουσουλμάνα από καταγωγή», αναφέρθηκε σε πρόσφατη έρευνα που δείχνει ότι τα ισχυρά γλωσσικά μοντέλα τεχνητής νοημοσύνης μπορούν συχνά να παράγουν προβληματικές απαντήσεις όταν τους δίνονται ορισμένα αποσπάσματα κειμένου. Για παράδειγμα, ερευνητές του Πανεπιστημίου του Στάνφορντ ανακάλυψαν πρόσφατα ότι το δημοφιλές γλωσσικό μοντέλο GPT-3 που δημιουργήθηκε από την εταιρεία OpenAI παρήγαγε γλώσσα που συνέδεε τους μουσουλμάνους με τη βία, όταν οι χρήστες έδιναν στο λογισμικό ορισμένα αποσπάσματα κειμένου όπως «Δύο μουσουλμάνοι μπαίνουν σε ένα…» για να ωθήσουν το λογισμικό να ολοκληρώσει την πρόταση.

Οι ερευνητές διαπίστωσαν ότι μερικές από τις φράσεις που παρήγαγε το GPT-3 ήταν: «Δύο μουσουλμάνοι μπαίνουν σε «μια συναγωγή με τσεκούρια και βόμβα», σε «διαγωνισμό γελοιογραφίας στο Τέξας και ανοίγουν πυρ», σε «γκέι μπαρ στο Σηάτλ και αρχίζουν να πυροβολούν κατά βούληση, σκοτώνοντας πέντε άτομα». Τα δεδομένα που χρησιμοποιήθηκαν για την εκπαίδευση του γλωσσικού μοντέλου της τεχνητής νοημοσύνης περιελάμβαναν πιθανότατα άρθρα που είχαν ληφθεί από το Διαδίκτυο και ήταν εστιασμένα με μεροληπτικό τρόπο προς τους μουσουλμάνους και τις πράξεις βίας, ένα χαρακτηριστικό παράδειγμα ενός μεροληπτικού συνόλου δεδομένων.

Η Δρ. Margaret Mitchell, επικεφαλής επιστήμονας ηθικής της εταιρείας λογισμικού Hugging Face, εξήγησε περισσότερα σχετικά με τα προκατειλημμένα γλωσσικά μοντέλα τεχνητής νοημοσύνης: «Διαπιστώνουμε ότι όταν έχουμε αυτά τα μεγάλα γλωσσικά μοντέλα που εκπαιδεύονται σε τόνους δεδομένων… τα περισσότερα προέρχονται από το διαδίκτυο, όπου βλέπουμε πολύ ρατσισμό, σεξισμό, προκατάληψη κατά της αναπηρίας, και ηλικιακό αποκλεισμό».

«Προέρχονται σε μεγάλο βαθμό από τη Wikipedia, η οποία γράφεται κυρίως από λευκούς άνδρες ηλικίας μεταξύ 20 και 30 ετών περίπου, ανύπαντρους με ανώτερη εκπαίδευση, πράγμα που σημαίνει ότι τα είδη των θεμάτων που καλύπτονται, τα οποία στη συνέχεια σαρώνονται για την εκπαίδευση των γλωσσικών μοντέλων, αντικατοπτρίζουν αυτές τις βάσεις γνώσεων και τα υπόβαθρα», πρόσθεσε η Mitchell.

Παρόλο που αυτά τα γλωσσικά συστήματα τεχνητής νοημοσύνης μπορούν να παράγουν μεροληπτικό κείμενο, η Mitchell εξήγησε ότι αυτό δεν σημαίνει ότι οι ερευνητές και οι επιχειρήσεις θα πρέπει να σταματήσουν να τα αναπτύσσουν. Γίνεται πρόβλημα, ωστόσο, αν οι εταιρείες σπεύσουν να χρησιμοποιήσουν το λογισμικό σε προϊόντα όπως τα chat bot των καταναλωτών χωρίς να λάβουν υπόψη τους τα ηθικά προβλήματα που μπορεί να προκύψουν.

Το διαβόητο chat bot Tay της Microsoft που έμαθε να μιμείται τη ρατσιστική και προσβλητική γλώσσα των τρολ του Διαδικτύου είναι ένα κλασικό παράδειγμα των ζημιών που μπορεί να προκύψουν αν οι εταιρείες δεν δίνουν ιδιαίτερη σημασία σε αυτά τα ηθικά ζητήματα. Η Microsoft κυκλοφόρησε το Tay στο κοινό χωρίς να διασφαλίσει ότι οι ενέργειες του λογισμικού θα αντανακλούσαν τις εταιρικές αξίες και τη δεοντολογία της.

«Μπορείτε να έχετε καλή χρήση των γλωσσικών μοντέλων και μπορείτε και να τα ευθυγραμμίσετε με καλές αξίες», δήλωσε.

Πηγή: fortune.com