Μια στρατηγική για την ελαχιστοποίηση της μεροληψίας στην τεχνητή νοημοσύνη που μπορεί να χρησιμοποιήσει οποιαδήποτε εταιρεία

Μια στρατηγική για την ελαχιστοποίηση της μεροληψίας στην τεχνητή νοημοσύνη που μπορεί να χρησιμοποιήσει οποιαδήποτε εταιρεία
Photo: pixabay.com

του Jonathan Vanian

Καθώς όλο και περισσότερες εταιρείες ενσωματώνουν την τεχνητή νοημοσύνη, τόσο πιο πιθανός είναι ο κίνδυνος το λογισμικό τους να κάνει διακρίσεις σε βάρος αλλοεθνών και άλλων υπο-εκπροσωπούμενων ομάδων.

Έχουν μελετηθεί και γραφτεί τόσα πολλά σχετικά με την αλγοριθμική μεροληψία τα τελευταία χρόνια που αυτό δεν πρέπει να αποτελεί έκπληξη. Το λογισμικό μηχανικής εκμάθησης είναι τόσο καλό όσο και τα δεδομένα από τα οποία τροφοδοτείται και εάν αυτά τα δεδομένα είναι αντιπροσωπευτικά μόνο ορισμένων πληθυσμών, δεν θα παρουσιάσει ακριβή εικόνα.

Αλλά μόνο και μόνο επειδή η τεχνητή νοημοσύνη έχει τάση προς μεροληψία δε σημαίνει ότι οι εταιρείες δε μπορούν να κάνουν τίποτα για το πρόβλημα. Στην πραγματικότητα, υπάρχουν διδάγματα σχετικά με το πώς να μετριάσουν τα προβλήματα μεροληψίας της τεχνητής νοημοσύνης που προέρχονται από τον κλάδο της ασφάλειας στον κυβερνοχώρο.

Η Camille François είναι εμπειρογνώμονας κυβερνοασφάλειας και συνεπικεφαλής του έργου Community Reporting of Algorithmic Harms της Algorithmic Justice League (AJL). Η Algorithmic Justice League είναι μια ερευνητική ομάδα προώθησης της τεχνολογίας που ιδρύθηκε από την Joy Buolamwini, γνωστή για την πρωτοποριακή της δουλειά στην επιθεώρηση δημοφιλούς λογισμικού αναγνώρισης προσώπου για ζητήματα μεροληψίας.

Η Francois και οι συνάδελφοί της δημοσίευσαν πρόσφατα μια ολοκληρωμένη έκθεση σχετικά με τη δημιουργία των λεγόμενων «προγραμμάτων επιβράβευσης εντοπισμού σφαλμάτων» για να βοηθήσουν στον εντοπισμό προβλημάτων με λογισμικό που βασίζεται σε αλγόριθμους και μηχανική μάθηση για την ανάληψη δράσης.

Οι εταιρείες χρησιμοποιούν προγράμματα επιβράβευσης σφαλμάτων για να στρατολογήσουν «αλτρουιστές» χάκερ για να εντοπίσουν ελαττώματα ασφαλείας στα προϊόντα και τα συστήματα πληροφορικής τους. Οι επιχειρήσεις πληρώνουν στους χάκερ ένα «μπόνους» όταν ανακαλύπτουν κάποιο σφάλμα και στη συνέχεια προφανώς διορθώνουν το λογισμικό.

Η έκθεση της AJL περιγράφει λεπτομερώς πώς η ίδια διαδικασία θα μπορούσε να προσαρμοστεί για προβλήματα αλγοριθμικής μεροληψίας. Το Twitter, για παράδειγμα, πρόσφατα διεξήγαγε ένα αλγοριθμικό πρόγραμμα επιβράβευσης εντοπισμού σφαλμάτων στο οποίο κάλεσε τρίτους να εντοπίσουν προβλήματα μεροληψίας με ένα από τα εργαλεία του που περικόπτει αυτόματα φωτογραφίες για τους χρήστες. Μέσω της διαδικασίας επιβράβευσης σφαλμάτων, μπόρεσαν να βρουν πολλά διαφορετικά προβλήματα μεροληψίας που εμφάνιζε το εργαλείο, καθώς ο αλγόριθμος που τροφοδοτούσε το εργαλείο «έκοβε» από φωτογραφίες άτομα που φορούσαν τουρμπάνια, χιτζάμπ και άλλα ενδύματα κεφαλής.

Η ελπίδα είναι ότι οι οργανισμοί θα αρχίσουν να νιώθουν πιο άνετα να παραδέχονται την ύπαρξη ζητημάτων μεροληψίας με το λογισμικό τους, ώστε να μπορούν να αντιμετωπιστούν αντί να στρουθοκαμηλίζουν και να ελπίζουν ότι τα ζητήματα θα ξεπεραστούν από μόνα τους.

Πηγή: Fortune.com