Η Google πλήρωσε μαύρους ανθρώπους 5 δολάρια για να επεξεργαστεί τα πρόσωπά τους

Και πολλοί συμμετέχοντες δεν γνώριζαν καν γι’ αυτό.

του Jeremy Kahn

Για τις εταιρείες που δημιουργούν τεχνητή νοημοσύνη, η συλλογή δεδομένων αποδεικνύεται ότι συγκαταλέγεται στις ηθικά πιο αμφιλεγόμενες πτυχές ολόκληρης της διαδικασίας. Σχεδόν σε εβδομαδιαία βάση εμφανίζεται κάποια είδηση που αφορά σφάλματα μιας εταιρείας σε σχέση με την ηθική και τη δεοντολογία των δεδομένων που χρησιμοποιεί για να εκπαιδεύσει τα συστήματα τεχνητής νοημοσύνης της. Κατά έναν ειρωνικό τρόπο, αυτό ισχύει ακόμα και όταν οι εταιρείες επιδιώκουν να συλλέξουν νέα σύνολα δεδομένων ειδικά για να διορθώσουν τις εγγενείς μεροληψίες των παλαιών.

Η Google αποτελεί μια τέτοια περίπτωση. Η εταιρεία βρέθηκε στο στόχαστρο των επικριτών μετά από δημοσίευμα της The New York Daily News σύμφωνα με το οποίο εργολάβος που εργάζεται για τον τεχνολογικό κολοσσό προσέφερε σε μαύρους ανθρώπους δωροκάρτες αξίας 5 δολαρίων σε αντάλλαγμα για τη συμμετοχή τους σε μια δημογραφική έρευνα και σε ένα «παιχνίδι selfie». Το παιχνίδι συμπεριελάμβανε την εκτέλεση καθηκόντων όπως την παρακολούθηση μιας κουκκίδας στην οθόνη ενός κινητού τηλεφώνου που οι υπάλληλοι του εργολάβου είχαν μαζί τους.

Αυτό που ο εργολάβος δεν κατέστησε σαφές στους συμμετέχοντες ήταν ότι ενώ οι άνθρωποι έπαιζαν, το τηλέφωνο τούς τραβούσε φωτογραφίες οι οποίες αργότερα θα χρησιμοποιούνταν για την κατάρτιση ενός αλγορίθμου αναγνώρισης προσώπου. Οι εργαζόμενοι για τον εργολάβο – την εταιρεία προσλήψεων Randstad – προσέγγιζαν άστεγους, σπουδαστές και ανθρώπους που παρευρέθηκαν στα βραβεία BET στην Ατλάντα, πολλοί από τους οποίους αργότερα δήλωσαν ότι αγνοούσαν ότι κάπου θαμμένο στα νομικά έγγραφα που είχαν υπογράψει ήταν το δικαίωμα η εταιρεία να χρησιμοποιήσει τα πρόσωπά τους με αυτόν τον τρόπο. Κάποιοι εργαζόμενοι της Randstad δήλωσαν στη The Daily News ότι οι μάνατζερ της Google τους έδωσαν εντολή να απευθύνονται ειδικά σε αστέγους επειδή θα ήταν απίθανο να καταλάβουν σε τι συμφωνούσαν και ήταν «λιγότερο πιθανό να πουν κάτι στα ΜΜΕ».

Το σκεπτικό του πρότζεκτ ήταν στην πραγματικότητα αρκετά ευγενές: τα προηγούμενα συστήματα αναγνώρισης προσώπου έχει βρεθεί ότι έχουν πολύ λιγότερη ακρίβεια με πιο σκουρόχρωμα πρόσωπα, εν μέρει επειδή τα μαύρα πρόσωπα υπο-εκπροσωπούνται στα μεγάλα σύνολα δεδομένων που χρησιμοποιούνται για την εκπαίδευση των συστημάτων. Η Google δήλωσε ότι θέλει να δημιουργήσει ένα καλύτερο σύνολο δεδομένων, έτσι ώστε η αναγνώριση προσώπου – που λέει ότι θα ενεργοποιεί τη λειτουργία ξεκλειδώματος στο νέο της τηλέφωνο Pixel 4 – θα είναι όσο το δυνατόν πιο ισορροπημένη.

Ωστόσο, η έλλειψη διαφάνειας που χρησιμοποιήθηκε για τη συλλογή του νέου συνόλου δεδομένων προκαλεί αποτροπιασμό. (Η Google ανέφερε ότι ανέστειλε προσωρινά το έργο και ότι ερευνά τη Randstad για πιθανή παραβίαση των πολιτικών της σχετικά με τη διαφάνεια και τη συναίνεση για έρευνα).

Η Google δεν είναι η μόνη εταιρεία που συμπεριφέρεται με αυτόν τον τρόπο. Νωρίτερα φέτος, η IBM προσπάθησε να συγκεντρώσει ένα πιο διαφοροποιημένο σύνολο δεδομένων ενός εκατομμυρίου προσώπων και στη συνέχεια να το διαθέσει ελεύθερα σε ακαδημαϊκούς ερευνητές. Ωστόσο, η εταιρεία δημιούργησε τη βάση δεδομένων με την απόσπαση εικόνων από την ιστοσελίδα διαμοιρασμού φωτογραφιών Flickr και από άλλους δημόσιους ιστοτόπους, χωρίς να ζητήσει τη συγκατάθεση κανενός από αυτούς που εμφανίζονταν στις φωτογραφίες…

Αυτές οι εταιρείες θα έπρεπε να γνωρίζουν καλύτερα. Και το γεγονός ότι συνεχίζουν να κάνουν λάθος μας αναγκάζει να αναρωτηθούμε, εν τέλει, κατά πόσο θέλουν πραγματικά να κάνουν το σωστό.