«Siri, άλλαξε τη φωνή σου σε αντρική»

«Siri, άλλαξε τη φωνή σου σε αντρική»
Photo:

Claire Zillman, Emman Hinchliffe

Από τότε που η Apple λάνσαρε τον εικονικό βοηθό της Siri το 2011, η φωνή της ήταν μια γυναικεία αμερικάνικη φωνή. Μετά από δέκα χρόνια, αυτό τελικά θα αλλάξει.

Η εφαρμογή ανακοίνωσε στις αρχές Απριλίου ότι από την άνοιξη, οι χρήστες θα κληθούν να επιλέξουν μια φωνή από τέσσερις επιλογές όταν ρυθμίζουν τη Siri στο λειτουργικό σύστημα του τηλεφώνου τους.

Η Apple αναφέρει ότι η κίνηση αντικατοπτρίζει τη «μακροχρόνια» δέσμευσή της στην ποικιλομορφία και την ένταξη και σε προϊόντα και υπηρεσίες που «έχουν σχεδιαστεί για να αντικατοπτρίζουν καλύτερα την ποικιλομορφία του κόσμου στον οποίο ζούμε».

Αυτή είναι μια ωραία δήλωση, αλλά η Apple δεν αντιμετώπισε ακριβώς το ζήτημα του φύλου της Siri με μια προφανή αίσθηση κατεπείγοντος παρά την πρώιμη κριτική που είχε δεχθεί, και έχει παραβλέψει τις ανάγκες των γυναικών στο παρελθόν, για παράδειγμα, αρχικά παραλείποντας ένα εργαλείο παρακολούθησης της περιόδου στην εφαρμογή υγείας της.

Ωστόσο, η αλλαγή είναι κάτι παραπάνω από ευπρόσδεκτη.

Η φωνή ενός εικονικού βοηθού είναι ένα πρόβλημα της διαφορετικότητας των φύλων που είναι εύκολο να αγνοηθεί. Όμως, δεδομένης της επικράτησης των εικονικών βοηθών σε σπίτια σε όλο τον κόσμο – οι καταναλωτές θα αλληλεπιδρούν με βοηθούς που δέχονται φωνητικές εντολές σε πάνω από 8,4 δισεκατομμύρια συσκευές έως το 2024, σύμφωνα με μια πρόβλεψη του 2020 – η πιθανότητα οι γυναικείες φωνές ρομπότ να ενισχύσουν τα επιβλαβή στερεότυπα του φύλου έχει προκαλέσει ανησυχία στους ερευνητές.

Η καθηγήτρια Safiya Umoja Noble, τώρα στο UCLA, παρατήρησε ότι οι εικονικοί βοηθοί δημιουργούν μια μόδα ομιλίας βάσει εντολών που απευθύνεται στις φωνές των γυναικών. Ο καθηγητής Calvin Lai του Πανεπιστημίου της Ουάσινγκτον στο Σαιντ Λούις είπε ότι όσο περισσότερο εξισώνουμε τις γυναίκες με τους βοηθούς, τόσο περισσότερο οι πραγματικές (ανθρώπινες) γυναίκες θα θεωρούνται βοηθοί ή θα τιμωρούνται επειδή δεν ενεργούν σαν βοηθοί.

«Οι υπάκουοι και ευγενικοί μηχανισμοί που προσποιούνται ότι είναι γυναίκες μπαίνουν στα σπίτια, τα αυτοκίνητα και τα γραφεία μας», δήλωσε η Saniye Gülser Corat, τότε διευθύντρια ισότητας των φύλων στην UNESCO, όταν κυκλοφόρησε μια έκθεση του 2019 για το σεξισμό και τα ρομπότ που αναφέρει τους Noble και Lai.

Αυτή η έκθεση – σχεδόν δύο ετών τώρα – συνέστησε στις εταιρείες τεχνολογίας «να τερματίσουν την πρακτική να κάνουν τους ψηφιακούς βοηθούς γυναίκες από προεπιλογή».

Η Apple ακολουθεί επιτέλους αυτές τις συμβουλές, αλλά οι άλλοι μεγάλοι παίκτες του χώρου – η Alexa της Amazon και ο Assistant της Google – εξακολουθούν να έχουν από προεπιλογή γυναικεία φωνή για αγγλόφωνους.

Πηγή: Fortune.com