Γιατί πρέπει να πάψουμε να ανησυχούμε για την τεχνητή νοημοσύνη

Γιατί πρέπει να πάψουμε να ανησυχούμε για την τεχνητή νοημοσύνη
Photo: pixabay.com

Και να αρχίσουμε να ανησυχούμε για τα δεδομένα.

της Kristen Bellstrom

Ο συνδυασμός δεδομένων και τεχνητής νοημοσύνης μετασχηματίζει τον κόσμο όπως τον ξέραμε. Όμως, πώς μπορούμε να εξασφαλίσουμε ότι ο νέος κόσμος που αναδύεται στον απόηχό αυτών των τάσεων θα είναι ένας κόσμος στον οποίο θα θέλουμε να ζήσουμε;

Ένα μεγάλο μέρος της «εξίσωσης» αφορά τη διασφάλιση της σωστής διαχείρισης των δεδομένων των καταναλωτών. Μιλώντας στη Σύνοδο Most Powerful Women του Fortune στην Καλιφόρνια, η Clara Shih, διευθύνουσα σύμβουλος και συνιδρυτής της Hearsay Systems, παρουσίασε ένα απλό σύστημα τεσσάρων σημείων για την επίτευξη μιας τέτοιας ορθής διαχείρισης:

1. Προωθήστε τη διαφάνεια. Δώστε στους ανθρώπους τη δυνατότητα να γνωρίζουν ποιες πληροφορίες θα χρησιμοποιηθούν και με ποιο τρόπο.

2. Δώστε τη δυνατότητα επιλογής. Να είστε σαφείς σχετικά με το πότε και πώς οι άνθρωποι μπορούν να επιλέξουν να συλλέγονται ή να μην συλλέγονται τα προσωπικά τους δεδομένα.

3. Εξηγήστε την προστιθέμενη αξία. Αυτό θα μπορούσε να είναι η επιπλέον ευκολία ή κάποιου είδους ανταμοιβή.

4. Αμέσως ενημερώστε τους ανθρώπους όταν υπάρξει παραβίαση δεδομένων. Προσοχή: «Όταν» υπάρξει, όχι «εάν».

Είναι σημαντικό να ορίσετε έναν κώδικα συμπεριφοράς γύρω από τα δεδομένα και να τον ακολουθήσετε αυστηρά, προσέθεσε η διευθύνουσα σύμβουλος της Ancestry.com, Μαργκό Γεωργιάδη. Για παράδειγμα, κατά την κορύφωση της μεταναστευτικής κρίσης και του διαχωρισμού οικογενειών στις ΗΠΑ το 2018, ζητήθηκε από την Ancestry να παράσχει δωρεάν υπηρεσίες γενεαλογικών δοκιμών, προκειμένου να υποστηριχθεί η επανένωση των γονέων που ζητούσαν άσυλο μαζί με τα παιδιά τους, απ’ τα οποία είχαν χωριστεί στα σύνορα. Αυτό ήταν ένας εξαιρετικά σημαντικός σκοπός, αλλά η Γεωργιάδη τελικά έκρινε ότι το αίτημα παραβίαζε την πολιτική της Ancestry που επιτρέπει στους καταναλωτές να ελέγχουν τα δεδομένα τους.

«Υπήρξε μια συναισθηματική σύνδεση με το ζήτημα», είπε. «Όμως, μπορούσαν να υπάρξουν απρόβλεπτες συνέπειες». Θα έδιναν οι γονείς τη συγκατάθεσή τους; Θα μπορούσαν οι αιτούντες άσυλο να διαγράψουν αργότερα τα δεδομένα τους; Πώς

αλλιώς θα μπορούσαν να χρησιμοποιηθούν τα δεδομένα τους; «Θέλουμε να βοηθάμε» είπε η Γεωργιάδης, «αλλά χρειαζόμαστε σαφήνεια».

Οι τεχνολόγοι πρέπει να σταματήσουν να αντιλαμβάνονται τα δεδομένα ως «απλώς άλλη μια εισροή», δήλωσε η Navrina Singh, επικεφαλής προϊόντων της Microsoft Α.Ι. Αντ’ αυτού, πρέπει να αναγνωρίσουν ότι τα δεδομένα που χρησιμοποιούν θα κάνουν το προϊόν αυτό που είναι και μπορεί να έχουν ευρύτερες επιπτώσεις για την κοινωνία.

«Όταν σκεφτόμαστε την τεχνητή νοημοσύνη, για μένα μία από τις μεγαλύτερες πηγές ανησυχίας είναι τα σύνολα δεδομένων», ανέφερε η Brenda Darden Wilkerson, πρόεδρος και διευθύνουσα σύμβουλος της AnitaB.org, μιας ομάδας υποστήριξης των γυναικών στην τεχνολογία. Εάν αυτά τα σύνολα δεδομένων είναι ελαττωματικά ή μεροληπτικά, «χρωματίζουν» το τι μαθαίνει η τεχνητή νοημοσύνη. Οι άνθρωποι πρέπει να είναι υπεύθυνοι για «τη φροντίδα και την τροφοδότηση» της τεχνολογίας, είπε η ίδια, ώστε να μπορούμε να είμαστε βέβαιοι ότι η τεχνητή νοημοσύνη μπορεί πραγματικά να βοηθήσει για να γίνει καλύτερος ο κόσμος – για όλους. Η τεχνολογία δεν μπορεί απλά να υπηρετεί την ελίτ της Silicon Valley, είπε η Darden Wilkerson: «Ανησυχώ πολύ για τους ανθρώπους που επηρεάζονται αρνητικά από τις επιπτώσεις».