Αυστραλία: Φόβοι για ρατσισμό και σεξισμό από την τεχνητή νοημοσύνη

Αυστραλία: Φόβοι για ρατσισμό και σεξισμό από την τεχνητή νοημοσύνη
Business and AI, Artificial intelligence technology, and daily life, World technology concept, Businesswomen use laptops with AI application, Modern thinking with technology Help solve work problems. Photo: Shutterstock
Η Επίτροπος Ανθρωπίνων Δικαιωμάτων προειδοποιεί για τον κίνδυνο βαθιάς αλγοριθμικής μεροληψίας στην τεχνητή νοημοσύνη

Η τεχνητή νοημοσύνη μπορεί να μετατραπεί σε μηχανισμό που ενισχύει ρατσιστικές και σεξιστικές προκαταλήψεις στην Αυστραλία, εάν δεν υπάρξει επαρκής ρύθμιση, προειδοποιεί η Επίτροπος Ανθρωπίνων Δικαιωμάτων Λορέιν Φίνλεϊ. Όπως τονίζει, η επιδίωξη αύξησης της παραγωγικότητας μέσω της ΤΝ δεν πρέπει να γίνει εις βάρος της προστασίας των ανθρωπίνων δικαιωμάτων, ειδικά αν τα εργαλεία εκπαιδεύονται σε δεδομένα που δεν ελέγχονται για μεροληψία.

Η προειδοποίηση έρχεται καθώς στο Εργατικό Κόμμα εντείνονται οι διαφωνίες για τη διαχείριση της νέας τεχνολογίας, σύμφωνα με τον Guardian. Η γερουσιάστρια και πρώην ερευνήτρια ΤΝ, Μισέλ Ανάντα-Ράτζα, διαφοροποιήθηκε από τη γραμμή του κόμματος, ζητώντας την «απελευθέρωση» όλων των εγχώριων δεδομένων προς τις εταιρείες τεχνολογίας, με στόχο να αποτραπεί η αναπαραγωγή προκαταλήψεων και να δημιουργηθούν μοντέλα που θα αντικατοπτρίζουν την αυστραλιανή κουλτούρα. Αν και αντιτίθεται σε ειδικό νόμο για την ΤΝ, επιμένει ότι οι δημιουργοί περιεχομένου πρέπει να αμείβονται για το έργο τους.

Το ζήτημα θα συζητηθεί στην οικονομική σύνοδο κορυφής της ομοσπονδιακής κυβέρνησης την επόμενη εβδομάδα, την ώρα που συνδικάτα και επαγγελματικοί φορείς εκφράζουν έντονες ανησυχίες για τα πνευματικά δικαιώματα και την ιδιωτικότητα. Εκπρόσωποι των μέσων ενημέρωσης και των τεχνών μιλούν για «ανεξέλεγκτη κλοπή» περιεχομένου, εάν οι μεγάλες τεχνολογικές εταιρείες αποκτήσουν δικαιώματα εκπαίδευσης των μοντέλων τους με υλικό τρίτων.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Η Φίνλεϊ επισημαίνει ότι η αλγοριθμική μεροληψία — όταν οι προκαταλήψεις ενσωματώνονται στα συστήματα — συνδυαζόμενη με την «αυτοματοποιημένη μεροληψία» των χρηστών, μπορεί να δημιουργήσει διακρίσεις τόσο βαθιά ριζωμένες ώστε να περνούν απαρατήρητες. Ζητά νομοθεσία που θα προβλέπει αυστηρούς ελέγχους, δοκιμές για εντοπισμό μεροληψίας και επαρκή ανθρώπινη εποπτεία.

Η Ανάντα-Ράτζα, από την πλευρά της, προειδοποιεί ότι αν η χώρα δεν αξιοποιήσει τα δικά της δεδομένα, θα εξαρτάται «για πάντα» από ξένα μοντέλα χωρίς διαφάνεια. Ως παράδειγμα, αναφέρει την ΤΝ για τον εντοπισμό καρκίνου του δέρματος, όπου εντοπίζονται προκαταλήψεις εις βάρος συγκεκριμένων ομάδων ασθενών, κάτι που θα μπορούσε να αντιμετωπιστεί με ποικιλόμορφα τοπικά δεδομένα.

Στο ίδιο μήκος κύματος, η ειδικός στην ΤΝ Τζούντιθ Μπίσοπ υπογραμμίζει ότι τα διεθνώς εκπαιδευμένα μοντέλα μπορεί να μην ανταποκρίνονται στις ανάγκες των Αυστραλών, ενώ η Επίτροπος για την Ασφάλεια στο Διαδίκτυο, Τζούλι Ίνμαν Γκραντ, καλεί τις εταιρείες να είναι πλήρως διαφανείς για τα δεδομένα εκπαίδευσης, προειδοποιώντας ότι η συγκέντρωση της ανάπτυξης της ΤΝ στα χέρια λίγων παικτών μπορεί να οδηγήσει στον αποκλεισμό σημαντικών φωνών και προοπτικών.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: