Η χρήση τεχνητής νοημοσύνης μπορεί να είναι… risky business

Η χρήση τεχνητής νοημοσύνης μπορεί να είναι… risky business
Photo: pixabay.com
   

Του Jonathan Vanian

Εδώ και χρόνια, οι εταιρείες λειτουργούν βάσει της υπόθεσης ότι για να βελτιώνουν το λογισμικό τεχνητής νοημοσύνης τους και να εξασφαλίζουν συγκριτικό πλεονέκτημα, πρέπει να συλλέγουν τεράστιο όγκο δεδομένων χρηστών – την «πρώτη ύλη» της μηχανικής μάθησης.

Όμως, η συλλογή μεγάλου όγκου πληροφοριών των χρηστών συνιστά πλέον έναν μεγάλο κίνδυνο. Νόμοι όπως ο GDPR της Ευρώπης και οι νέοι κανόνες προστασίας της ιδιωτικότητας στην Καλιφόρνια προβλέπουν μεγάλα πρόστιμα για εταιρείες που κάνουν κατάχρηση των δεδομένων αυτών, π.χ. μη προστατεύοντας με επάρκεια τα εταιρικά τους συστήματα IT από τους χάκερ.

Κάποιες εταιρείες πλέον αποστασιοποιούνται και δημοσίως από την πρακτική αυτή – δηλαδή τη χρήση της μηχανικής μάθησης για την πρόβλεψη πραγμάτων όπως π.χ. η συμπεριφορά των καταναλωτών.

Ο Alex Spinelli, επικεφαλής τεχνολογίας στην εταιρεία λογισμικού LivePerson, είπε πρόσφατα στο Fortune ότι ακύρωσε κάποια πρότζεκτ τεχνητής νοημοσύνης στην τωρινή εταιρεία του και σε προηγούμενους εργοδότες του επειδή αυτά έρχονταν σε σύγκρουση με τις δικές του πεποιθήσεις περί ηθικής και ιδιωτικότητας.

Οι ερευνητές μελετούν κάποιες από τις επιπτώσεις της τεχνητής νοημοσύνης αναφορικά με την εξάπλωση της παραπληροφόρησης και της παρακολούθησης. Προβλήματα όπως το ότι το Facebook επιτρέπει την εξάπλωση της παραπληροφόρησης στην πλατφόρμα του ή ότι η κυβέρνηση της Κίνας χρησιμοποιεί την τεχνητή νοημοσύνη για να παρακολουθεί τους Ουιγούρους ίσως οδηγήσουν σε μια απότομη κοινωνική συνειδητοποίηση των κινδύνων που συνδέονται με την τεχνολογία της AI.

Ο Aza Raskin, συνιδρυτής και σύμβουλος προγράμματος στο Center for Humane Technology, ελπίζει ότι οι κυβερνήσεις θα θεσπίσουν κανόνες που θα ορίζουν πώς μπορούν οι εταιρείες να χρησιμοποιούν την τεχνητή νοημοσύνη με ηθικό και δεοντολογικό τρόπο.

«Χρειαζόμαστε κρατική μέριμνα έτσι ώστε ο αχαλίνωτος καπιταλισμός να μην βάζει στο στόχαστρό του την ανθρώπινη ψυχή» σημειώνει.

Ο ίδιος πιστεύει ότι οι εταιρείες που παίρνουν στα σοβαρά το ζήτημα της προστασίας των προσωπικών δεδομένων θα έχουν «στρατηγικό πλεονέκτημα» έναντι των υπολοίπων εταιρειών, ειδικά καθώς θα αναδύονται ολοένα και περισσότερα προβλήματα σχετιζόμενα με την τεχνητή νοημοσύνη.