Οι κίνδυνοι της τεχνητής νοημοσύνης: «Θα απαιτηθεί μια αμείλικτη εστίαση»

Οι κίνδυνοι της τεχνητής νοημοσύνης: «Θα απαιτηθεί μια αμείλικτη εστίαση»
artificial intelligence Photo: pixabay.com
Σχεδόν οι μισοί (42%) εργαζόμενοι πιστεύουν ότι η εταιρεία τους δεν έχει σαφή κατανόηση του ποια συστήματα πρέπει να είναι πλήρως αυτοματοποιημένα.

Της Sheryl Estrada

Μπορεί το 2024 να αναδειχθεί σε έτος προόδου της τεχνητής νοημοσύνης, αλλά δύο εκθέσεις που δημοσιεύθηκαν αυτή την εβδομάδα δείχνουν ότι υπάρχει ακόμη δουλειά να γίνει για την οικοδόμηση εμπιστοσύνης και τον μετριασμό του κινδύνου.

Ένα χάσμα εμπιστοσύνης στην τεχνητή νοημοσύνη δημιουργείται στον εργασιακό χώρο, σύμφωνα με μια έκθεση που κυκλοφόρησε την Τετάρτη από την Workday, Inc. Η έρευνα διαπιστώνει ότι τόσο οι ηγέτες όσο και οι εργαζόμενοι δεν έχουν εμπιστοσύνη στα σχέδια της εταιρείας τους σχετικά με την ανάπτυξη της τεχνητής νοημοσύνης, σύμφωνα με τον Jim Stratton, επικεφαλής τεχνολογίας στο Workday.

Μεταξύ των ηγετών της διευθυντικής ομάδας και των μάνατζερ που συμμετείχαν στην έρευνα, μόλις το 62% καλωσορίζει την τεχνητή νοημοσύνη και το ίδιο ποσοστό πιστεύει ότι η εταιρεία τους θα διασφαλίσει ότι η τεχνητή νοημοσύνη θα εφαρμοστεί με υπεύθυνο και αξιόπιστο τρόπο. Η εμπιστοσύνη είναι ακόμα χαμηλότερη μεταξύ των άλλων εργαζομένων – στο 52% και 55%, αντίστοιχα.

Για να είμαστε ξεκάθαροι, τόσο οι ηγέτες όσο και οι εργαζόμενοι εξακολουθούν να πιστεύουν ότι η τεχνητή νοημοσύνη μπορεί να λειτουργήσει μετασχηματιστικά για τις επιχειρήσεις, διαπιστώνει η έρευνα, αλλά οι ανησυχίες παραμένουν ως προς την ηθική εφαρμογή της. Και για πολλούς, αυτό σημαίνει να υπάρχει ένας άνθρωπος στη θέση του οδηγού.

Το 70% των ηγετών και το 69% των εργαζομένων πιστεύουν ότι οι εφαρμογές τεχνητής νοημοσύνης με σημαντικούς κινδύνους πρέπει να παραμείνουν υπό ανθρώπινο έλεγχο και να αναπτύσσονται με τρόπους που επιτρέπουν την ανθρώπινη παρέμβαση. Αλλά σχεδόν οι μισοί (42%) εργαζόμενοι πιστεύουν ότι η εταιρεία τους δεν έχει σαφή κατανόηση του ποια συστήματα πρέπει να είναι πλήρως αυτοματοποιημένα.

Αυτό σημαίνει ότι οι εταιρείες, είπε ο Stratton σε μια δήλωση, θα πρέπει να αναζητήσουν μια λεπτομερή προσέγγιση για την ευθύνη και τη διακυβέρνηση της τεχνητής νοημοσύνης «με έμφαση στην επίτευξη της σωστής ισορροπίας μεταξύ καινοτομίας και εμπιστοσύνης».

Η έρευνα της Workday, η οποία ζήτησε την άποψη 1.375 ηγετών επιχειρήσεων και 4.000 εργαζομένων σε όλο τον κόσμο, διαπίστωσε επίσης ότι τόσο οι ηγέτες όσο και οι υπάλληλοι ανέφεραν τη ρύθμιση και τα λειτουργικά πλαίσια ως βασικά στοιχεία για την οικοδόμηση εμπιστοσύνης στην τεχνητή νοημοσύνη.

Αναφερόμενη στη ρύθμιση της τεχνητής νοημοσύνης, η Έκθεση Παγκόσμιων Κινδύνων του Παγκόσμιου Οικονομικού Φόρουμ για το 2024 διαπιστώνει ότι η παραπληροφόρηση που τροφοδοτείται από την τεχνητή νοημοσύνη είναι ο υπ’ αριθμόν 1 αναδυόμενος κίνδυνος για τα επόμενα δύο χρόνια. Η έκθεση, που δημοσιεύθηκε την Τετάρτη ενόψει της ετήσιας συνάντησης του οργανισμού στο Νταβός της Ελβετίας, που θα ξεκινήσει στις 15 Ιανουαρίου, προειδοποιεί ότι η άνοδος της τεχνητής νοημοσύνης μπορεί να διευκολύνει τη διεξαγωγή κυβερνοεπιθέσεων. Εντωμεταξύ, υπάρχει αυξανόμενη ανησυχία ότι τα chatbot τεχνητής νοημοσύνης που δημιουργούνται θα μπορούσαν να γίνουν οχήματα για την προώθηση παραπληροφόρησης που δημιουργεί πρόσθετο κίνδυνο αναφορικά με οικονομικές ή γεωπολιτικές συγκρούσεις.

Η Carolina Klint, επικεφαλής εμπορική διευθύντρια Ευρώπης στη Marsh McLennan, η οποία συνέταξε την έκθεση με τη Zurich Insurance Group, επιβεβαιώνει ότι οι ανακαλύψεις στην τεχνητή νοημοσύνη θα αποδιοργανώσουν τις προοπτικές κινδύνου για τους οργανισμούς. «Θα χρειαστεί μια αμείλικτη εστίαση για την οικοδόμηση ανθεκτικότητας σε οργανωτικό, εθνικό και διεθνές επίπεδο – και μεγαλύτερη συνεργασία μεταξύ του δημόσιου και του ιδιωτικού τομέα – για την πλοήγηση σε αυτό το ταχέως εξελισσόμενο τοπίο κινδύνου», ανέφερε η Klint σε δήλωσή της.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:

Πηγή: fortune.com