AI στη Meta προκάλεσε κρίση ασφαλείας — Δεδομένα εκτέθηκαν χωρίς άδεια

AI στη Meta προκάλεσε κρίση ασφαλείας — Δεδομένα εκτέθηκαν χωρίς άδεια
ANKARA, TURKIYE - OCTOBER 2: A phone screen displaying the logo of 'Meta' is seen in Ankara, Turkiye on October 2, 2024. Didem Mente / Anadolu (Photo by Didem Mente / ANADOLU / Anadolu via AFP) Photo: AFP
Ένα εσωτερικό AI σύστημα της Meta προκάλεσε σοβαρό περιστατικό ασφάλειας, αποκαλύπτοντας ευαίσθητα δεδομένα σε μη εξουσιοδοτημένους εργαζομένους και φέρνοντας ξανά στο προσκήνιο τους κινδύνους της ανεξέλεγκτης τεχνητής νοημοσύνης.
  • Ένας AI agent παρείχε λανθασμένες πληροφορίες, οδηγώντας σε μη εξουσιοδοτημένη πρόσβαση δεδομένων.

  • Η Meta υποβαθμίζει τον ρόλο της AI, μεταθέτοντας την ευθύνη στον άνθρωπο, τονίζοντας ότι ο agent δεν εκτέλεσε ενέργειες, αλλά απλώς έδωσε απάντηση.

  • Το περιστατικό ενισχύει τους φόβους για την αξιοπιστία της AI σε κρίσιμα συστήματα, ενώ αντίστοιχα λάθη σε Amazon δείχνουν ότι το πρόβλημα είναι συστημικό και όχι μεμονωμένο.

Ένας «ανεξέλεγκτος» AI agent προκάλεσε ένα κρίσιμο περιστατικό ασφάλειας στη Meta, το οποίο εξέθεσε ευαίσθητα δεδομένα χρηστών σε άτομα χωρίς την απαραίτητη εξουσιοδότηση, σύμφωνα με ρεπορτάζ των The Information και The Verge, στο πιο πρόσφατο παράδειγμα των κινδύνων ασφαλείας που είναι εγγενείς στα συστήματα τεχνητής νοημοσύνης.

Το λάθος συνέβη την περασμένη εβδομάδα, όταν ένας μηχανικός λογισμικού χρησιμοποίησε έναν εσωτερικό AI agent για να αναλύσει μια τεχνική ερώτηση που είχε θέσει άλλος εργαζόμενος σε ένα εσωτερικό forum συζητήσεων, σύμφωνα με εσωτερικές επικοινωνίες και έκθεση περιστατικού. Ο εσωτερικός αυτός AI agent παρομοιάστηκε με το OpenClaw, ένα open source agentic μοντέλο που έχει δημιουργήσει έντονο hype στον τεχνολογικό χώρο ως μια AI που «πραγματικά κάνει πράγματα».

Αυτό που ακολούθησε ήταν ένας συνδυασμός «παραισθήσεων» της AI και ενός φαινομένου «σπασμένου τηλεφώνου». Η AI ανάρτησε την απάντησή της στο forum χωρίς την έγκριση του εργαζομένου που την ενεργοποίησε. Στη συνέχεια, ένας άλλος εργαζόμενος ενήργησε βάσει της απάντησης της AI, η οποία αποδείχθηκε ότι περιείχε «ανακριβείς πληροφορίες».

Ξέσπασε μια μικρή κρίση. Για σχεδόν δύο ώρες, δόθηκε μη εξουσιοδοτημένη πρόσβαση σε μεγάλα σύνολα ευαίσθητων εταιρικών και χρηστικών δεδομένων σε μηχανικούς που δεν είχαν εγκριθεί να τα δουν. Η Meta κατέταξε το περιστατικό ως «SEV1», το δεύτερο υψηλότερο επίπεδο σοβαρότητας στην κλίμακα που χρησιμοποιεί για την αξιολόγηση περιστατικών ασφάλειας.

Προς το παρόν, δεν φαίνεται να υπήρξε κακόβουλη χρήση της μη εξουσιοδοτημένης πρόσβασης, ενώ εκπρόσωπος της Meta δήλωσε στο The Verge ότι «κανένα δεδομένο χρήστη δεν χρησιμοποιήθηκε με λάθος τρόπο».

Ο εκπρόσωπος τόνισε ότι ο ίδιος ο AI agent δεν προχώρησε σε καμία τεχνική αλλαγή, μεταθέτοντας την ευθύνη στο ανθρώπινο λάθος.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

«Ο εργαζόμενος που αλληλεπιδρούσε με το σύστημα γνώριζε πλήρως ότι επικοινωνούσε με ένα αυτοματοποιημένο bot. Αυτό αναφερόταν σε σχετική επισήμανση στο κάτω μέρος της σελίδας, καθώς και από την ίδια την απάντηση του εργαζομένου στο συγκεκριμένο νήμα», ανέφερε στο The Verge. «Ο agent δεν προχώρησε σε καμία ενέργεια πέρα από την παροχή μιας απάντησης σε μια ερώτηση. Αν ο μηχανικός που ενήργησε βάσει αυτής είχε καλύτερη κρίση ή έκανε επιπλέον ελέγχους, το περιστατικό θα είχε αποφευχθεί».

Το αν η Meta έχει κίνητρο να υποβαθμίσει το περιστατικό λόγω αμηχανίας ή να το υπερτονίσει για να ενισχύσει το hype γύρω από τις δυνατότητες της AI, παραμένει ανοιχτό.

Ωστόσο, σε ανταγωνιστικές εταιρείες τεχνολογίας, AI agents έχουν ήδη προκαλέσει καταστροφικές τεχνικές αλλαγές. Τουλάχιστον δύο διακοπές λειτουργίας στην Amazon Web Services πέρυσι προκλήθηκαν όταν το εσωτερικό AI εργαλείο προγραμματισμού της Amazon έκανε λανθασμένες αλλαγές, συμπεριλαμβανομένης της διαγραφής ολόκληρου του περιβάλλοντος κώδικα. Στελέχη της Amazon παραδέχθηκαν σε συνάντηση τον Μάρτιο ότι «αλλαγές με τη βοήθεια gen-AI» επηρέαζαν τη βασική δραστηριότητα του e-commerce και τόνισαν ότι στο εξής θα υπάρχει μεγαλύτερη εποπτεία στον τρόπο εφαρμογής τους.

Ίσως προμηνύοντας αυτό το περιστατικό, ένα σφάλμα σχετικό με AI είχε παραδεχθεί και ανώτερο στέλεχος της Meta τον προηγούμενο μήνα. Σε μια ανάρτηση που προκάλεσε χλευασμό, η director AI safety Summer Yue ανέφερε ότι ένας OpenClaw agent με τον οποίο πειραματιζόταν — δίνοντάς του πρόσβαση στον προσωπικό της υπολογιστή — παραλίγο να διαγράψει ολόκληρο το inbox των email της, αγνοώντας τις εντολές της να σταματήσει.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: