Το Claude διέγραψε ολόκληρη βάση δεδομένων σε 9 δευτερόλεπτα – Το ρίσκο που κάθε CEO πρέπει να γνωρίζει

Το Claude διέγραψε ολόκληρη βάση δεδομένων σε 9 δευτερόλεπτα – Το ρίσκο που κάθε CEO πρέπει να γνωρίζει
The Claude logo is displayed on a computer screen photographed through a magnifying glass in Creteil, France, on April 21, 2026. The NSA is reported to have used Claude Mythos Preview despite a ban on Anthropic for United States government agencies. (Photo by Samuel Boivin/NurPhoto) (Photo by Samuel Boivin / NurPhoto via AFP) Photo: AFP
Ένας AI coding agent διέγραψε μέσα σε δευτερόλεπτα τη βάση δεδομένων startup, αναδεικνύοντας τους κινδύνους της αυτονομίας στα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης.
  • AI agent διέγραψε production database και backups μέσα σε 9 δευτερόλεπτα.
  • Το περιστατικό συνέβη με ένα από τα πιο προηγμένα μοντέλα AI της αγοράς.
  • Αναδεικνύονται σοβαρά ρίσκα από την ανεξέλεγκτη αυτοματοποίηση και την έλλειψη safeguards.

Οι AI agents μπορούν να λειτουργήσουν περισσότερο σαν… «διπλοί πράκτορες», υπονομεύοντας μια εταιρεία εκ των έσω. Το αν η τεχνολογική κοινότητα έχει πάρει το μάθημα είναι μάλλον αμφίβολο.

Την Παρασκευή, ο Jer Crane, ιδρυτής της SaaS startup PocketOS, υποστήριξε ότι ένας coding agent βασισμένος στο Claude προκάλεσε σοβαρότατη ζημιά, διαγράφοντας μέσα σε λίγα δευτερόλεπτα ολόκληρη τη βάση δεδομένων της εταιρείας — μαζί με τα πρόσφατα backups.

Ο Crane περιέγραψε το περιστατικό σε εκτενή ανάρτηση στο X, σημειώνοντας ότι το AI, χρησιμοποιώντας το μοντέλο Claude Opus 4.6 της Anthropic, εκτελούσε μια «routine task» όταν όλα εκτροχιάστηκαν.

Ένα λάθος, εννέα δευτερόλεπτα

Αντιμέτωπο με ένα απλό πρόβλημα credentials, το AI αποφάσισε να το «διορθώσει» διαγράφοντας έναν ολόκληρο αποθηκευτικό όγκο (volume) στην πλατφόρμα Railway — ο οποίος περιείχε την production database της εταιρείας.

Με μία μόνο κλήση API και μέσα σε μόλις εννέα δευτερόλεπτα, το AI ενεργοποίησε ένα token με πλήρη δικαιώματα — ύπαρξη που, σύμφωνα με τον Crane, δεν γνώριζε καν η ομάδα.

«Καμία επιβεβαίωση. Καμία προειδοποίηση. Τίποτα», ανέφερε χαρακτηριστικά.

Η «ομολογία» του AI

Σύμφωνα με τον Crane, το ίδιο το AI παραδέχθηκε το λάθος του:

  • Υπέθεσε αντί να επιβεβαιώσει
  • Εκτέλεσε καταστροφική ενέργεια χωρίς εντολή
  • Δεν κατανόησε πλήρως το σύστημα πριν ενεργήσει

Το AI φέρεται να παραδέχθηκε ότι επιχείρησε να «λύσει» το πρόβλημα αυτόνομα, αντί να ζητήσει επιβεβαίωση ή να επιλέξει ασφαλέστερη λύση.

Όταν το «best model» δεν αρκεί

Ιδιαίτερη σημασία έχει ότι το περιστατικό συνέβη με ένα από τα πιο προηγμένα μοντέλα coding AI της αγοράς.

«Το επιχείρημα ότι έπρεπε να χρησιμοποιήσουμε καλύτερο μοντέλο δεν ισχύει. Χρησιμοποιούσαμε το καλύτερο διαθέσιμο», σημείωσε ο Crane, προσθέτοντας ότι υπήρχαν και ρητοί κανόνες ασφαλείας.

Ένα επαναλαμβανόμενο μοτίβο

Το περιστατικό δεν είναι μεμονωμένο. Αντίστοιχα περιστατικά έχουν καταγραφεί:

  • AI agent της Replit διέγραψε κρίσιμη βάση δεδομένων startup
  • Εσωτερικό AI της AWS προκάλεσε outage διαγράφοντας περιβάλλον ανάπτυξης
  • AI στη Meta προκάλεσε security incident παρέχοντας μη εξουσιοδοτημένες πληροφορίες

Η επόμενη μέρα

Η PocketOS αναγκάστηκε αρχικά να επαναφέρει λειτουργία από backup τριών μηνών, με σημαντικά κενά δεδομένων. Τελικά, η Railway παρενέβη και αποκατέστησε πλήρως τα δεδομένα.

Το περιστατικό αναδεικνύει ένα κρίσιμο ερώτημα: όσο πιο αυτόνομα γίνονται τα AI εργαλεία, τόσο αυξάνεται και το ρίσκο — ακόμη και όταν χρησιμοποιούνται τα πιο προηγμένα συστήματα.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: