Anthropic: Στο «πάγο» το νέο AI μοντέλο λόγω κινδύνων για την κυβερνοασφάλεια

Anthropic: Στο «πάγο» το νέο AI μοντέλο λόγω κινδύνων για την κυβερνοασφάλεια
The Anthropic logo appears on a smartphone screen and as the background on a laptop computer screen in this photo illustration in Athens, Greece, on November 12, 2025. Anthropic PBC plans to spend $50 billion to build custom data centers for artificial intelligence work in several US locations, including Texas and New York, as the latest expensive pledge for infrastructure to support the AI boom. (Photo Illustration by Nikolas Kokovlis/NurPhoto) (Photo by Nikolas Kokovlis / NurPhoto via AFP) Photo: AFP
Η Anthropic επέλεξε να μην διαθέσει στο κοινό το νέο της AI μοντέλο, καθώς εκτιμά ότι οι προηγμένες δυνατότητές του στην ανίχνευση ευπαθειών θα μπορούσαν να ενισχύσουν τις κυβερνοεπιθέσεις.
  • Η Anthropic μπλοκάρει το AI μοντέλο Claude Mythos λόγω κινδύνων κυβερνοασφάλειας
  • Το νέο AI εντοπίζει zero-day ευπάθειες έως και 100 φορές ταχύτερα από ανθρώπους
  • Φόβοι ότι η τεχνητή νοημοσύνη μπορεί να ενισχύσει κυβερνοεπιθέσεις και hacking

Η Anthropic αποφάσισε να μην κυκλοφορήσει στο ευρύ κοινό το νέο της μοντέλο τεχνητής νοημοσύνης, Claude Mythos Preview, επικαλούμενη ανησυχίες για τις επιπτώσεις που θα μπορούσε να έχει στον τομέα της κυβερνοασφάλειας.

Σύμφωνα με την εταιρεία, το συγκεκριμένο μοντέλο είναι σε θέση να εντοπίζει, να αναλύει και να εκμεταλλεύεται ευπάθειες λογισμικού σε μεγάλη κλίμακα — σε ορισμένες περιπτώσεις πιο αποτελεσματικά από ανθρώπους. Η Anthropic κάνει λόγο για ένα «σημείο καμπής», καθώς ακόμη και χρήστες χωρίς εξειδικευμένες γνώσεις θα μπορούσαν να αξιοποιήσουν τέτοιες δυνατότητες.

Κατά τη διάρκεια των δοκιμών, το Mythos εντόπισε χιλιάδες κρίσιμα κενά ασφαλείας, συμπεριλαμβανομένων zero-day vulnerabilities, δηλαδή ευπαθειών για τις οποίες δεν υπάρχει άμεση λύση. Ειδικοί εκτιμούν ότι η απόδοσή του μπορεί να είναι έως και 10 έως 100 φορές υψηλότερη σε σχέση με κορυφαίες ομάδες κυβερνοασφάλειας, μειώνοντας τον χρόνο ανάπτυξης επιθέσεων από εβδομάδες σε λίγες ώρες.

Η εξέλιξη αυτή συνδέεται με τις δυνατότητες των μεγάλων γλωσσικών μοντέλων, τα οποία αντιμετωπίζουν τον προγραμματισμό ως μορφή γλώσσας, γεγονός που τα καθιστά ιδιαίτερα αποτελεσματικά στον εντοπισμό σφαλμάτων και λογικών αδυναμιών.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Παρά τις εντυπωσιακές επιδόσεις, παραμένουν ερωτήματα για το κόστος και τη δυνατότητα ευρείας κλίμακας χρήσης. Σε μία περίπτωση, ο εντοπισμός παλαιάς ευπάθειας απαιτούσε χιλιάδες εκτελέσεις του μοντέλου και κόστος περίπου 20.000 δολαρίων.

Την ίδια στιγμή, η συζήτηση επικεντρώνεται στο αν τέτοιες τεχνολογίες θα ενισχύσουν περισσότερο τους επιτιθέμενους ή τους αμυνόμενους. Βραχυπρόθεσμα, εκτιμάται ότι οι κυβερνοεπιθέσεις θα μπορούσαν να γίνουν πιο εύκολες και πιο στοχευμένες, με εργαλεία που επιτρέπουν τη δημιουργία εξελιγμένων επιθέσεων με το πάτημα ενός κουμπιού.

Σε δεύτερη φάση, ωστόσο, η ίδια τεχνολογία θα μπορούσε να ενισχύσει την άμυνα, επιτρέποντας ταχύτερο εντοπισμό και αποκατάσταση ευπαθειών.

Για την ώρα, η Anthropic διαθέτει το μοντέλο μόνο σε επιλεγμένες εταιρείες, όπως Google, Microsoft, JPMorgan Chase και CrowdStrike, στο πλαίσιο ενός ελεγχόμενου προγράμματος δοκιμών.

Όπως επισημαίνει η εταιρεία, οι πιθανές συνέπειες μιας ανεξέλεγκτης χρήσης τέτοιων εργαλείων θα μπορούσαν να είναι σημαντικές για την οικονομία, τη δημόσια ασφάλεια και την εθνική ασφάλεια.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: