Anthropic: Στο «πάγο» το νέο AI μοντέλο λόγω κινδύνων για την κυβερνοασφάλεια
- 13/04/2026, 10:15
- SHARE
- Η Anthropic μπλοκάρει το AI μοντέλο Claude Mythos λόγω κινδύνων κυβερνοασφάλειας
- Το νέο AI εντοπίζει zero-day ευπάθειες έως και 100 φορές ταχύτερα από ανθρώπους
- Φόβοι ότι η τεχνητή νοημοσύνη μπορεί να ενισχύσει κυβερνοεπιθέσεις και hacking
Η Anthropic αποφάσισε να μην κυκλοφορήσει στο ευρύ κοινό το νέο της μοντέλο τεχνητής νοημοσύνης, Claude Mythos Preview, επικαλούμενη ανησυχίες για τις επιπτώσεις που θα μπορούσε να έχει στον τομέα της κυβερνοασφάλειας.
Σύμφωνα με την εταιρεία, το συγκεκριμένο μοντέλο είναι σε θέση να εντοπίζει, να αναλύει και να εκμεταλλεύεται ευπάθειες λογισμικού σε μεγάλη κλίμακα — σε ορισμένες περιπτώσεις πιο αποτελεσματικά από ανθρώπους. Η Anthropic κάνει λόγο για ένα «σημείο καμπής», καθώς ακόμη και χρήστες χωρίς εξειδικευμένες γνώσεις θα μπορούσαν να αξιοποιήσουν τέτοιες δυνατότητες.
Κατά τη διάρκεια των δοκιμών, το Mythos εντόπισε χιλιάδες κρίσιμα κενά ασφαλείας, συμπεριλαμβανομένων zero-day vulnerabilities, δηλαδή ευπαθειών για τις οποίες δεν υπάρχει άμεση λύση. Ειδικοί εκτιμούν ότι η απόδοσή του μπορεί να είναι έως και 10 έως 100 φορές υψηλότερη σε σχέση με κορυφαίες ομάδες κυβερνοασφάλειας, μειώνοντας τον χρόνο ανάπτυξης επιθέσεων από εβδομάδες σε λίγες ώρες.
Η εξέλιξη αυτή συνδέεται με τις δυνατότητες των μεγάλων γλωσσικών μοντέλων, τα οποία αντιμετωπίζουν τον προγραμματισμό ως μορφή γλώσσας, γεγονός που τα καθιστά ιδιαίτερα αποτελεσματικά στον εντοπισμό σφαλμάτων και λογικών αδυναμιών.
Παρά τις εντυπωσιακές επιδόσεις, παραμένουν ερωτήματα για το κόστος και τη δυνατότητα ευρείας κλίμακας χρήσης. Σε μία περίπτωση, ο εντοπισμός παλαιάς ευπάθειας απαιτούσε χιλιάδες εκτελέσεις του μοντέλου και κόστος περίπου 20.000 δολαρίων.
Την ίδια στιγμή, η συζήτηση επικεντρώνεται στο αν τέτοιες τεχνολογίες θα ενισχύσουν περισσότερο τους επιτιθέμενους ή τους αμυνόμενους. Βραχυπρόθεσμα, εκτιμάται ότι οι κυβερνοεπιθέσεις θα μπορούσαν να γίνουν πιο εύκολες και πιο στοχευμένες, με εργαλεία που επιτρέπουν τη δημιουργία εξελιγμένων επιθέσεων με το πάτημα ενός κουμπιού.
Σε δεύτερη φάση, ωστόσο, η ίδια τεχνολογία θα μπορούσε να ενισχύσει την άμυνα, επιτρέποντας ταχύτερο εντοπισμό και αποκατάσταση ευπαθειών.
Για την ώρα, η Anthropic διαθέτει το μοντέλο μόνο σε επιλεγμένες εταιρείες, όπως Google, Microsoft, JPMorgan Chase και CrowdStrike, στο πλαίσιο ενός ελεγχόμενου προγράμματος δοκιμών.
Όπως επισημαίνει η εταιρεία, οι πιθανές συνέπειες μιας ανεξέλεγκτης χρήσης τέτοιων εργαλείων θα μπορούσαν να είναι σημαντικές για την οικονομία, τη δημόσια ασφάλεια και την εθνική ασφάλεια.
ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: