Google: Στο στόχαστρο το Gemini από επιθέσεις «αντιγραφής» AI
- 12/02/2026, 18:30
- SHARE
-
Το Gemini έχει δεχθεί δεκάδες χιλιάδες στοχευμένα prompts με στόχο την εξαγωγή της εσωτερικής του λογικής.
-
Η Google θεωρεί τις επιθέσεις απόσταξης κλοπή πνευματικής ιδιοκτησίας και προειδοποιεί ότι το φαινόμενο θα γενικευτεί.
-
Όσο τα LLMs ανοίγουν στο διαδίκτυο και εκπαιδεύονται σε ευαίσθητα δεδομένα, η AI ασφάλεια μετατρέπεται σε στρατηγικό ρίσκο.
Η Google αποκάλυψε ότι το κορυφαίο της chatbot τεχνητής νοημοσύνης, το Gemini, έχει δεχθεί μαζικές και συστηματικές επιθέσεις από «εμπορικά υποκινούμενους» παράγοντες, οι οποίοι επιχειρούν να το αντιγράψουν υποβάλλοντάς το σε επαναλαμβανόμενα prompts — σε ορισμένες περιπτώσεις δεκάδες χιλιάδες ερωτήματα. Μία εκστρατεία, σύμφωνα με την εταιρεία, υπέβαλε το Gemini σε πάνω από 100.000 prompts.
Σε έκθεση που δημοσιεύθηκε την Πέμπτη, η Google ανέφερε ότι αντιμετωπίζει ολοένα και περισσότερες «επιθέσεις απόσταξης» (distillation attacks): επαναλαμβανόμενες και στοχευμένες ερωτήσεις που έχουν στόχο να κάνουν το chatbot να αποκαλύψει τον τρόπο λειτουργίας του. Η εταιρεία περιγράφει τη δραστηριότητα ως «εξαγωγή μοντέλου» (model extraction) — μια διαδικασία κατά την οποία επίδοξοι μιμητές προσπαθούν να εντοπίσουν τα μοτίβα και τη λογική που διέπουν το σύστημα, ώστε να τα αξιοποιήσουν για να χτίσουν ή να ενισχύσουν δικά τους μοντέλα AI.
Η Google εκτιμά ότι πίσω από τις επιθέσεις βρίσκονται κυρίως ιδιωτικές εταιρείες ή ερευνητές που επιδιώκουν ανταγωνιστικό πλεονέκτημα. Εκπρόσωπος της εταιρείας δήλωσε στο NBC News ότι οι επιθέσεις προέρχονται «από όλο τον κόσμο», χωρίς να δοθούν περαιτέρω λεπτομέρειες για τους δράστες.
Η κλίμακα των επιθέσεων στο Gemini δείχνει ότι παρόμοιες πρακτικές είναι πιθανό να στραφούν σύντομα και κατά μικρότερων εταιρειών με προσαρμοσμένα AI εργαλεία, προειδοποίησε ο John Hultquist, επικεφαλής αναλυτής της Google Threat Intelligence Group.
«Θα είμαστε το καναρίνι στο ανθρακωρυχείο για πολλά περισσότερα περιστατικά», δήλωσε, αποφεύγοντας να κατονομάσει υπόπτους.
Η Google ξεκαθαρίζει ότι θεωρεί τις επιθέσεις απόσταξης κλοπή πνευματικής ιδιοκτησίας.
Γιατί τα LLMs είναι ευάλωτα
Οι τεχνολογικές εταιρείες έχουν επενδύσει δισεκατομμύρια δολάρια στην ανάπτυξη chatbots και μεγάλων γλωσσικών μοντέλων (LLMs) και αντιμετωπίζουν τον εσωτερικό τους μηχανισμό ως εξαιρετικά πολύτιμη ιδιοκτησία.
Ωστόσο, ακόμη και με μηχανισμούς εντοπισμού και αποκλεισμού τέτοιων επιθέσεων, τα κορυφαία LLMs είναι εκ φύσεως ευάλωτα: είναι ανοιχτά στο διαδίκτυο και προσβάσιμα σε οποιονδήποτε μπορεί να αλληλεπιδράσει μαζί τους.
Δεν είναι η πρώτη φορά που τίθεται το ζήτημα. Πέρυσι, η OpenAI, δημιουργός του ChatGPT, κατηγόρησε τον κινεζικό ανταγωνιστή της DeepSeek ότι χρησιμοποίησε επιθέσεις απόσταξης για να βελτιώσει τα μοντέλα του.
Σύμφωνα με την Google, πολλές από τις πρόσφατες επιθέσεις ήταν σχεδιασμένες ώστε να αποσπάσουν πληροφορίες για το πώς το Gemini «σκέφτεται» και συλλογίζεται, δηλαδή πώς αποφασίζει να επεξεργαστεί και να απαντήσει σε πληροφορίες.
Ο Hultquist προειδοποίησε ότι όσο περισσότερες εταιρείες αναπτύσσουν custom LLMs εκπαιδευμένα σε ευαίσθητα δεδομένα, τόσο αυξάνεται ο κίνδυνος.
«Αν ένα LLM έχει εκπαιδευτεί σε 100 χρόνια “μυστικής σκέψης” για τον τρόπο που κάνεις trading, θεωρητικά μπορείς να αποστάξεις μέρος αυτής της γνώσης», σημείωσε.