AI και πόλεμος: Πώς η τεχνητή νοημοσύνη αλλάζει τη φύση των συγκρούσεων
- 15/03/2026, 14:00
- SHARE
Η συζήτηση για τη ρύθμιση της τεχνητής νοημοσύνης αποκτά νέα επείγουσα διάσταση, καθώς η τεχνολογία αρχίζει να χρησιμοποιείται ολοένα και περισσότερο σε στρατιωτικές επιχειρήσεις και γεωπολιτικές συγκρούσεις.
Η κλιμάκωση της σύγκρουσης γύρω από το Ιράν, με τη συμμετοχή των Ηνωμένων Πολιτειών και του Ισραήλ, αναδεικνύει την ταχύτητα με την οποία η τεχνητή νοημοσύνη μετατρέπεται από θεωρητικό εργαλείο σε επιχειρησιακό παράγοντα στο πεδίο της μάχης, σύμφωνα με ανάλυση του Guardian.
Προειδοποίηση από τον ΟΗΕ
Ο γενικός γραμματέας του ΟΗΕ Αντόνιο Γκουτέρες προειδοποίησε πρόσφατα ότι η διεθνής κοινότητα πρέπει να κινηθεί ταχύτερα για τη ρύθμιση της τεχνητής νοημοσύνης.
«Ποτέ στο μέλλον δεν θα κινηθούμε τόσο αργά όσο κινούμαστε τώρα», ανέφερε, υπογραμμίζοντας την ανάγκη για διεθνές πλαίσιο που θα καθορίζει τα όρια χρήσης της τεχνολογίας.
Διαμάχη τεχνολογικών εταιρειών και στρατού
Η αυξανόμενη στρατιωτική χρήση της AI έχει ήδη προκαλέσει έντονη αντιπαράθεση μεταξύ τεχνολογικών εταιρειών και των αμερικανικών αρχών.
Η εταιρεία Anthropic αρνήθηκε να άρει τους περιορισμούς που εμποδίζουν τη χρήση της τεχνολογίας της για μαζική παρακολούθηση στο εσωτερικό των ΗΠΑ ή για αυτόνομα θανατηφόρα όπλα.
Το Πεντάγωνο υποστήριξε ότι τέτοιες αποφάσεις δεν μπορούν να λαμβάνονται μονομερώς από εταιρείες τεχνολογίας και προχώρησε σε αποκλεισμό της εταιρείας από συμβάσεις, χαρακτηρίζοντάς την κίνδυνο για την αλυσίδα εφοδιασμού.
Η OpenAI παρενέβη στη συζήτηση, επιμένοντας ότι διατηρεί παρόμοια όρια χρήσης, ωστόσο ο διευθύνων σύμβουλος Sam Altman παραδέχθηκε ότι η εταιρεία δεν έχει πλήρη έλεγχο στον τρόπο με τον οποίο το Πεντάγωνο αξιοποιεί τα προϊόντα της.
Πόλεμοι «ταχύτεροι από τη σκέψη»
Η τεχνητή νοημοσύνη χρησιμοποιείται πλέον για μια σειρά στρατιωτικών λειτουργιών:
- εντοπισμό και ιεράρχηση στόχων
- επιλογή κατάλληλων όπλων
- αξιολόγηση νομικών παραμέτρων για επιθέσεις
Σύμφωνα με ειδικούς, οι σύγχρονες στρατιωτικές επιχειρήσεις μπορούν να εξελιχθούν σε βομβαρδισμούς «ταχύτερους από την ταχύτητα της σκέψης», καθώς τα συστήματα AI επιταχύνουν δραστικά τη διαδικασία λήψης αποφάσεων.
Η Nicole van Rooijen, εκτελεστική διευθύντρια της οργάνωσης Stop Killer Robots, προειδοποιεί ότι ο ανθρώπινος έλεγχος κινδυνεύει να περιοριστεί σε τυπική διαδικασία.
«Το ζήτημα δεν είναι μόνο αν αυτά τα όπλα θα χρησιμοποιηθούν, αλλά πώς τα συστήματα που προηγούνται ήδη μεταμορφώνουν τον τρόπο διεξαγωγής των πολέμων», σημείωσε.
Ηθικά και πολιτικά διλήμματα
Η χρήση της τεχνητής νοημοσύνης στο πεδίο μάχης εγείρει σημαντικά ηθικά ζητήματα.
Σύμφωνα με μαρτυρίες που επικαλείται ο Guardian από πηγές των ισραηλινών μυστικών υπηρεσιών, τα συστήματα τεχνητής νοημοσύνης μπορούν να δημιουργούν τεράστιες λίστες στόχων.
«Οι στόχοι δεν τελειώνουν ποτέ. Έχεις άλλους 36.000 που περιμένουν», ανέφερε χαρακτηριστικά μια πηγή.
Ένας άλλος αξιωματικός δήλωσε ότι αφιέρωνε μόλις 20 δευτερόλεπτα για την αξιολόγηση κάθε στόχου, προσθέτοντας ότι ο ρόλος του ανθρώπου περιοριζόταν ουσιαστικά σε μια «σφραγίδα έγκρισης».
Η ανάγκη διεθνούς ρύθμισης
Καθώς η χρήση της τεχνητής νοημοσύνης στον πόλεμο επιταχύνεται, αυξάνονται οι εκκλήσεις για δημοκρατική εποπτεία και διεθνείς κανόνες.
Πολλές κυβερνήσεις ζητούν σαφείς κατευθυντήριες γραμμές για τη στρατιωτική χρήση της AI, καθώς η ταχύτητα των αποφάσεων που βασίζονται σε αλγορίθμους δημιουργεί τον κίνδυνο ανεξέλεγκτης κλιμάκωσης συγκρούσεων.
Ειδικοί στον τομέα της τεχνολογίας και της άμυνας προειδοποιούν ότι χωρίς σαφείς κανόνες, η επόμενη γενιά πολέμων μπορεί να εξελιχθεί με ρυθμούς που θα υπερβαίνουν την ικανότητα των πολιτικών και στρατιωτικών ηγεσιών να ελέγξουν τις συνέπειες.