ΗΠΑ: Δικαστικό μπλόκο σε κυρώσεις Τραμπ κατά της Anthropic για χρήση AI στον πόλεμο

ΗΠΑ: Δικαστικό μπλόκο σε κυρώσεις Τραμπ κατά της Anthropic για χρήση AI στον πόλεμο
This photograph shows a figurine in front of the logo of the US artificial intelligence safety and research company Anthropic during a photo session in Paris on February 13, 2026. (Photo by JOEL SAGET / AFP) Photo: AFP
Σε μια απόφαση με σημαντικές προεκτάσεις για τη χρήση της τεχνητής νοημοσύνης στον πόλεμο, αμερικανικό δικαστήριο μπλόκαρε τις κυρώσεις κατά της Anthropic.
  • Δικαστήριο μπλοκάρει κυρώσεις της κυβέρνησης Ντόναλντ Τραμπ
  • Η Anthropic αρνήθηκε χρήση AI σε στρατιωτικές επιχειρήσεις
  • Διαμάχη με το Πεντάγωνο για αυτόνομα όπλα
  • Κρίσιμο προηγούμενο για τον ρόλο της AI στην άμυνα

Νομική νίκη με ευρύτερη σημασία πέτυχε η Anthropic, καθώς ομοσπονδιακό δικαστήριο των Ηνωμένες Πολιτείες εμπόδισε προσωρινά την κυβέρνηση του Ντόναλντ Τραμπ να επιβάλει κυρώσεις εις βάρος της εταιρείας τεχνητής νοημοσύνης.

Η απόφαση της δικαστού Ρίτα Λιν, από τη Βόρεια Περιφέρεια της Καλιφόρνιας, βασίστηκε στην εκτίμηση ότι η επιβολή των κυρώσεων θα μπορούσε να προκαλέσει σοβαρή οικονομική ζημία και ανεπανόρθωτη βλάβη στη φήμη της εταιρείας, θέτοντας σε κίνδυνο τη βιωσιμότητά της.

Σύμφωνα με τους Financial Times, η Anthropic είχε χαρακτηριστεί από την αμερικανική κυβέρνηση ως «κίνδυνος για την αλυσίδα εφοδιασμού» — μια κατηγορία που συνήθως αποδίδεται σε εταιρείες με δεσμούς με εχθρικά κράτη.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Η σύγκρουση με το Πεντάγωνο

Η υπόθεση συνδέεται άμεσα με τη ρήξη μεταξύ της εταιρείας και του Πεντάγωνο, καθώς οι διαπραγματεύσεις μεταξύ των δύο πλευρών κατέρρευσαν όταν η Anthropic αρνήθηκε να επιτρέψει τη χρήση της τεχνολογίας της σε θανατηφόρα αυτόνομα όπλα και σε προγράμματα μαζικής επιτήρησης.

Η στάση αυτή αναδεικνύει το αυξανόμενο χάσμα μεταξύ του τεχνολογικού τομέα και των στρατιωτικών αναγκών, ειδικά σε μια περίοδο όπου η τεχνητή νοημοσύνη αποκτά ολοένα και πιο κεντρικό ρόλο στις γεωπολιτικές ισορροπίες.

Το προηγούμενο της τεχνητής νοημοσύνης στον πόλεμο

Το μοντέλο Claude της Anthropic έχει ήδη χρησιμοποιηθεί σε απόρρητες στρατιωτικές επιχειρήσεις, συμπεριλαμβανομένων αποστολών που σχετίζονται με τον πόλεμο στο Ιράν, γεγονός που καταδεικνύει τη σημασία της τεχνολογίας αυτής για τις σύγχρονες στρατιωτικές εφαρμογές.

Ωστόσο, η άρνηση της εταιρείας να επεκτείνει τη χρήση της σε επιθετικά ή αυτόνομα οπλικά συστήματα θέτει σαφή όρια στη στρατιωτική αξιοποίηση της AI, ανοίγοντας μια ευρύτερη συζήτηση για τα ηθικά και νομικά όρια της τεχνολογίας.

Η υπόθεση αναμένεται να συνεχιστεί, καθώς η κυβέρνηση Τραμπ πιθανότατα θα ασκήσει έφεση, μετατρέποντας τη διαμάχη σε σημείο αναφοράς για το μέλλον της τεχνητής νοημοσύνης στην άμυνα και την εθνική ασφάλεια.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: