Το AI στον «χορό» του πολέμου – Το Ισραήλ χρησιμοποίησε τεχνητή νοημοσύνη για να εντοπίσει 37.000 στόχους της Χαμάς

Το AI στον «χορό» του πολέμου – Το Ισραήλ χρησιμοποίησε τεχνητή νοημοσύνη για να εντοπίσει 37.000 στόχους της Χαμάς
A picture taken from Rafah in the southern Gaza Strip shows smoke rising over buildings in Khan Yunis following Israeli bombardment on February 5, 2024, as fighting continues between Israel and the Palestinian Hamas group. (Photo by Said KHATIB / AFP) Photo: AFP
Πηγές των ισραηλινών μυστικών υπηρεσιών αποκαλύπτουν τη χρήση του συστήματος «Lavender» στον πόλεμο της Γάζας και υποστηρίζουν ότι δόθηκε άδεια για τη δολοφονία αμάχων.

Η εκστρατεία βομβαρδισμών του ισραηλινού στρατού στη Γάζα χρησιμοποίησε μια προηγουμένως μη αποκαλυφθείσα βάση δεδομένων με τεχνητή νοημοσύνη, η οποία σε ένα στάδιο αναγνώρισε 37.000 πιθανούς στόχους με βάση τους προφανείς δεσμούς τους με τη Χαμάς, σύμφωνα με πηγές πληροφοριών που συμμετείχαν στον πόλεμο.

Σύμφωνα με τον Guardian, εκτός του ότι μιλούν για τη χρήση του συστήματος τεχνητής νοημοσύνης, που ονομάζεται Lavender, οι πηγές των μυστικών υπηρεσιών ισχυρίζονται ότι οι Ισραηλινοί στρατιωτικοί αξιωματούχοι επέτρεψαν τη θανάτωση μεγάλου αριθμού Παλαιστινίων αμάχων, ιδίως κατά τις πρώτες εβδομάδες και μήνες της σύγκρουσης.

Η ασυνήθιστα ειλικρινής μαρτυρία τους παρέχει μια σπάνια ματιά στις εμπειρίες από πρώτο χέρι των αξιωματούχων των ισραηλινών μυστικών υπηρεσιών που χρησιμοποιούσαν συστήματα μηχανικής μάθησης για να βοηθήσουν στον εντοπισμό στόχων κατά τη διάρκεια του εξάμηνου πολέμου.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Η χρήση ισχυρών συστημάτων τεχνητής νοημοσύνης από το Ισραήλ στον πόλεμό του κατά της Χαμάς έχει εισέλθει σε αχαρτογράφητο έδαφος για τον προηγμένο πόλεμο, εγείροντας πλήθος νομικών και ηθικών ερωτημάτων και μεταμορφώνοντας τη σχέση μεταξύ στρατιωτικού προσωπικού και μηχανών.

“Αυτό δεν έχει προηγούμενο στη μνήμη μου”, δήλωσε ένας αξιωματικός των μυστικών υπηρεσιών που χρησιμοποίησε το Lavender, προσθέτοντας ότι πίστευαν περισσότερο σε έναν “στατιστικό μηχανισμό” παρά σε έναν πενθούντα στρατιώτη. “Όλοι εκεί, συμπεριλαμβανομένου και εμού, έχασαν ανθρώπους στις 7 Οκτωβρίου. Η μηχανή το έκανε ψυχρά. Και αυτό το έκανε πιο εύκολο”.

Ένας άλλος χρήστης του Lavender αμφισβήτησε κατά πόσο ο ρόλος των ανθρώπων στη διαδικασία επιλογής είχε νόημα. “Θα επένδυα 20 δευτερόλεπτα για κάθε στόχο σε αυτό το στάδιο και θα έκανα δεκάδες από αυτούς κάθε μέρα. Είχα μηδενική αξία ως άνθρωπος, εκτός από το να είμαι μια σφραγίδα έγκρισης. Έτσι εξοικονομούσα πολύ χρόνο”.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: