AI απειλή; Τα chatbot τεχνητής νοημοσύνης θα μπορούσαν να συμβάλλουν στον σχεδιασμό επιθέσεων με βιολογικά όπλα, σύμφωνα με έκθεση

AI απειλή; Τα chatbot τεχνητής νοημοσύνης θα μπορούσαν να συμβάλλουν στον σχεδιασμό επιθέσεων με βιολογικά όπλα, σύμφωνα με έκθεση
Photo: pixabay.com
Tα προκαταρκτικά ευρήματα έδειξαν επίσης ότι τα LLM δεν παρήγαγαν ρητές οδηγίες για τη δημιουργία βιολογικών όπλων.

Τα μοντέλα τεχνητής νοημοσύνης που τροφοδοτούν τα chatbot θα μπορούσαν να βοηθήσουν στον σχεδιασμό μιας επίθεσης με βιολογικό όπλο, σύμφωνα με έρευνα μιας αμερικανικής δεξαμενής σκέψης.

Μια έκθεση του Rand Corporation που κυκλοφόρησε τη Δευτέρα δοκίμασε πολλά μεγάλα γλωσσικά μοντέλα (LLM) και διαπίστωσε ότι θα μπορούσαν να παρέχουν οδηγίες που «θα μπορούσαν να βοηθήσουν στον σχεδιασμό και την εκτέλεση μιας βιολογικής επίθεσης». Ωστόσο, τα προκαταρκτικά ευρήματα, όπως μεταδίδει ο Guardian, έδειξαν επίσης ότι τα LLM δεν παρήγαγαν ρητές οδηγίες για τη δημιουργία βιολογικών όπλων.

Η έκθεση ανέφερε ότι προηγούμενες απόπειρες μετατροπής βιολογικών παραγόντων σε όπλα -όπως η απόπειρα της ιαπωνικής αίρεσης Αούμ Σινρικίο να χρησιμοποιήσει τοξίνη αλλαντίασης τη δεκαετία του 1990- απέτυχαν λόγω έλλειψης κατανόησης του βακτηρίου. Η τεχνητή νοημοσύνη θα μπορούσε «να γεφυρώσει γρήγορα τέτοια κενά γνώσης», ανέφερε η έκθεση.

Τα βιολογικά όπλα είναι μεταξύ των σοβαρών απειλών που σχετίζονται με την τεχνητή νοημοσύνη που θα συζητηθούν στην παγκόσμια σύνοδο για την ασφάλεια της τεχνητής νοημοσύνης τον επόμενο μήνα στο Ηνωμένο Βασίλειο. Τον Ιούλιο, ο διευθύνων σύμβουλος της εταιρείας AI Anthropic προειδοποίησε ότι τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να βοηθήσουν στη δημιουργία βιολογικών όπλων σε δύο έως τρία χρόνια.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Τα LLM εκπαιδεύονται σε τεράστιες ποσότητες δεδομένων που λαμβάνονται από το διαδίκτυο και αποτελούν τη βασική τεχνολογία πίσω από τα chatbot, όπως το ChatGPT. Αν και το Rand δεν αποκάλυψε ποια LLM δοκίμασε, οι ερευνητές είπαν ότι είχαν πρόσβαση στα μοντέλα μέσω μιας διεπαφής προγραμματισμού εφαρμογών.

Σε ένα σενάριο δοκιμής που επινόησε το Rand, το ανώνυμα LLM εντόπισε πιθανούς βιολογικούς παράγοντες – συμπεριλαμβανομένων αυτών που προκαλούν ευλογιά, άνθρακα και πανώλη – και συζήτησε τις σχετικές πιθανότητες πρόκλησης μαζικών θανάτων. Το LLM αξιολόγησε επίσης τη δυνατότητα απόκτησης τρωκτικών ή ψύλλων μολυσμένων από πανώλη και μεταφοράς ζωντανών δειγμάτων. Στη συνέχεια, ανέφερε ότι η κλίμακα των προβλεπόμενων θανάτων εξαρτιόταν από παράγοντες όπως το μέγεθος του πληγέντος πληθυσμού και το ποσοστό των περιπτώσεων πνευμονικής πανώλης, που είναι πιο θανατηφόρα από τη βουβωνική πανώλη.

Οι ερευνητές του Rand παραδέχτηκαν ότι η εξαγωγή αυτών των πληροφοριών από ένα LLM απαιτούσε “jailbreaking” – ο όρος για τη χρήση προτροπών κειμένου που παρακάμπτουν τους περιορισμούς ασφαλείας ενός chatbot.

«Παραμένει ένα ανοιχτό ερώτημα κατά πόσο οι δυνατότητες των υφιστάμενων LLM αντιπροσωπεύουν ένα νέο επίπεδο απειλής πέρα από τις επιβλαβείς πληροφορίες που είναι άμεσα διαθέσιμες στο διαδίκτυο», είπαν οι ερευνητές.

Ωστόσο, είπαν ότι η ανάγκη για αυστηρές δοκιμές μοντέλων είναι «σαφής» και ότι οι εταιρείες τεχνητής νοημοσύνης πρέπει να περιορίσουν τη διαθεσιμότητα των LLM για συνομιλίες όπως αυτές στην έκθεσή τους.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:

Πηγή: theguardian.com