Το «Τσερνόμπιλ της AI»: Ο μεγαλύτερος φόβος των ηγετών της τεχνολογίας
- 07/03/2026, 19:00
- SHARE
-
Οι ειδικοί φοβούνται ότι ένα καταστροφικό γεγονός τύπου «Τσερνόμπιλ» για την τεχνητή νοημοσύνη θα μπορούσε να πλήξει σοβαρά ολόκληρο τον κλάδο.
-
Η AI χρησιμοποιείται ήδη σε στρατιωτικές επιχειρήσεις, κυβερνοεπιθέσεις και δυνητικά στην ανάπτυξη βιολογικών όπλων, αυξάνοντας τους κινδύνους.
-
Παρά τις προειδοποιήσεις των επιστημόνων, η κυβέρνηση Trump επιδιώκει ταχύτερη ανάπτυξη στρατιωτικών εφαρμογών AI, κάτι που πολλοί θεωρούν ιδιαίτερα επικίνδυνο.
Η βιομηχανία της τεχνητής νοημοσύνης δεν είναι ξένη στις αρνητικές ειδήσεις: από φόβους για μαζικές απώλειες θέσεων εργασίας έως ανησυχίες για κρίση ψυχικής υγείας, αυτοκτονίες και ακόμη και δολοφονίες που συνδέονται με την τεχνολογία.
Ωστόσο, σύμφωνα με νέο ρεπορτάζ του The Economist, αυτό που απασχολεί περισσότερο τους ηγέτες του κλάδου είναι ένα ακόμη πιο ανησυχητικό ενδεχόμενο: η τεχνητή νοημοσύνη να εμπλακεί σύντομα σε ένα γεγονός τύπου “Τσερνόμπιλ” — μια αναφορά στην πυρηνική καταστροφή του Chernobyl disaster το 1986, που έχει γίνει συνώνυμη με τις αποτυχίες της πυρηνικής βιομηχανίας.
Οι ειδικοί προειδοποιούν ότι καθώς η τεχνητή νοημοσύνη διεισδύει ολοένα και περισσότερο σε κάθε πτυχή της κοινωνίας, αυξάνεται σημαντικά η πιθανότητα μιας καταστροφικής και εξαιρετικά ορατής τραγωδίας που θα στιγματίσει ολόκληρο τον κλάδο.
«Η καταστροφή του Hindenburg disaster κατέστρεψε το παγκόσμιο ενδιαφέρον για τα αερόπλοια. Από εκείνη τη στιγμή θεωρήθηκαν νεκρή τεχνολογία — και ένα παρόμοιο σημείο καμπής αποτελεί πραγματικό κίνδυνο για την τεχνητή νοημοσύνη», δήλωσε στον The Guardian ο καθηγητής πληροφορικής στο University of Oxford Michael Wooldridge.
Ο φόβος μεγαλώνει λόγω πολέμου και AI
Ο κίνδυνος γίνεται ακόμη πιο έντονος καθώς η τεχνητή νοημοσύνη ενσωματώνεται όλο και περισσότερο σε στρατιωτικές επιχειρήσεις.
Στον πόλεμο της κυβέρνησης Donald Trump κατά του Iran, το Pentagon φέρεται να χρησιμοποιεί το chatbot Claude της Anthropic για την επιλογή στόχων σε στρατιωτικές επιθέσεις.
Και αν αυτό ακούγεται επικίνδυνο, πολλοί συμφωνούν.
Όταν ο αμερικανικός στρατός σκότωσε περισσότερους από 160 ανθρώπους — ανάμεσά τους δεκάδες παιδιά — μετά από επίθεση σε δημοτικό σχολείο στο Ιράν, αρνήθηκε να απαντήσει αν η τεχνητή νοημοσύνη χρησιμοποιήθηκε στον σχεδιασμό της επιχείρησης.
Πολλαπλοί κίνδυνοι από την τεχνητή νοημοσύνη
Πέρα από τον πόλεμο, υπάρχουν και άλλοι σοβαροί κίνδυνοι.
Μεταξύ αυτών:
-
η χρήση AI για την ανάπτυξη βιολογικών όπλων, ένα ζήτημα που συζητείται εδώ και χρόνια από ερευνητές
-
το γεγονός ότι chatbots από εταιρείες όπως Google, OpenAI, Anthropic και xAI μπορούν να απαντήσουν σε αιτήματα σχετικά με βιολογικά όπλα
-
η ενίσχυση κυβερνοεπιθέσεων, malware και ransomware
-
η μαζική διάδοση phishing επιθέσεων
-
και η εκμετάλλευση κενών ασφαλείας σε δίκτυα
Όλα αυτά οδηγούν αρκετούς ηγέτες της τεχνολογίας να πιστεύουν ότι ένα γεγονός τύπου Τσερνόμπιλ για την τεχνητή νοημοσύνη δεν είναι πλέον θέμα “αν”, αλλά “πότε”.
Οι προειδοποιήσεις των ίδιων των δημιουργών της AI
Ο CEO της Anthropic, Dario Amodei, προειδοποίησε σε ένα εκτενές δοκίμιο 19.000 λέξεων νωρίτερα φέτος ότι: «Η ανθρωπότητα πρόκειται να αποκτήσει σχεδόν αδιανόητη ισχύ — και δεν είναι καθόλου σαφές αν τα κοινωνικά, πολιτικά και τεχνολογικά μας συστήματα έχουν την ωριμότητα να τη διαχειριστούν.»
Στο κείμενό του, ο Amodei περιέγραψε αρκετούς υπαρξιακούς κινδύνους που μπορεί να δημιουργήσει η τεχνητή νοημοσύνη, όπως:
-
συγκέντρωση τεράστιας οικονομικής ισχύος
-
ανάπτυξη επικίνδυνων βιολογικών όπλων
-
δημιουργία προηγμένων στρατιωτικών συστημάτων
Πολιτική πίεση για ταχύτερη ανάπτυξη
Παρά τις προειδοποιήσεις των ειδικών, η κυβέρνηση Trump φαίνεται να κινείται προς την αντίθετη κατεύθυνση.
Ο αντιπρόεδρος JD Vance έχει χαρακτηρίσει τις ανησυχίες για την ασφάλεια της AI «υπερβολική ανησυχία», ενώ ο υπουργός Άμυνας Pete Hegseth τις έχει αποδώσει σε «αριστερούς εξτρεμιστές».
Μάλιστα, ο Hegseth έχει δηλώσει ότι οι ΗΠΑ θα «επιταχύνουν όσο πιο γρήγορα γίνεται» την ανάπτυξη τεχνητής νοημοσύνης.
Μια στρατηγική που — σύμφωνα με μεγάλο μέρος της ερευνητικής κοινότητας της AI — θα μπορούσε να οδηγήσει σε καταστροφικές συνέπειες.