Γιατί οι εταιρείες ΑΙ θέλουν να τις φοβάσαι
- 30/04/2026, 20:31
- SHARE
- Οι εταιρείες AI προειδοποιούν για κινδύνους ενώ ταυτόχρονα επενδύουν στην ανάπτυξη
- Ειδικοί μιλούν για «στρατηγική φόβου» που ενισχύει την ισχύ των εταιρειών
- Αμφισβητούνται οι ισχυρισμοί για νέες δυνατότητες μοντέλων όπως το Claude Mythos
Η συζήτηση γύρω από την τεχνητή νοημοσύνη μοιάζει όλο και περισσότερο με ένα παράδοξο: οι δημιουργοί της προειδοποιούν για τους κινδύνους της, ενώ ταυτόχρονα επιταχύνουν την ανάπτυξη και εμπορική της αξιοποίηση. Χαρακτηριστικό παράδειγμα αποτελεί η Anthropic, η οποία παρουσίασε το νέο της μοντέλο Claude Mythos ως εξαιρετικά ισχυρό — τόσο, ώστε να εντοπίζει ευπάθειες κυβερνοασφάλειας πέρα από τις ανθρώπινες δυνατότητες, με δυνητικά «σοβαρές» συνέπειες για οικονομία και εθνική ασφάλεια. Ωστόσο, παρόμοιες προειδοποιήσεις δεν είναι κάτι νέο.
Η «στρατηγική του φόβου»
Τα τελευταία χρόνια, κορυφαίοι παράγοντες της τεχνολογίας —από τον Σαμ Άλτμαν έως τον Ντάριο Αμοντέι— έχουν επανειλημμένα προειδοποιήσει ότι η AI θα μπορούσε ακόμη και να απειλήσει την ανθρωπότητα. Το 2023, δεκάδες ηγέτες του κλάδου, μεταξύ των οποίων ο Μπιλ Γκείτς και ο Ντέμις Χασάμπις, υπέγραψαν δήλωση που εξισώνει τον κίνδυνο της AI με πανδημίες και πυρηνικό πόλεμο. Παράλληλα, προσωπικότητες όπως ο Έλον Μασκ κάλεσαν σε προσωρινή παύση της ανάπτυξης προηγμένων συστημάτων — ενώ συνέχισαν να επενδύουν στον τομέα. Για επικριτές, αυτό δεν είναι τυχαίο. Η προβολή ενός «αποκαλυπτικού» σεναρίου αποσπά την προσοχή από πιο άμεσα και υπαρκτά προβλήματα: περιβαλλοντικό αποτύπωμα, εκμετάλλευση εργασίας, παραπληροφόρηση.
Υπερβολή ή πραγματικός κίνδυνος;
Η καθηγήτρια Emily M Bender υποστηρίζει ότι η βιομηχανία AI συστηματικά υπερβάλλει για τις δυνατότητες των προϊόντων της, δημιουργώντας ένα αφήγημα παντοδυναμίας.Αντίστοιχα, η Shannon Vallor από το Πανεπιστήμιο του Εδιμβούργου επισημαίνει ότι η παρουσίαση της τεχνολογίας ως «υπερφυσικής απειλής» οδηγεί το κοινό στο να αισθάνεται ανήμπορο — και τελικά να εμπιστεύεται τις ίδιες τις εταιρείες ως μοναδικούς «σωτήρες».
Αμφιβολίες για τις επιδόσεις
Παρά τους εντυπωσιακούς ισχυρισμούς της Anthropic, δεν λείπουν οι αμφισβητήσεις. Η Heidy Khlaaf από το AI Now Institute επισημαίνει ότι η εταιρεία δεν δημοσιοποίησε βασικούς δείκτες αξιολόγησης, όπως τα ποσοστά ψευδών θετικών αποτελεσμάτων. Χωρίς αυτά τα δεδομένα, λέει, είναι δύσκολο να εκτιμηθεί η πραγματική αξία του συστήματος σε σύγκριση με υπάρχοντα εργαλεία κυβερνοασφάλειας.
Από την αποστολή στην αγορά
Τόσο η OpenAI όσο και η Anthropic ιδρύθηκαν με στόχο την «ασφαλή ανάπτυξη» της AI. Ωστόσο, σήμερα κινούνται προς πιο εμπορικά μοντέλα, διεκδικώντας μερίδιο σε μια ταχύτατα αναπτυσσόμενη αγορά. Όπως σημειώνει η Vallor, το κλειδί για να κατανοήσει κανείς τη συμπεριφορά τους είναι τα κίνητρα: η κυριαρχία στην αγορά δύσκολα συμβαδίζει με την αυτοσυγκράτηση.
Μεταξύ ουτοπίας και καταστροφής
Την ίδια στιγμή, οι ίδιες φωνές που προειδοποιούν για καταστροφή υπόσχονται και θεαματικές προόδους — από την επίλυση της κλιματικής κρίσης έως αποικίες στο διάστημα. Αυτή η διπλή αφήγηση —καταστροφή ή σωτηρία— δημιουργεί ένα περιβάλλον όπου η τεχνολογία φαίνεται πέρα από τον ανθρώπινο έλεγχο. Όμως, όπως επισημαίνουν οι ειδικοί, η AI δεν είναι «μύθος» ούτε αναπόφευκτη μοίρα: είναι προϊόντα εταιρειών, που μπορούν —και πρέπει— να ρυθμιστούν.