Τι συμβαίνει όταν η τεχνητή νοημοσύνη κάνει λάθη: Ο νέος «πονοκέφαλος» για τις επιχειρήσεις
- 13/03/2026, 17:44
- SHARE
- Περιστατικό στην Amazon οδήγησε σε απώλεια σχεδόν 120.000 παραγγελιών λόγω εργαλείου AI που γράφει κώδικα.
- Έρευνα της KPMG δείχνει ότι 2 στους 3 εργαζόμενους εμπιστεύονται output AI χωρίς επαρκή έλεγχο.
- Οι εταιρείες καλούνται να βρουν ισορροπία μεταξύ ταχύτητας ανάπτυξης AI και ανθρώπινης επίβλεψης
Στην εποχή της τεχνητής νοημοσύνης, το γνωστό μότο της Silicon Valley, «move fast and break things» φαίνεται να αποκτά πιο κυριολεκτική διάσταση.
Νωρίτερα μέσα στην εβδομάδα, το Business Insider αποκάλυψε ότι η Amazon αναγκάστηκε να θέσει νέους περιορισμούς στα εργαλεία της, έπειτα από μια σειρά τεχνικών προβλημάτων. Ένα από τα περιστατικά προκλήθηκε κυρίως από εργαλείο AI που γράφει κώδικα και είχε ως αποτέλεσμα να χαθούν σχεδόν 120.000 παραγγελίες.
Παρόμοια περιστατικά έχουν εμφανιστεί και σε άλλες εταιρείες καθώς ενσωματώνουν την τεχνητή νοημοσύνη στις λειτουργίες τους.
Τον Ιανουάριο, ιδρυτής εταιρείας διοργάνωσης εκδηλώσεων δήλωσε ότι ένας AI agent έκανε τέσσερα λάθη μέσα σε μία εβδομάδα, μεταξύ των οποίων και το να μοιράσει δωρεάν εισιτήρια. Το περασμένο καλοκαίρι, ο διευθύνων σύμβουλος πλατφόρμας προγραμματισμού που λειτουργεί μέσω browser ζήτησε δημόσια συγγνώμη όταν ένας AI agent διέγραψε ολόκληρη τη βάση κώδικα πελάτη και στη συνέχεια προσπάθησε να το αποκρύψει.
Το δίλημμα για τις επιχειρήσεις και η νέα πραγματικότητα για τους προγραμματιστές
Τα περιστατικά αυτά αναδεικνύουν το δύσκολο δίλημμα που αντιμετωπίζουν οι εταιρείες. Από τη μία θέλουν να αξιοποιήσουν την ταχύτητα και την παραγωγικότητα της AI, από την άλλη όμως πρέπει να περιορίσουν τους κινδύνους.
«Πρέπει να γνωρίζεις ποιο επίπεδο ρίσκου μπορεί να αντέξει ο οργανισμός σου», σημειώνει ο Ματ Ρόζενμπαουμ, principal researcher στο The Conference Board. «Εξίσου σημαντικό είναι να ξέρεις τι θα κάνεις όταν κάτι πάει στραβά και πώς θα το αποτρέψεις στο μέλλον».
Σύμφωνα με τον Τοντ Όλσον, CEO και συνιδρυτή της AI startup Pendo, η δουλειά των προγραμματιστών αλλάζει ριζικά.
Σήμερα, οι developers γράφουν λιγότερο κώδικα και αφιερώνουν περισσότερο χρόνο στον έλεγχο κώδικα που παράγεται από AI. «Πρόκειται για εντελώς διαφορετικές δεξιότητες και συνήθειες εργασίας», ανέφερε.
Το πρόβλημα γίνεται πιο έντονο επειδή η τεχνητή νοημοσύνη μπορεί να παράγει κώδικα μέσα σε δευτερόλεπτα. Όταν οι εργαζόμενοι πιέζονται από deadlines, υπάρχει ο πειρασμός να αποδεχθούν το αποτέλεσμα χωρίς ενδελεχή έλεγχο.
Οι εργαζόμενοι εμπιστεύονται υπερβολικά την AI
Σύμφωνα με παγκόσμια έρευνα της KPMG και του Πανεπιστημίου της Μελβούρνης, περίπου:
- 2 στους 3 εργαζόμενους έχουν αποδεχθεί output AI χωρίς προσεκτικό έλεγχο
- 72% δηλώνουν ότι καταβάλλουν λιγότερη προσπάθεια στη δουλειά τους λόγω AI
Η μελέτη βασίστηκε σε έρευνα σε περισσότερους από 30.000 εργαζόμενους παγκοσμίως μεταξύ Νοεμβρίου 2024 και Ιανουαρίου 2025. «Το μάθημα που παίρνουν οι εταιρείες είναι ότι η ταχύτητα χωρίς αναλυτική πειθαρχία μπορεί να δημιουργήσει συστημικούς κινδύνους», σημειώνει η Λόρεν Μπουίτα, ιδρύτρια και CEO της Girl Security.
Η ταχεία εξέλιξη των εργαλείων AI προσθέτει ακόμη μεγαλύτερη πολυπλοκότητα. Καθώς οι δυνατότητες αυξάνονται, εργαζόμενοι μπορεί να δοκιμάζουν τα όρια των συστημάτων χωρίς να κατανοούν πλήρως τις συνέπειες.
«Το ότι μπορείς να κάνεις κάτι δεν σημαίνει ότι πρέπει», τονίζει ο Κέβιν Σερβάτκα, ιδρυτής της πλατφόρμας Benchmarket και πρώην στέλεχος σε Google, Meta και Robinhood.
Όπως επισημαίνει, το ζητούμενο δεν είναι να περιοριστεί ο πειραματισμός, αλλά να υπάρξουν σαφή guardrails μέσα στις εταιρείες.
Τα λάθη ως μέρος της μάθησης και ο ρόλος της ανθρώπινης επίβλεψης
Παρά τα προβλήματα, ορισμένοι ειδικοί θεωρούν ότι τέτοιου είδους περιστατικά αποτελούν μέρος της διαδικασίας μάθησης.
Ο Όλσον εκτιμά ότι το περιστατικό της Amazon πιθανότατα θα βοηθήσει την εταιρεία να βελτιώσει τα συστήματά της. «Πιθανότατα ανακάλυψαν πολλές νέες περιπτώσεις που μπορούν να χρησιμοποιηθούν για να εκπαιδευτεί καλύτερα η AI στο μέλλον», σημείωσε.
Αντίστοιχα, ο Άντριου Φίλεβ, CEO της εταιρείας AI coding agents Zencoder, τονίζει ότι τα μικρά λάθη είναι αναπόφευκτα.
«Τα μικρά προβλήματα είναι στην πραγματικότητα χρήσιμα», λέει, υπό την προϋπόθεση ότι εντοπίζονται εγκαίρως και διορθώνονται πριν επηρεάσουν τους πελάτες.
Για να επιτευχθεί πραγματική αυτονομία των συστημάτων AI, ο Φίλεβ εκτιμά ότι οι εταιρείες πρέπει να λειτουργούν για ένα διάστημα με παράλληλο έλεγχο από AI και ανθρώπους.
«Θέλεις και οι δύο διαδικασίες να λειτουργούν παράλληλα, μέχρι η αξιολόγηση της AI να φτάσει τουλάχιστον στο επίπεδο του ανθρώπινου ελέγχου», σημειώνει.