Ανάμεσα σε αλγόριθμους και αξίες: Το νέο κοινωνικό συμβόλαιο του HR στην εποχή της τεχνητής νοημοσύνης
- 08/11/2025, 10:38
- SHARE
Του Δημήτρη Πάφρα και Θοδωρή Αντωνίου*
Η Τεχνητή Νοημοσύνη (AI) και η ανθρώπινη ευφυΐα (Human Intelligence – HI) δεν χρειάζονται πλέον να βρίσκονται σε αντιπαράθεση. Στην πραγματικότητα, οι οργανισμοί που θα υπερβούν το δίλημμα «μηχανή ή άνθρωπος» θα είναι αυτοί που θα καθορίζουν το επόμενο κύμα της εργασίας — σε απόδοση, σε καινοτομία και σε κοινωνική ευθύνη.
Η AI ως καταλύτης αλλαγής — με κρίση και νόημα
Η τεχνητή νοημοσύνη δεν είναι πια υπόσχεση είναι παρούσα. Επηρεάζει κάθε πτυχή της εργασίας — από την επιλογή υποψηφίων έως την προσωπική ανάπτυξη, από τις καθημερινές λειτουργίες έως την εταιρική στρατηγική. Καθώς οι πλατφόρμες παραγωγικότητας, οι αυτοματοποιημένες διαδικασίες και τα εργαλεία GenAI (όπως ChatGPT, Google Gemini, Microsoft Copilot) διεισδύουν στις ροές εργασίας, η πρόσβαση σε «έξυπνη» πληροφορία έχει γίνει μαζική. Η ισότητα στην πληροφορία («information parity») ενισχύει την ταχύτητα αλλά συχνά περιορίζει τη διαφοροποίηση και εδώ αρχίζει η πραγματική κρίση.
Με άλλα λόγια: η τεχνολογία δεν είναι απλώς εργαλείο είναι καθρέφτης της ωριμότητας μιας οργάνωσης. Οι νικητές δεν θα είναι αυτοί που απλά εφαρμόζουν περισσότερα pilots, αλλά αυτοί που μεταμορφώνουν την τεχνολογία σε μηχανισμό ανάπτυξης με νόημα.
Οι 8 κίνδυνοι της AI στο ανθρώπινο δυναμικό
Η τεχνητή νοημοσύνη μπορεί να διευρύνει τις δυνατότητες του HR — αλλά μόνο αν η εφαρμογή της συνοδεύεται από κρίσιμη σκέψη και λειτουργικό εσωτερικό πλαίσιο. Παραθέτουμε τα κρίσιμα ρίσκα που απαιτούν έγκαιρη επιχειρησιακή και ηγετική ανταπόκριση:
- Information parity (ισοτιμία πληροφορίας): Όταν όλοι χρησιμοποιούν τα ίδια μοντέλα, οι στρατηγικές διαφοροποίησης χάνονται.
- Cognitive decline (γνωστική υποβάθμιση): Η υπερβολική εξάρτηση από την AI μπορεί να αποδυναμώσει τη δημιουργική και κριτική σκέψη των ανθρώπων.
- Παραπλανητική πληροφορία: Η AI μπορεί να παραγάγει πειστικά αλλά ελλιπή ή λανθασμένα δεδομένα — χωρίς τον ανθρώπινο έλεγχο, αυτό γίνεται πρόβλημα.
- Ψευδές συναίσθημα: Όταν η «ενσυναίσθηση» παρέχεται από bot και όχι από άνθρωπο, η εταιρική κουλτούρα κινδυνεύει.
- Ιδιωτικότητα: Τα HR-συστήματα που “μαθαίνουν” από δεδομένα εργαζομένων θέτουν το ερώτημα: ποιος έχει πρόσβαση και με ποιο σκοπό;
- Fake vs Real: Τα deepfakes, τα παραποιημένα βιογραφικά και οι αξιολογήσεις χωρίς αυθεντικότητα υποσκάπτουν την εμπιστοσύνη.
- Recycling the past (ανακύκλωση του παρελθόντος): Η AI μαθαίνει από δεδομένα του χθες. Χωρίς έμπνευση, η επιχείρηση επαναλαμβάνει το χθες.
- Accountability diffusion (διάχυση ευθύνης): Όταν μια απόφαση λαμβάνεται «από τον αλγόριθμο», ποιος τελικά ευθύνεται; Ο προμηθευτής του λογισμικού, ο HR διευθυντής ή ο οργανισμός;
Το ρυθμιστικό και διακυβερνητικό περιβάλλον που δεν μπορούμε να αγνοήσουμε
Η εποχή όπου η AI στο HR θεωρούνταν «εργαλείο επιλογής» έχει παρέλθει. Σήμερα, η χρήση της υπόκειται σε κανονιστικές απαιτήσεις και εταιρτική λογοδοσία.
- Στην Ευρωπαϊκή Ένωση, ο EU AI Act προβλέπει υποχρεώσεις για «high-risk» συστήματα, που περιλαμβάνουν και πολλά εργαλεία HR.
- Στις ΗΠΑ (Νέα Υόρκη), με το Local Law 144, απαιτείται ετήσιος έλεγχος προκατάληψης (bias audit) για συστήματα αυτόματων αποφάσεων στην εργασία.
-
Τα διεθνή πρότυπα όπως NIST AI Risk Management Framework και ISO/IEC 23894 αναδεικνύουν τον τρόπο με τον οποίο η διακυβέρνηση της AI αποτελεί συστατικό μέρος της εταιρικής στρατηγικής.
Όπως συχνά επισημαίνει η διοίκηση επιχειρήσεων: «Το HR δεν είναι πια μόνο – υποστήριξη λειτουργίας είναι – υποδομή λογοδοσίας». Αυτή η αλλαγή ρόλου απαιτεί αντίστοιχη αναβάθμιση.
Μετασχηματισμός από «ένα εργαλείο» σε «κουλτούρα AI»
Η διαφορά μεταξύ pilot και στρατηγικής υιοθέτησης βρίσκεται στην κλίμακα και στην κυριαρχία των αρχών. Η μηχανή από μόνη της δεν φέρνει ανταγωνιστικό πλεονέκτημα το φέρνει η οργάνωση που την ενσωματώνει με αρχές.
«Το πραγματικό ρίσκο δεν είναι η τεχνολογία είναι οι σιωπηρές αποφάσεις που παίρνονται χωρίς διαδικασία».
Για αυτό, χρειάζονται:
- Καταγραφή όλων των AI-use-cases στον κύκλο ζωής του εργαζομένου.
- Κατηγοριοποίηση και φιλοσοφία διαχείρισης κινδύνου (π.χ., high-risk vs standard).
- Συμφωνίες με προμηθευτές που περιλαμβάνουν audit, διαφάνεια και ρήτρες.
- Ενεργή συμμετοχή ανθρώπινου παράγοντα (human-in-the-loop) στην κρίσιμη απόφαση.
- Ενημέρωση και διαφάνεια στους εργαζόμενους και υποψηφίους.
-
Ετοιμότητα για incident response: όσο υψηλότερη η αυτοματοποίηση, τόσο μεγαλύτερη η ευθύνη.
AI + HI: Οι 6 KPI που πρέπει να παρακολουθούνται από το HR
- Fairness Ratio (adverse impact) ανά προστατευμένη κατηγορία
- % αποφάσεων με τεκμηριωμένη εξήγηση (explainability)
- Rate ανθρώπινης υπερέμβασης έναντι αυτοματοποιημένης απόφασης
- Time-to-drift alert / re-training interval
- Αριθμός ιδιωτικών περιστατικών (privacy incidents) ανά τρίμηνο
- Συμμόρφωση προμηθευτών (% vendors με audit + συμβόλαια)
Talent Advantage = AI × HI
Η εξίσωση της επόμενης γενιάς είναι απλή αλλά αποφασιστική:
Talent Advantage = AI × HI
(Artificial Intelligence × Human Ingenuity)
Η AI φέρνει δεδομένα, ταχύτητα, προβλεψιμότητα. Η ανθρώπινη ευφυΐα φέρνει κρίση, δημιουργικότητα, ηθική.
Ο πραγματικός μετασχηματισμός ξεκινά όταν οι δύο αυτές δυνάμεις δεν απλά συνυπάρχουν — συνεργάζονται. Η τεχνολογία δεν είναι απλώς απειλή για την εργασία είναι καθρέφτης της ωριμότητας ενός οργανισμού.
Το στοίχημα του μέλλοντος δεν είναι η αντικατάσταση του ανθρώπου, αλλά η ενίσχυσή του μέσω της τεχνολογίας. Όσοι οργανισμοί επενδύσουν εξίσου στην AI και στην HI με ηγεσία, διακυβέρνηση και όραμα, θα διαμορφώσουν ένα μέλλον πιο αποδοτικό, πιο δημιουργικό και πραγματικά ανθρώπινο.
*Ο Δημήτρης Πάφρας είναι Υποψήφιος Διδάκτορας Πανεπιστημίου Θεσσαλίας και ο Θοδωρής Αντωνίου, Διευθυντής Μονάδας εκτροφής ιχθύων