Τεχνητή Νοημοσύνη: Τεχνολογικό αγαθό, ανθρώπινο δικαίωμα, ή κάτι το εντελώς διαφορετικό;

Τεχνητή Νοημοσύνη: Τεχνολογικό αγαθό, ανθρώπινο δικαίωμα, ή κάτι το εντελώς διαφορετικό;
Photo: DALL•E
Το αποκλειστικό Workshop της Microsoft στο πλαίσιο του φετινού «State of the Union 2024» που πραγματοποιήθηκε στη Φλωρεντία, έθεσε ορισμένα πολύ σημαντικά ζητήματα όσον αφορά το πώς μπορεί η ΕΕ να θεσμοθετήσει επαρκώς τον έλεγχο της τεχνολογικής εξέλιξης και με ποιους τρόπους θα προστατευτούν οι δημοκρατικοί θεσμοί από τις ψηφιακές απειλές.

Αποστολή στη Φλωρεντία

Ποιος μπορεί να δώσει μια πειστική απάντηση για το πώς θα εξελιχθούν σε έναν χρόνο από σήμερα οι τεχνολογίες που βασίζονται στην Τεχνητή Νοημοσύνη και κατά πόσο μπορούν να ενταθούν οι ψηφιακές απειλές; Με ποιον τρόπο τα συστήματα που αναπτύσσονται από τις μεγαλύτερες τεχνολογικές εταιρείες του πλανήτη και τις χιλιάδες startups που δουλεύουν πάνω σε εξειδικευμένους τομείς, είναι δυνατόν να λάβουν υπόψη τους τα θεμελιώδη ανθρώπινα δικαιώματα; Και, τελικά, πόσες από αυτές τις μικρές επιχειρήσεις οι οποίες αποτελούν το πιο ενθουσιώδες «κύτταρο» αυτής της τεχνολογικής εξέλιξης, θα αντέξουν μια διαδικασία η οποία απαιτεί ατέλειωτες εργατοώρες, πολλά κεφάλαια και χρόνο τον οποίο διαθέτουν μόνο οι κολοσσοί του χώρου;

Σε αυτά τα ερωτήματα έδωσαν απαντήσεις ειδικοί της Microsoft, πανεπιστημιακοί και εκπρόσωποι των ευρωπαϊκών θεσμών στο αποκλειστικό workshop της Microsoft που πραγματοποιήθηκε στη Φλωρεντία, στο πλαίσιο του φετινού «State of the Union 2024».

Η σημασία των συνεργασιών για την προστασία της Δημοκρατίας

Τη συζήτηση άνοιξε η Ginny Badanes, Γενική Διευθύντρια του Democracy Forward, της υπηρεσίας ψηφιακής ασφάλειας της Microsoft η οποία επικεντρώνεται στην προστασία των δημοκρατικών θεσμών και της δημοσιογραφικής δεοντολογίας, στη νέα ψηφιακή εποχή. Όπως εξήγησε, η φετινή χρονιά κατά την οποία ψηφίζουν εκατοντάδες εκατομμύρια ψηφοφόροι σε ΕΕ, ΗΠΑ, Ηνωμένο Βασίλειο, Ινδία και άλλες ακόμη χώρες, είναι από τις πλέον κρίσιμες όσον αφορά την προστασία των ψηφοφόρων από τη διάδοση ψευδών ειδήσεων με σκοπό την επιρροή των εκλογικών αποτελεσμάτων.

Όπως εξήγησε, το Democracy Forward επεκτείνει τις δραστηριότητές του σε προγράμματα προστασίας των πολιτικών εκστρατειών, εντείνει τις καμπάνιες ευαισθητοποίησης των ψηφοφόρων να συμμετάσχουν στις εκλογικές διαδικασίες, ενώ μέσω συνεργασιών με δημοσιογράφους και δημοσιογραφικούς οργανισμούς συμβάλλει στην προστασία των αναγνωστών από τη διάδοση ψευδών ειδήσεων. «Όμως μόνο μια εταιρεία δεν αρκεί για να τα πετύχει όλα αυτά», σημείωσε. «Για αυτόν τον λόγο η Microsoft μαζί με τουλάχιστον 19 ακόμη μεγάλες τεχνολογικές εταιρείες συνεργαζόμαστε για να εντείνουμε τις προσπάθειές μας ενόψει τόσο μεγάλων εκλογικών αναμετρήσεων. Είναι σημαντικό να γνωρίζετε ότι και οι τεχνολογικοί πάροχοι αλλά και οι δημιουργοί τεχνολογίας είναι κρίσιμο να προχωρούν μαζί προς αυτόν τον σκοπό εάν θέλουμε να αντιμετωπίσουμε τις επερχόμενες απειλές».

Απατώντας σε ερώτηση του Fortune Greece για το πόσο σημαντική είναι η συνεργασία με τις τοπικές διοικήσεις της Microsoft σε ολόκληρο τον κόσμο, η Ginny Badanes απάντησε ότι είναι αδύνατο μόνο από την έδρα στις ΗΠΑ να πετύχει η αποστολή της. «Είναι άκρως απαραίτητη για εμάς η συνεργασία με τις τοπικές ομάδες της Microsoft. Για αυτό συνεργαζόμαστε απευθείας, παρέχοντας όλα τα απαραίτητα εργαλεία την εκπαίδευση και την υποστήριξη για να προχωρήσουν το έργο τους ανεξάρτητα σε κάθε χώρα».

Οι ιδιαιτερότητες της Παραγωγικής Τεχνητής Νοημοσύνης

«To GenAI δεν είναι ένα πράγμα, αλλά ολόκληρα τεχνολογικά επίπεδα που περιλαμβάνουν από τις τεχνικές υποδομές, τα κέντρα δεδομένων και τις κάρτες γραφικών ως τα ίδια τα δεδομένα και τα μοντέλα που χρησιμοποιούν οι προγραμματιστές», τόνισε η Rima Alaily, Corporate Vice President & Deputy General Counsel – Competition Law Group της Microsoft. Σημείωσε, δε, πως σε κάθε ένα από αυτά τα τεχνολογικά επίπεδα βρίσκονται διαφορετικές ανταγωνιστικές εταιρείες του χώρου της Τεχνητής Νοημοσύνης, καθώς και πολλά διαφορετικά business models.

«Για την εξέλιξη, όμως, της τεχνολογίας αυτής υπάρχουν μόνο δύο δρόμοι: ή ο δρόμος της συνεργασίας, ή ο καθένας να προχωρήσει μόνος του. Η Microsoft επιλέγει τον δρόμο της συνεργασίας, καθώς είμαστε από καρδιάς μια τεχνολογική πλατφόρμα», σημείωσε χαρακτηριστικά. Μπορεί, όπως είπε, από το 2019 και την επένδυση της Microsoft στην OpenAI να απέκτησε τα σκήπτρα της ανάπτυξης της ΤΝ, όμως «σε πολλούς τομείς συνεργαζόμαστε με τις περισσότερες τεχνολογικές εταιρείες, όπως την Google, την Apple ή την Amazon. Άλλωστε χωρίς τη συνεργασία του κλάδου, δεν μπορείς ούτε να καινοτομήσεις αλλά ούτε και να ανταγωνιστείς την υπόλοιπη αγορά».

Στη συνέχεια έγινε ιδιαίτερη αναφορά στη διαδικασία ερευνών από αντιμονοπωλιακές υπηρεσίες και το κατά πόσο αυτές επηρεάζουν αρνητικά ή θετικά την τεχνολογική εξέλιξη.

Όπως υποστήριξε η Rima Alaily, οι διαδικασίες αυτές βασίζονται «σε 5 μεγάλες φοβίες από πλευράς ελεγκτικών μηχανισμών»:

  1. Το λεγόμενο FOMO (φόβος να μην τους ξεφύγει κάτι) που οδηγεί στον φόβο να υπάρξει στο τέλος μόνο ένας νικητής στην κούρσα της ΤΝ.
  2. Στην ανησυχία ότι οι μεγάλες τεχνολογικές εταιρείες δεν θα παράγουν ΤΝ αλλά μόνο θα την αγοράζουν.
  3. Στη δημιουργία ασπίδας προστασίας στο ενδεχόμενο διατάραξης της ίδιας της τεχνολογίας από μια μόνο εταιρεία.
  4. Στην εξασφάλιση ότι υπάρχει πεδίο ανάπτυξης και άλλων μεγάλων τεχνολογικών εταιρειών.
  5. Στην ανάγκη για πλήρη διαφάνεια σε όλα τα επίπεδα των συνεργασιών μεγάλων τεχνολογικών εταιρειών με μικρότερες startups.

 

Απαντώντας σε ερώτηση του Fortune Greece κατά πόσο επηρεάζεται τελικά η τεχνολογική πρόοδος μέσα από τις χρονοβόρες αυτές διαδικασίες, η Rima Alaily απάντησε ότι μπορεί μεν οι εργασίες να μην σταματούν κατά τη διάρκεια των ερευνών, όμως όταν κάθε συμφωνία με τις -πολλές χιλιάδες- startups περνά από τόσο έντονη ερευνητική διαδικασία, τότε «φοβόμαστε για την επιβίωση των ίδιων των startups».

«Πάρτε για παράδειγμα την Mistral, μια εταιρεία περίπου 2 ετών με 20-40 εργαζόμενους, η οποία είναι αναγκασμένη να περάσει μια διαδικασία έρευνας σαν αυτή που διεξάγεται από την CMA (βρετανική αντιμονοπωλιακή υπηρεσία), να παραδώσει στοιχεία και να απαντά σε ερωτήσεις, να προσλάβει δικηγόρους… Όλο αυτό αφαιρεί πολύ χρόνο και μέσα, τα οποία περιορίζουν την ικανότητά της να αφιερωθεί στην εξέλιξη της τεχνολογίας της και να ανταποκριθεί στις απαιτήσεις του ανταγωνισμού».

Η ιδιαιτερότητα του ευρωπαϊκού AI Act

Στην ανάγκη να κατανοήσουν οι ελεγκτικές και νομικές αρχές των ευρωπαϊκών κυβερνήσεων ότι η Τεχνητή Νοημοσύνη δεν είναι δυνατόν να αντιμετωπίζεται και σαν προϊόν αλλά και σαν παράγοντας που επηρεάζει τα ανθρώπινα δικαιώματα, αναφέρθηκε ο πρόεδρος της Νομικής Σχολής του European University Institute, καθηγητής Nicolas Petit. Κληθείς να σχολιάσει σε ερώτημα του Fortune Greece το ψήφισμα του Ευρωπαϊκού Κοινοβουλίου με τους νέους κανόνες για την Τεχνητή Νοημοσύνη, ο καθηγητής της νομικής σχολής του πανεπιστημίου EUI σημείωσε ότι είναι μεν θετικό το γεγονός ότι δεν έχουμε να κάνουμε με 27 διαφορετικές νομοθεσίες για την ΤΝ αλλά με μια ενιαία, όμως εκεί αρχίζουν τα προβλήματα.

«Το ερώτημα είναι ποιου είδους ομοιομορφία θέλουμε να έχουμε; Υπάρχουν πολλοί προβληματισμοί για το AI Act και θα σας δώσω ένα παράδειγμα. Το Άρθρο 11 του νόμου αναφέρει ότι οι τεχνολογικές εταιρείες πρέπει να παρέχουν τα κατάλληλα τεχνικά δεδομένα όλων των συστημάτων τους, ούτως ώστε να αποδείξουν ότι αυτά λειτουργούν με βάση τα θεμελιώδη ανθρώπινα δικαιώματα της Ευρώπης. Αν έχεις περάσει από μια Νομική Σχολή, τότε γνωρίζεις ότι αυτό που ζητά η ΕΕ δεν είναι κάτι απλό. Το ερώτημα, λοιπόν, εδώ είναι αν κάτι τέτοιο είναι πραγματικά εφικτό. Για μια μεγάλη εταιρεία είμαι βέβαιος ότι είναι. Έχουμε μάλιστα και υπαρκτό παράδειγμα από τη Microsoft. Δημοσιεύσαμε μια μελέτη στην οποία η Microsoft κλήθηκε να παράσχει τεχνικά δεδομένα που αφορούν το σύστημα συνεργασιών. Η εταιρεία ξεκίνησε με μερικούς εργαζόμενους και τελικά κατέληξαν να εργάζονται αποκλειστικά για αυτή τη διαδικασία 1.200 υπάλληλοι! Ας αναλογιστούμε λοιπόν τι μπορεί να συμβεί όταν μιλάμε για το GenAI. Φοβάμαι ότι το κόστος αυτής της διαδικασίας για τις startups θα είναι αβάσταχτο. Με αυτόν τον τρόπο το AI Act ασκεί τεράστια πίεση στις μικρές επιχειρήσεις, καθώς ο νόμος που ψηφίστηκε επιδιώκει να ισορροπήσει την αγορά της Τεχνητής Νοημοσύνης με τα ευρωπαϊκά ανθρώπινα δικαιώματα. Κάτι εξαιρετικά δύσκολο».

«Αυτή τη στιγμή το AI Act ακροβατεί μεταξύ της προστασίας των ανθρωπίνων δικαιωμάτων και της προστασίας των καταναλωτών. Είναι σαν να μπερδεύουμε στην ίδια συζήτηση τη διαδικασία κατασκευής ενός αυτοκινήτου που πληροί τους κανόνες ασφαλείας, με την προστασία της ανθρώπινης αξιοπρέπειας», απάντησε στο ίδιο ερώτημα και ο Δρ. Thibault Schrepel, αναπληρωτής καθηγητής Δικαίου στο Vrije Universiteit Amsterdam University. «Είναι σαν να απευθυνόμαστε στους επικεφαλής αυτοκινητοβιομηχανιών ή εταιρειών κατασκευής τρένων και να τους ρωτάμε “τι κάνετε για να προστατέψετε την ανθρώπινη αξιοπρέπεια;”. Επομένως μιλάμε για μια διαδικασία η οποία δεν είναι εξαιρετικά δύσκολη μόνο για τις επιχειρήσεις, αλλά θα είναι εξίσου δύσκολη και για τους δημόσιους λειτουργούς που θα κληθούν να την εκτελέσουν».

Ο ρωσικός παράγοντας και οι ασύμμετρες απειλές των ευρωεκλογών

Για τον Clint Watts, Γενικό Διευθυντή του Κέντρου Ανάλυσης Απειλών της Microsoft, τρία είναι τα γεγονότα – κλειδιά που βρίσκονται φέτος στο επίκεντρο όσον αφορά την ψηφιακή τους ασφάλεια: οι Ολυμπιακοί Αγώνες στο Παρίσι, οι εκλογές για την Ευρωβουλή και τη Μ. Βρετανία και οι αμερικανικές εκλογές. Για όλα αυτά τα γεγονότα, και με βάση τα στοιχεία που έχει στην κατοχή της η ομάδα αναλυτών της Microsoft, η Ρωσία, η Κίνα, το Ιράν και η Βόρεια Κορέα αποτελούν κατά σειρά δυναμικότητας τους κυριότερες παράγοντες ψηφιακής επιρροής των μεγάλων φετινών γεγονότων σε πολιτική και αθλητισμό.

Όπως διαπιστώνει ο Clint Watts, ο διαμοιρασμός ψευδών εικόνων γνωστών προσώπων (deepfakes) συνιστά μεν απειλή, όμως έχει εντοπίσει ότι τα αντανακλαστικά του κόσμου βελτιώνονται κι έτσι εντοπίζονται με μεγάλη ταχύτητα οι παραπλανητικές φωτογραφίες. Δεν συμβαίνει όμως το ίδιο και με τα ηχητικά ντοκουμέντα. «Είναι πολύ πιο επικίνδυνα από την εικόνα ή το βίντεο γιατί συνιστούν παραπλανητικό περιεχόμενο το οποίο τις περισσότερες φορές έχει βασιστεί πάνω σε πραγματικά ηχητικά ντοκουμέντα που έχουν παραποιηθεί με τη βοήθεια της Τεχνητής Νοημοσύνης. Αυτό, είναι μάλιστα το είδος περιεχομένου το οποίο εξαπλώνεται πιο γρήγορα από οποιοδήποτε άλλο».

Από την πλευρά του, ο Jakub Kalenský, Αναπληρωτής Διευθυντής του Ευρωπαϊκού Κέντρου Αριστείας για την Αντιμετώπιση Υβριδικών Απειλών, απέδωσε τη συντριπτική πλειοψηφία των ψηφιακών επιθέσεων σε παγκόσμιο επίπεδο στη Ρωσία. «Οι μέθοδοι της Ρωσίας δεν διαφέρουν και πολύ από την περίοδο του Ψυχρού Πολέμου. Η ΤΝ αποτελεί απλώς ένα από τα εργαλεία χειραγώγησης [από τη Ρωσία]», υποστήριξε.

Μιλώντας για τον ευρωπαϊκό Νότο αλλά και για την Ελλάδα συγκεκριμένα, μετά από ερώτημα του Fortune Greece σχετικά με τον φόβο της πιθανής ανόδου της ακροδεξιάς στις επερχόμενες ευρωεκλογές, ο Jakub Kalenský στάθηκε στη σημαντικότητα του ρόλου των μέσων ενημέρωσης να κρατήσουν ένα πολιτικό κλίμα μακριά από την πόλωση του παρελθόντος, ενώ όσον αφορά τις άμυνες απέναντι στις ρωσικές κυβερνοεπιθέσεις -στις οποίες απέδωσε κατά ένα μεγάλο ποσοστό την ενίσχυση της διάδοσης ψευδών ειδήσεων που ενισχύουν την ακροδεξιά ρητορική- τόνισε ότι Ελλάδα, Ισπανία, Πορτογαλία και Ισπανία είναι οι χώρες που διαθέτουν αυτή τη στιγμή τη λιγότερη εμπειρία στην αντιμετώπιση της ρωσικής επιθετικότητας.

Καταλήγοντας, ο Jakub Kalenský εκτίμησε ότι η Κίνα δεν αποτελεί αυτή τη χρονική στιγμή μεγάλο φόβητρο όσον αφορά τη συμμετοχή της σε εκστρατείες ψηφιακής διάδοσης ψευδών ειδήσεων, όμως υποστήριξε ότι ο φόβος στενής συνεργασίας σε αυτόν τον τομέα με τη Ρωσία καθιστά το Πεκίνο μια εν δυνάμει απειλή η οποία μπορεί να πάρει επικίνδυνες διαστάσεις αν συνδυάσει την πλούσια ρωσική τεχνογνωσία με τους τεράστιους κινεζικούς πόρους.