Η «Αποκάλυψη» της Τεχνητής Νοημοσύνης είναι ήδη εδώ, προειδοποιεί καθηγητής Πανεπιστημίου

Η «Αποκάλυψη» της Τεχνητής Νοημοσύνης είναι ήδη εδώ, προειδοποιεί καθηγητής Πανεπιστημίου
Photo: AFP
Ο καθηγητής θεωρητικής φυσικής Tobias Osborne αποκαλύπτει πώς οι φόβοι για μελλοντική «Αποκάλυψη» της τεχνητής νοημοσύνης αποπροσανατολίζουν από τις πραγματικές ζημιές - ψυχολογικές, περιβαλλοντικές και εργασιακές - που προκαλεί ήδη η τεχνολογία, επιτρέποντας στις εταιρείες να αποφεύγουν τη λογοδοσία.
  • Πώς οι εταιρείες ΤΝ χρησιμοποιούν φόβους «Αποκάλυψης» για να αποφύγουν τη λογοδοσία σήμερα
  • Οι πραγματικοί κίνδυνοι της τεχνητής νοημοσύνης: ψυχολογική βλάβη, data centers και εκμετάλλευση εργαζομένων
  • Γιατί η συζήτηση για «υπερνοήμονες μηχανές» αποπροσανατολίζει από τις ζημιές του παρόντος 

Η εμμονή με σενάρια αποκάλυψης γύρω από την τεχνητή νοημοσύνη επιτρέπει στις εταιρείες του κλάδου να αποφεύγουν την ευθύνη για τις πραγματικές βλάβες που προκαλεί ήδη η τεχνολογία τους, υποστηρίζει ένας Γερμανός ακαδημαϊκός.

Σε άρθρο του αυτή την εβδομάδα, ο Tobias Osborne —καθηγητής θεωρητικής φυσικής στο Πανεπιστήμιο Leibniz του Ανόβερου και συνιδρυτής της εταιρείας επιστημονικής επικοινωνίας Innovailia— τονίζει ότι η δημόσια συζήτηση γύρω από «υπερνοήμονες μηχανές» και μια υποτιθέμενη «τεχνολογική μοναδικότητα» λειτουργεί ως επικίνδυνος αντιπερισπασμός.

Την ώρα που πολιτικοί και ειδικοί διαφωνούν για το αν η ΤΝ μπορεί κάποτε να απειλήσει ακόμη και την επιβίωση της ανθρωπότητας, ο Osborne γράφει πως η βιομηχανία ήδη προκαλεί «πραγματική ζημιά, εδώ και τώρα». «Η αποκάλυψη δεν έρχεται», σημειώνει. «Η δυστοπία υπάρχει ήδη».

Όταν ο φόβος για το μέλλον γίνεται άλλοθι

Οι αφηγήσεις περί «Αρμαγεδδώνα της ΤΝ» έχουν διαμορφώσει σε μεγάλο βαθμό τον δημόσιο διάλογο, με επιστήμονες, τεχνολογικούς ηγέτες και κυβερνητικές εκθέσεις να προειδοποιούν για συστήματα που θα μπορούσαν να αφανίσουν την ανθρωπότητα, να ξεφύγουν από κάθε έλεγχο ή να προκαλέσουν κατάρρευση των κοινωνιών.

Όπως εξήγησε ο Osborne στο Business Insider, αυτού του είδους οι φόβοι έχουν πολύ συγκεκριμένο αποτέλεσμα: αποδυναμώνουν τη ρύθμιση και τη λογοδοσία. «Όταν οι εταιρείες παρουσιάζονται ως “προστάτες” απέναντι σε μια παγκόσμια καταστροφή, αντιμετωπίζονται σαν φορείς εθνικής ασφάλειας και όχι σαν απλοί προμηθευτές προϊόντων – κι αυτό μειώνει την ευθύνη τους και αποθαρρύνει την ουσιαστική εποπτεία», τόνισε.

Αυτή η μετατόπιση, σύμφωνα με τον ίδιο, τους επιτρέπει να μετακυλίουν το κόστος των επιπτώσεων στο κοινό, απολαμβάνοντας ταυτόχρονα ρυθμιστική ανοχή, μυστικότητα και δημόσιες επιδοτήσεις. Μεταξύ των πιο υποτιμημένων κινδύνων σήμερα, ο Osborne περιλαμβάνει τις ψυχολογικές επιπτώσεις από τη χρήση chatbots, αλλά και τη μαζική παραβίαση πνευματικών δικαιωμάτων και προσωπικών δεδομένων.

Οι «αποκαλυψιακές» αφηγήσεις, λέει, παραμένουν ισχυρές γιατί πουλάνε εύκολα, είναι δύσκολο να διαψευστούν και μεταφέρουν το επιχειρηματικό ρίσκο από τις ίδιες τις εταιρείες στο ευρύτερο κοινό.

«Έκρηξη νοημοσύνης χωρίς όρια»

Ενώ η Ευρωπαϊκή Ένωση έχει αρχίσει να εφαρμόζει το AI Act —το πρώτο ολοκληρωμένο πλαίσιο ρύθμισης της τεχνητής νοημοσύνης που θα τεθεί πλήρως σε ισχύ έως το 2026— οι Ηνωμένες Πολιτείες κινούνται στην αντίθετη κατεύθυνση, με ομοσπονδιακές πρωτοβουλίες που ουσιαστικά περιορίζουν τη δυνατότητα των Πολιτειών να επιβάλουν δικούς τους κανόνες.

Στο άρθρο του, ο Osborne απαριθμεί μια σειρά από ήδη υπαρκτές επιπτώσεις που, όπως επισημαίνει, παραμερίζονται από τη συζήτηση για μελλοντικούς κινδύνους: την εκμετάλλευση χαμηλόμισθων εργαζομένων που επισημαίνουν δεδομένα εκπαίδευσης, τη μαζική αντιγραφή έργων καλλιτεχνών και συγγραφέων χωρίς συναίνεση, το υψηλό ενεργειακό αποτύπωμα των data centers, αλλά και την υπερπληθώρα παραγόμενου από ΤΝ περιεχομένου που δυσκολεύει όλο και περισσότερο τους ανθρώπους να εντοπίσουν αξιόπιστες πληροφορίες.

Επικρίνει επίσης την ιδέα πως η ΤΝ οδεύει προς μια «έκρηξη νοημοσύνης» χωρίς όρια, χαρακτηρίζοντάς την «μια μορφή θρησκευτικής εσχατολογίας ντυμένη με επιστημονική ορολογία». Όπως εξηγεί, τέτοια σενάρια καταρρέουν όταν έρθουν αντιμέτωπα με τους φυσικούς περιορισμούς — όπως η κατανάλωση ενέργειας και οι νόμοι της θερμοδυναμικής. «Αυτά δεν είναι προβλήματα μηχανικής», γράφει. «Είναι συνέπειες της ίδιας της φυσικής».

Ευθύνη εδώ και τώρα

Ο Osborne υποστηρίζει πως η πραγματική λύση δεν βρίσκεται σε εικασίες για το μέλλον, αλλά στην εφαρμογή των υφιστάμενων νόμων περί ευθύνης προϊόντος και υποχρέωσης μέριμνας στις εταιρείες τεχνητής νοημοσύνης, ώστε να λογοδοτούν για τις επιπτώσεις των συστημάτων που θέτουν στην αγορά.

Διευκρινίζει ότι δεν αντιτίθεται στην ίδια την τεχνητή νοημοσύνη· αντίθετα, αναγνωρίζει τα οφέλη που μπορούν να προσφέρουν τα μεγάλα γλωσσικά μοντέλα, ιδίως σε άτομα με αναπηρίες που δυσκολεύονται στην επικοινωνία μέσω γραπτού λόγου. Ωστόσο, προειδοποιεί ότι χωρίς μηχανισμούς λογοδοσίας, τα οφέλη αυτά κινδυνεύουν να χαθούν.

«Τα πραγματικά προβλήματα», γράφει, «είναι βαθιά ανθρώπινα  – ζητήματα εξουσίας, ευθύνης και του ποιος αποφασίζει πώς θα σχεδιαστούν και θα χρησιμοποιηθούν αυτά τα συστήματα».

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: