OpenAI: Όταν η «ασφάλεια παιδιών» γίνεται εργαλείο επιρροής

OpenAI: Όταν η «ασφάλεια παιδιών» γίνεται εργαλείο επιρροής
Photo: Shutterstock
H OpenAI κατηγορείται ότι κινήθηκε παρασκηνιακά, αξιοποιώντας μία «βιτρίνα» για να επηρεάσει το ρυθμιστικό πλαίσιο — με φόντο την ασφάλεια των παιδιών.
  • Η OpenAI κατηγορείται ότι χρησιμοποίησε “front group” για να επηρεάσει πολιτικές αποφάσεις, χωρίς διαφάνεια προς τις οργανώσεις.
  • Η ασφάλεια των παιδιών φέρεται να αξιοποιήθηκε ως εργαλείο lobbying, σε μια προσπάθεια διαμόρφωσης ευνοϊκού ρυθμιστικού πλαισίου.
  • Ο ανταγωνισμός στην AI εντείνεται, με τις μεγάλες εταιρείες να επιδιώκουν όχι μόνο τεχνολογική αλλά και πολιτική κυριαρχία.

Αν διοικείς μια εταιρεία frontier AI, τώρα δεν είναι η στιγμή για εφησυχασμό. Το διακύβευμα είναι τεράστιο: όποια εταιρεία καταφέρει να ξεπεράσει τους ανταγωνιστές της δεν θα αποκομίσει μόνο τεράστια οικονομικά οφέλη, αλλά και σημαντική πολιτική επιρροή πάνω σε μια από τις πιο καθοριστικές τεχνολογίες της εποχής.

Όπως διαπίστωσαν πρόσφατα οργανώσεις για την προστασία των παιδιών, αυτή η πίεση μεταφράζεται σε εταιρικούς χειρισμούς που —στην καλύτερη περίπτωση— μπορούν να χαρακτηριστούν ηθικά αμφισβητήσιμοι.

Εκπρόσωποι μη κερδοσκοπικών οργανώσεων δήλωσαν στο San Francisco Standard ότι αιφνιδιάστηκαν όταν έμαθαν πως η λεγόμενη Parents and Kids Safe AI Coalition —μια ομάδα που φαινόταν να έχει grassroots χαρακτήρα— δεν ήταν αυτό που έδειχνε. Στην πραγματικότητα, επρόκειτο για ένα «front group» που είχε δημιουργηθεί από νομικούς συνεργάτες της OpenAI, της εταιρείας πίσω από το ChatGPT.

Το σχήμα ήταν σχετικά απλό: η «Coalition» επικοινώνησε με οργανώσεις σε όλη τη χώρα ζητώντας τη στήριξή τους σε προτάσεις πολιτικής για την ασφάλεια των παιδιών. Οι προτάσεις αυτές, ωστόσο, ήταν εντυπωσιακά παρόμοιες με νομοθετικές πρωτοβουλίες στην Καλιφόρνια που είχε ήδη στηρίξει η OpenAI — και οι οποίες θα περιόριζαν την ευθύνη των εταιρειών AI για τα προϊόντα τους.

Οι οργανώσεις που έδωσαν την υποστήριξή τους —προσδίδοντας έτσι αξιοπιστία στην πρωτοβουλία— δεν είχαν ενημερωθεί ότι η «Coalition» ιδρύθηκε, χρηματοδοτήθηκε και καθοδηγήθηκε από την OpenAI. Η αποκάλυψη ήρθε μόνο όταν οι ίδιες οι ομάδες άρχισαν να αμφισβητούν την πολιτική πρωτοβουλία που είχαν υπογράψει, οδηγώντας τουλάχιστον δύο από αυτές να αποσύρουν τη στήριξή τους.

«Η αίσθηση είναι πολύ άσχημη», δήλωσε ανώνυμα ένας διοργανωτής. «Το να ανακαλύπτεις ότι προσπαθούν να κινηθούν παρασκηνιακά με τέτοιο τρόπο — δεν θέλω να πω ότι λένε ψέματα, αλλά τα emails τους είναι σίγουρα παραπλανητικά».

Ο Josh Golin, επικεφαλής της μη κερδοσκοπικής οργάνωσης FairPlay for Kids, αρνήθηκε να συμμετάσχει όταν αντιλήφθηκε την εμπλοκή της OpenAI. Όπως δήλωσε, θα προτιμούσε η εταιρεία να αποσυρθεί ώστε «γονείς, ειδικοί και φορείς δημόσιας υγείας» να καθορίσουν το πλαίσιο ρύθμισης της AI — όχι η ίδια η βιομηχανία.

«Δεν θέλω η OpenAI να γράφει τους κανόνες για το πώς αλληλεπιδρά με τα παιδιά», τόνισε.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Lobbying με “όχημα” την ασφάλεια

Η συμπεριφορά της OpenAI μπορεί να εξηγηθεί πιο απλά: οι ρυθμιστικές της παρεμβάσεις δεν αφορούν μόνο την ασφάλεια, αλλά και τη διαμόρφωση ευνοϊκών όρων με το κράτος.

Η εταιρεία δαπάνησε περίπου 3 εκατ. δολάρια για lobbying το 2025, από 1,76 εκατ. το 2024, ενώ πληροφορίες αναφέρουν ότι οι ερευνητικές της ομάδες λειτουργούν πλέον —τουλάχιστον εν μέρει— ως μηχανισμός προώθησης συμφερόντων της βιομηχανίας AI.

Μέσω της συγκεκριμένης «Coalition», η OpenAI φαίνεται να επιχειρεί να επηρεάσει το ρυθμιστικό πλαίσιο σε ομοσπονδιακό επίπεδο, αποτρέποντας παράλληλα αυστηρότερη νομοθεσία σε επίπεδο Πολιτειών.

Ένας αγώνας ισχύος χωρίς προηγούμενο

Το τοπίο είναι ιδιαίτερα ανταγωνιστικό, με τεχνολογικούς κολοσσούς όπως η Microsoft, η Google, η Amazon, η Meta, η Anthropic, η xAI και η IBM να ανταγωνίζονται για κυριαρχία.

Σε αυτό το περιβάλλον, η «εργαλειοποίηση» της ασφάλειας των παιδιών ως εργαλείο lobbying μπορεί να προκαλεί αντιδράσεις — αλλά για μια εταιρεία που στοχεύει σε IPO και δισεκατομμύρια αποτιμήσεις, το να μείνει πίσω ίσως θεωρείται μεγαλύτερος κίνδυνος.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: