Η ανησυχητική προειδοποίηση της OpenAI για τα μελλοντικά της μοντέλα
- 19/06/2025, 19:41
- SHARE

Η OpenAI προειδοποιεί ότι η επόμενη γενιά προηγμένων μοντέλων τεχνητής νοημοσύνης της θα μπορούσε να αυξήσει σημαντικά τον κίνδυνο ανάπτυξης βιολογικών όπλων, ειδικά όταν χρησιμοποιούνται από άτομα χωρίς επιστημονικές γνώσεις.
Στελέχη της εταιρείας δήλωσαν στο Axios ότι τα επερχόμενα μοντέλα αναμένεται σύντομα να φτάσουν το υψηλότερο επίπεδο κινδύνου βάσει του «πλαισίου ετοιμότητας» που έχει θεσπίσει η OpenAI, ένα σύστημα αξιολόγησης και μετριασμού των κινδύνων που ενδέχεται να προκαλέσουν τα ολοένα και πιο ισχυρά μοντέλα τεχνητής νοημοσύνης.
Ο επικεφαλής των συστημάτων ασφαλείας της OpenAI, Johannes Heidecke, δήλωσε ότι «αναμένουμε πως κάποια από τα μοντέλα που θα διαδεχθούν το o3 (μοντέλο λογικής) θα φτάσουν σε αυτό το επίπεδο.»
Σε σχετική ανάρτηση ιστολογίου, η εταιρεία ανακοίνωσε την ενίσχυση των δοκιμών ασφαλείας της, προκειμένου να μετριαστεί ο κίνδυνος τα μοντέλα να χρησιμοποιηθούν για τη δημιουργία βιολογικών όπλων. Η OpenAI εκφράζει ανησυχία ότι χωρίς αυτά τα μέτρα, τα μοντέλα σύντομα θα καταστούν ικανά να «ενισχύσουν αρχάριους» (“novice uplift”), δηλαδή να επιτρέπουν σε άτομα με ελάχιστες επιστημονικές γνώσεις να δημιουργούν επικίνδυνους βιολογικούς παράγοντες.
«Δεν έχουμε φτάσει ακόμα στο σημείο όπου δημιουργούνται νέες, άγνωστες βιολογικές απειλές που δεν έχουν υπάρξει στο παρελθόν,» δήλωσε ο Heidecke. «Περισσότερο μας ανησυχεί η επαναδημιουργία πραγμάτων που είναι ήδη γνωστά στους ειδικούς.»
Μέρος της δυσκολίας έγκειται στο γεγονός ότι οι ίδιες δυνατότητες της τεχνητής νοημοσύνης που μπορούν να οδηγήσουν σε ιατρικές ανακαλύψεις, μπορούν επίσης να χρησιμοποιηθούν από κακόβουλους παράγοντες για καταστροφικούς σκοπούς. Γι’ αυτό, σύμφωνα με τον Heidecke, είναι απαραίτητες εξαιρετικά ακριβείς μέθοδοι δοκιμών.
«Δεν αρκεί απόδοση της τάξης του 99% ή μία αποτυχία στις 100.000 περιπτώσεις,» είπε. «Χρειαζόμαστε πρακτικά τελειότητα.»
Η OpenAI δεν ανταποκρίθηκε άμεσα σε αίτημα σχολιασμού από το Fortune, εκτός του ωραρίου εργασίας.
Κακή χρήση μοντέλων
Η OpenAI δεν είναι η μόνη εταιρεία που εκφράζει ανησυχία για πιθανή κακόβουλη χρήση των μοντέλων της για την ανάπτυξη όπλων. Καθώς τα μοντέλα τεχνητής νοημοσύνης εξελίσσονται, οι πιθανότητες κατάχρησης και οι σχετικοί κίνδυνοι αυξάνονται αναλογικά.
Η εταιρεία Anthropic, για παράδειγμα, λάνσαρε πρόσφατα το πιο προηγμένο μοντέλο της, Claude Opus 4, εφαρμόζοντας τα αυστηρότερα πρωτόκολλα ασφαλείας μέχρι σήμερα. Το μοντέλο κατατάχθηκε στο Επίπεδο Ασφάλειας AI 3 (ASL-3), σύμφωνα με την Πολιτική Υπεύθυνης Κλιμάκωσης της εταιρείας. Τα προηγούμενα μοντέλα της Anthropic είχαν ταξινομηθεί ως ASL-2, βάσει πλαισίου που προσομοιάζει με τα επίπεδα βιοασφάλειας (BSL) της αμερικανικής κυβέρνησης.
Τα μοντέλα ASL-3 πληρούν κριτήρια επικινδυνότητας που επιτρέπουν σοβαρή κατάχρηση, όπως βοήθεια στην ανάπτυξη όπλων ή στην αυτοματοποίηση της έρευνας για νέα AI. Το Claude Opus 4 έγινε επίσης γνωστό για την «πειραματική» συμπεριφορά του, καθώς σε αυστηρά ελεγχόμενο τεστ απείλησε με εκβιασμό έναν μηχανικό ώστε να αποφύγει το τερματισμό του.
Πρώιμες εκδόσεις του Claude 4 βρέθηκε ότι συμμορφώνονταν με επικίνδυνες εντολές, όπως βοήθεια στον σχεδιασμό τρομοκρατικών επιθέσεων, εφόσον λάμβαναν ανάλογο prompt. Ωστόσο, η Anthropic υποστηρίζει πως το πρόβλημα διορθώθηκε σε μεγάλο βαθμό μετά την επανένταξη ενός κρίσιμου dataset που είχε παραλειφθεί κατά την εκπαίδευση.
ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:
- AI vs managers: Μπορεί η τεχνητή νοημοσύνη να αποφασίσει ποιος θα ανέβει στην ιεραρχία;
- CEO της Amazon: «Δεν χρειάζεται να ξέρεις από τα 20 σου τι θέλεις να κάνεις στη ζωή σου»
Πηγή: Fortune.com