Το σχέδιο της ΕΕ για τον έλεγχο της τεχνητής νοημοσύνης – Τι «φέρνουν» οι τρεις βαθμίδες

Το σχέδιο της ΕΕ για τον έλεγχο της τεχνητής νοημοσύνης – Τι «φέρνουν» οι τρεις βαθμίδες
Photo: pixabay.com
Οι διαπραγματευτές της ΕΕ θέλουν να βελτιώσουν τη νομοθεσία στις 25 Οκτωβρίου, με στόχο να την οριστικοποιήσουν μέχρι το τέλος του έτους.

Η Ευρωπαϊκή Ένωση εξετάζει τη δημιουργία ενός πλαισίου 3 διαφορετικών βαθμίδων για την εποπτεία και τον έλεγχο των συστημάτων και μοντέλων τεχνητής νοημοσύνης, σύμφωνα με πληροφορίες που μετέδωσε το Bloomberg την Τετάρτη.

Όπως αναφέρει το σχετικό δημοσίευμα, η ΕΕ σκοπεύει να γίνει η πρώτη περιοχή της Δύσης θα θέσει υποχρεωτικούς κανόνες για την τεχνητή νοημοσύνη. Σύμφωνα με την προτεινόμενη νομοθεσία που είναι γνωστή ως AI Act, τα συστήματα που προβλέπουν εγκλήματα ή ταξινομούν αιτήσεις εργασίας θα πρέπει να υποβάλλονται σε αξιολογήσεις κινδύνου, μεταξύ άλλων απαιτήσεων.

Οι διαπραγματευτές της ΕΕ θέλουν να βελτιώσουν τη νομοθεσία στις 25 Οκτωβρίου, με στόχο να την οριστικοποιήσουν μέχρι το τέλος του έτους.

Σύμφωνα με τους προτεινόμενους κανόνες, η πρώτη κατηγορία θα περιλαμβάνει όλα τα μοντέλα θεμελίωσης.

Μια δεύτερη κατηγορία «ιδιαίτερα ικανών» συστημάτων θα διακρίνεται από το μέγεθος της υπολογιστικής ισχύος που χρησιμοποιείται για την εκπαίδευση των διευρυμένων γλωσσικών μοντέλων τους, των αλγορίθμων που χρησιμοποιούν τεράστια σύνολα δεδομένων για την ανάπτυξη δυνατοτήτων AI.

Αυτά τα μοντέλα θα μπορούσαν «να υπερβαίνουν την τρέχουσα κατάσταση της τεχνολογίας και μπορεί να μην είναι ακόμη πλήρως κατανοητά», σύμφωνα με την πρόταση.

Τέλος, μια τρίτη κατηγορία, γνωστή ως συστήματα AI γενικού σκοπού σε κλίμακα, θα περιλαμβάνει τα πιο δημοφιλή εργαλεία AI και θα μετράται με βάση τον συνολικό αριθμό των χρηστών.

Τα μοντέλα θεμελίωσης

Οι developers τεχνητής νοημοσύνης θα υπόκεινται σε απαιτήσεις διαφάνειας πριν από τη διάθεση οποιουδήποτε μοντέλου στην αγορά. Θα πρέπει να τεκμηριώνουν το μοντέλο και τη διαδικασία εκπαίδευσής του, συμπεριλαμβανομένων των αποτελεσμάτων των εσωτερικών προσπαθειών, όπου ανεξάρτητοι εμπειρογνώμονες προσπαθούν να ωθήσουν τα μοντέλα σε «κακή συμπεριφορά». Θα υπήρχε επίσης μια αξιολόγηση με βάση τυποποιημένα πρωτόκολλα.

Αφού ένα μοντέλο κυκλοφορήσει στην αγορά, οι εταιρείες θα πρέπει να παρέχουν πληροφορίες στις επιχειρήσεις που χρησιμοποιούν την τεχνολογία και να τους δίνουν τη δυνατότητα να δοκιμάζουν τα μοντέλα θεμελίωσης.

Οι εταιρείες θα πρέπει να συμπεριλάβουν μια «επαρκώς λεπτομερή» περίληψη του περιεχομένου που χρησιμοποίησαν για την ανάπτυξη των μοντέλων τους και του τρόπου με τον οποίο διαχειρίζονται τα θέματα πνευματικών δικαιωμάτων, συμπεριλαμβανομένης της διασφάλισης ότι οι κάτοχοι δικαιωμάτων μπορούν να μην επιθυμούν να χρησιμοποιηθεί το περιεχόμενό τους για την εκπαίδευση μοντέλων. Οι εταιρείες πρέπει επίσης να διασφαλίζουν ότι το περιεχόμενο AI μπορεί να διακρίνεται από άλλο υλικό.

Πολύ ικανά μοντέλα θεμελίωσης

Οι εταιρείες που παράγουν αυτή τη βαθμίδα τεχνολογίας θα τηρούν αυστηρότερους κανόνες. Προτού διατεθούν στην αγορά, τα μοντέλα αυτά θα πρέπει να υποβάλλονται σε τακτική επανεξέταση από εξωτερικούς εμπειρογνώμονες, οι οποίοι θα ελέγχονται από το νεοσύστατο Γραφείο Τεχνητής Νοημοσύνης της ΕΕ. Τα αποτελέσματα αυτών των δοκιμών θα αποστέλλονται στην εν λόγω υπηρεσία. Οι εταιρείες θα πρέπει επίσης να εισάγουν συστήματα που θα βοηθούν στην ανακάλυψη συστημικών κινδύνων. Μετά τη διάθεση αυτών των μοντέλων στην αγορά, η ΕΕ θα βάλει ανεξάρτητους ελεγκτές και ερευνητές να διενεργούν ελέγχους συμμόρφωσης, συμπεριλαμβανομένου του ελέγχου αν οι εταιρείες ακολουθούν τους κανόνες διαφάνειας.

Η ΕΕ εξετάζει επίσης το ενδεχόμενο να δημιουργήσουν ένα φόρουμ για τις εταιρείες ώστε να συζητούν τις βέλτιστες πρακτικές και έναν εθελοντικό κώδικα δεοντολογίας που θα εγκρίνεται από την Ευρωπαϊκή Επιτροπή. Τα πολύ ικανά μοντέλα θεμελίωσης θα ταξινομούνται με βάση την υπολογιστική ισχύ που απαιτείται για την εκπαίδευσή τους, χρησιμοποιώντας ένα μέτρο γνωστό ως FLOPS (πράξεις κινητής υποδιαστολής ανά δευτερόλεπτο). Το ακριβές όριο θα καθοριστεί από την Κομισιόν σε μεταγενέστερο στάδιο και θα επικαιροποιείται ανάλογα με τις ανάγκες.

Οι εταιρείες θα μπορούσαν να αμφισβητήσουν αυτή την αξιολόγηση. Αντίθετα, η Επιτροπή θα μπορούσε να θεωρήσει ένα μοντέλο πολύ ικανό, ακόμη και αν δεν πληροί το όριο μετά από έρευνα.

3. Συστήματα τεχνητής νοημοσύνης γενικού σκοπού σε κλίμακα (GPAI)

Τα συστήματα αυτά θα πρέπει επίσης να υποβάλλονται σε έλεγχο από εξωτερικούς εμπειρογνώμονες για τον εντοπισμό τρωτών σημείων, και τα αποτελέσματα θα αποστέλλονται στο Γραφείο AI της Κομισιόν. Οι εταιρείες θα πρέπει επίσης να εισάγουν ένα σύστημα αξιολόγησης και μετριασμού των κινδύνων.

Η ΕΕ θα θεωρεί ότι κάθε σύστημα που έχει 10.000 εγγεγραμμένους επιχειρηματικούς χρήστες ή 45 εκατομμύρια εγγεγραμμένους τελικούς χρήστες αποτελεί GPAI σε κλίμακα. Η Επιτροπή θα καθορίσει αργότερα τον τρόπο υπολογισμού του αριθμού των χρηστών.

Οι εταιρείες θα μπορούσαν να ασκήσουν έφεση κατά της ιδιότητάς τους ως συστήματος AI γενικού σκοπού σε κλίμακα, και ομοίως, η ΕΕ θα μπορούσε να υποχρεώσει άλλα συστήματα ή μοντέλα να συμμορφωθούν με αυτούς τους πρόσθετους κανόνες, ακόμη και αν δεν πληρούν τα κατώτατα όρια, αλλά θα μπορούσαν να «προκαλέσουν κινδύνους».

Χρειάζεται περαιτέρω συζήτηση για τον καθορισμό των προστατευτικών «ορίων» ώστε να διασφαλιστεί ότι παράνομο και επιβλαβές περιεχόμενο δεν παράγεται τόσο από συστήματα AI γενικού σκοπού όσο και από πολύ ικανά συστήματα AI.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:

Πηγή: Bloomberg.com