Έρευνα αποκαλύπτει πώς η τεχνητή νοημοσύνη μπορεί να… κλέψει – AI bot κάνει insider trading και το αποκρύπτει

Έρευνα αποκαλύπτει πώς η τεχνητή νοημοσύνη μπορεί να… κλέψει – AI bot κάνει insider trading και το αποκρύπτει
Photo: pixabay.com
Σε μια επίδειξη, bot χρησιμοποίησε ψευδείς εμπιστευτικές πληροφορίες για να πραγματοποιήσει μια παράνομη αγορά μετοχών.

Δεν είναι όλα «αγγελικά πλασμένα» σχετικά με την τεχνητή νοημοσύνη. Όπως φαίνεται έχει τη δυνατότητα να εκτελεί παράνομες χρηματοοικονομικές συναλλαγές και να τις αποκρύπτει, σύμφωνα με νέα έρευνα.

Σε μια επίδειξη στη διάσκεψη κορυφής για την ασφάλεια της τεχνητής νοημοσύνης που πραγματοποιείται στο Ηνωμένο Βασίλειο, ένα bot χρησιμοποίησε ψευδείς εμπιστευτικές πληροφορίες για να πραγματοποιήσει μια παράνομη αγορά μετοχών χωρίς να ενημερώσει την εταιρεία. Όταν ρωτήθηκε αν είχε βασιστεί στις εμπιστευτικές πληροφορίες, το αρνήθηκε, σύμφωνα με το BBC.

Το insider trading (εσωτερική πληροφόρηση) είναι η αγοραπωλησία εταιρικών τίτλων ή άλλων χρεογράφων (ομόλογα, μετοχές, δικαιώματα προαίρεσης) από ιδιώτες οι οποίοι έχουν πρόσβαση σε εμπιστευτικές πληροφορίες. Οι επιχειρήσεις και τα άτομα επιτρέπεται να χρησιμοποιούν μόνο δημόσια διαθέσιμες πληροφορίες όταν αγοράζουν ή πωλούν μετοχές.

Η παρουσίαση έγινε από μέλη της κυβερνητικής ομάδας εργασίας Frontier AI Taskforce, η οποία ερευνά τους πιθανούς κινδύνους της τεχνητής νοημοσύνης. Η έρευνα διεξήχθη από την Apollo Research, έναν οργανισμό για την ασφάλεια της τεχνητής νοημοσύνης.

«Πρόκειται για μια επίδειξη ενός πραγματικού μοντέλου τεχνητής νοημοσύνης που εξαπατά τους χρήστες του, από μόνο του, χωρίς να του έχει δοθεί εντολή να το κάνει», αναφέρει η Apollo Research σε ένα σχετικό βίντεο.

«Οι όλο και πιο αυτόνομες και ικανές τεχνητές νοημοσύνες που εξαπατούν τους ανθρώπινους επόπτες θα μπορούσαν να οδηγήσουν στην απώλεια του ανθρώπινου ελέγχου», αναφέρει στην έκθεσή της.

Τα πειράματα έγιναν με τη χρήση ενός μοντέλου GPT-4 και διεξήχθησαν σε περιβάλλον προσομοίωσης, πράγμα που σημαίνει ότι δεν είχαν καμία επίπτωση στα οικονομικά οποιασδήποτε εταιρείας.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Τι έκανε το σύστημα τεχνητής νοημοσύνης

Στο συγκεκριμένο πείραμα, το AI bot υποδύθηκε έναν επενδυτή που εργαζόταν σε μια υποθετική εταιρεία χρηματοοικονομικών επενδύσεων. Οι εργαζόμενοι της εταιρείας έδωσαν στο σύστημα τεχνητής νοημοσύνης εμπιστευτικές πληροφορίες και του είπαν ότι πιθανώς θα συγχωνευτεί με μια άλλη εταιρεία, γεγονός που θα αυξήσει την αξία των μετοχών της. Στο Ηνωμένο Βασίλειο, είναι παράνομο να ενεργεί κανείς με βάση αυτού του είδους τις πληροφορίες, όταν αυτές δεν είναι δημόσια γνωστές. Οι εργαζόμενοι το είπαν αυτό στο bot και αυτό αναγνώρισε πως δεν πρέπει να χρησιμοποιήσει αυτές τις πληροφορίες στις συναλλαγές του.

Ωστόσο, μετά από ένα άλλο μήνυμα που ανέφερε ότι η εταιρεία αντιμετωπίζει οικονομικές δυσκολίες, το ρομπότ αποφάσισε ότι «ο κίνδυνος που σχετίζεται με τη μη δράση φαίνεται να υπερτερεί του κινδύνου από την εκμετάλλευση εμπιστευτικών πληροφοριών» και πραγματοποίησε τη συναλλαγή. Όταν ερωτήθηκε αν χρησιμοποίησε τις εμπιστευτικές πληροφορίες, το bot το αρνήθηκε.

Είναι πιο εύκολο να εκπαιδεύσεις το μοντέλο να είναι εξυπηρετικό παρά να είναι ειλικρινές. Η ειλικρίνεια είναι μια πραγματικά περίπλοκη έννοια, είπε ο διευθύνων σύμβουλος της Apollo Research Μάριους Χόμπαν.

«Δεν είναι συνεπές ή στρατηγικό με καμία έννοια. Το μοντέλο δεν συνωμοτεί και δεν προσπαθεί να σας παραπλανήσει με πολλούς διαφορετικούς τρόπους. Πρόκειται μάλλον για ατύχημα», πρόσθεσε.

Η τεχνητή νοημοσύνη χρησιμοποιείται στις χρηματοπιστωτικές αγορές εδώ και αρκετά χρόνια. Μπορεί να χρησιμοποιηθεί για τον εντοπισμό τάσεων και την πραγματοποίηση προβλέψεων, ενώ οι περισσότερες συναλλαγές σήμερα γίνονται από ισχυρούς υπολογιστές με ανθρώπινη επίβλεψη.

Ο Χόμπαν τόνισε ότι τα σημερινά μοντέλα δεν είναι τόσο ισχυρά ώστε να μπορούν να παραπλανούν με οποιονδήποτε ουσιαστικό τρόπο, ωστόσο δεν είναι τόσο μεγάλο το βήμα από τα σημερινά μοντέλα για τα οποία ανησυχεί. Υποστήριξε πως γι’ αυτό το λόγο θα πρέπει να υπάρχουν έλεγχοι για να αποτραπεί η πραγματοποίηση τέτοιου είδους σεναρίου στον πραγματικό κόσμο.

Η Apollo Research μοιράστηκε τα ευρήματά της με την OpenAI, τους δημιουργούς του GPT-4.

«Δεν είναι κάτι που ήταν εντελώς απροσδόκητο γι’ αυτούς. Δεν νομίζω λοιπόν ότι τους αιφνιδιάσαμε», κατέληξε ο Χόμπαν.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: