«Αν ήταν άνθρωπος, θα κατηγορούνταν για φόνο»: Νέα σοκαριστική υπόθεση γύρω από το ChatGPT

«Αν ήταν άνθρωπος, θα κατηγορούνταν για φόνο»: Νέα σοκαριστική υπόθεση γύρω από το ChatGPT
Photo: Shutterstock

Μια νέα αγωγή κατά της OpenAI φέρνει στο επίκεντρο τον ρόλο του ChatGPT σε υπόθεση μαζικής ένοπλης επίθεσης στις ΗΠΑ, προκαλώντας σοβαρά ερωτήματα για τα όρια, τις ευθύνες και τους μηχανισμούς ασφαλείας της τεχνητής νοημοσύνης.

  • Η οικογένεια θύματος κατηγορεί το ChatGPT για αδράνεια: Η αγωγή υποστηρίζει ότι το chatbot αγνόησε σαφή σημάδια επικείμενης βίας.
  • Οι συνομιλίες του δράστη προκαλούν σοκ: Ο φοιτητής συζητούσε με το AI για όπλα, σχολικές επιθέσεις και ναζιστικές εμμονές.
  • Η OpenAI βρίσκεται πλέον και υπό ποινική διερεύνηση: Οι αρχές εξετάζουν αν υπήρξε ευθύνη της εταιρείας στις επιθέσεις.

Η χήρα ενός θύματος μαζικής ένοπλης επίθεσης στις ΗΠΑ στρέφεται νομικά κατά της OpenAI, υποστηρίζοντας ότι το ChatGPT συνέβαλε στην κλιμάκωση της βίαιης δράσης του δράστη — σε μία ακόμη υπόθεση που εντάσσεται σε ένα αυξανόμενο κύμα αγωγών εναντίον της εταιρείας τεχνητής νοημοσύνης.

Η αγωγή κατατέθηκε την Κυριακή στη Φλόριντα από τη Vandana Joshi, της οποίας ο σύζυγος, Tiru Chabba, σκοτώθηκε από τον τότε 20χρονο φοιτητή του Florida State University, Phoenix Ikner, σύμφωνα με το NBC News.

Όπως αποκάλυψαν τον περασμένο μήνα συνομιλίες που δημοσίευσε πρώτη η Florida Observer, ο Ikner διατηρούσε επί μήνες εκτενείς συνομιλίες με το ChatGPT, χρησιμοποιώντας το chatbot σαν έμπιστο συνομιλητή.

Στις συνομιλίες αυτές μιλούσε για τη μοναξιά και τις σεξουαλικές του απογοητεύσεις, για φαντασιώσεις που αφορούσαν ανήλικη, για αυτοκτονικές σκέψεις, για την εμμονή του με τον Χίτλερ, τους Ναζί και τις φυλετικές διακρίσεις, αλλά και για το ενδιαφέρον του γύρω από μαζικές δολοφονίες και σχολικές επιθέσεις όπως το Columbine και το Virginia Tech.

Σύμφωνα με την αγωγή, ο Ikner φέρεται επίσης να ανέβασε φωτογραφίες όπλων που είχε αποκτήσει και να ρώτησε το ChatGPT πώς θα καλυπτόταν επικοινωνιακά μια επίθεση στο πανεπιστήμιο.

Η αγωγή ισχυρίζεται ότι το chatbot τού απάντησε πως «αν εμπλέκονται παιδιά» σε μια επίθεση, «ακόμη και δύο ή τρία θύματα μπορούν να τραβήξουν μεγαλύτερη προσοχή», ενώ του παρείχε πληροφορίες σχετικά με πυρομαχικά και τη χρήση διαφορετικών όπλων.

Παράλληλα, το ChatGPT φέρεται να έδωσε συμβουλές σχετικά με το ποια χρονική στιγμή θα ήταν «καλύτερη» για μια σχολική επίθεση — συμβουλές που, σύμφωνα με την αγωγή, ο δράστης ακολούθησε.

Από την επίθεση σκοτώθηκαν ο Chabba και ακόμη ένα ενήλικο θύμα, ενώ πολλοί ακόμη τραυματίστηκαν.

«Ο Ikner είχε εκτενείς συνομιλίες με το ChatGPT οι οποίες, συνολικά, θα οδηγούσαν κάθε λογικό άνθρωπο στο συμπέρασμα ότι σχεδίαζε άμεση επίθεση εναντίον άλλων ανθρώπων», αναφέρει η αγωγή.

«Ωστόσο, το ChatGPT είτε απέτυχε ελαττωματικά να συνδέσει τα προειδοποιητικά σημάδια είτε δεν είχε ποτέ σχεδιαστεί σωστά ώστε να τα αναγνωρίζει».

Η υπόθεση αποκτά ακόμη μεγαλύτερη βαρύτητα καθώς οι αρχές της Φλόριντα διεξάγουν πλέον και ποινική έρευνα για τον πιθανό ρόλο του ChatGPT στην επίθεση.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

«Αν το ChatGPT ήταν άνθρωπος», δήλωσε τον περασμένο μήνα ο Γενικός Εισαγγελέας της Φλόριντα James Uthmeier, «θα αντιμετώπιζε κατηγορίες για φόνο».

Η OpenAI, σε δήλωσή της στο NBC, υποστήριξε ότι «η επίθεση στο Florida State University ήταν μια τραγωδία, όμως το ChatGPT δεν ευθύνεται για αυτό το φρικτό έγκλημα».

Η εταιρεία ανέφερε ακόμη ότι το chatbot παρείχε «πραγματολογικές απαντήσεις» βασισμένες σε πληροφορίες διαθέσιμες δημόσια στο διαδίκτυο και ότι «δεν ενθάρρυνε ούτε προωθούσε παράνομη ή επιβλαβή δραστηριότητα».

Ωστόσο, τόσο οι δημοσιογραφικές αποκαλύψεις όσο και το περιεχόμενο της αγωγής περιγράφουν μια πολύ πιο ανησυχητική εικόνα.

Ο Ikner φαίνεται να είχε αναπτύξει μια σχεδόν προσωπική σχέση με το chatbot, ενώ οι πολύμηνες συνομιλίες τους σκιαγραφούν — σύμφωνα με το δημοσίευμα — το ψυχολογικό προφίλ ενός νεαρού ανθρώπου που κατευθυνόταν σταδιακά προς μια πράξη ακραίας βίας, χωρίς το σύστημα να ενεργοποιήσει επαρκείς μηχανισμούς παρέμβασης.

Και δεν πρόκειται για τη μοναδική υπόθεση.

Η OpenAI αντιμετωπίζει ακόμη μία αγωγή από οικογένειες θυμάτων της φονικής σχολικής επίθεσης που σημειώθηκε τον Φεβρουάριο στο Tumbler Ridge της Βρετανικής Κολομβίας, όπου σκοτώθηκαν έξι μαθητές ηλικίας 12 και 13 ετών και ένας δάσκαλος.

Σύμφωνα με τη Wall Street Journal, μήνες πριν από την επίθεση, τα αυτόματα συστήματα moderation της OpenAI είχαν ήδη επισημάνει συνομιλίες του 18χρονου δράστη λόγω ακραίων και βίαιων περιγραφών.

Πηγές αναφέρουν ότι στελέχη ασφαλείας της εταιρείας είχαν ζητήσει από την ηγεσία της OpenAI να ενημερώσει τις τοπικές αρχές, ωστόσο η διοίκηση φέρεται να επέλεξε τελικά να μην το κάνει.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: