Μπορείς ακόμα να ζητήσεις ιατρικές συμβουλές από το ChatGPT;

Μπορείς ακόμα να ζητήσεις ιατρικές συμβουλές από το ChatGPT;
Photo: Shutterstock
Όσο περισσότεροι ανατρέχουν στο ChatGPT για συμβουλές υγείας, τόσο πιο κρίσιμο γίνεται να καταλήξουν στο πού σταματά η πληροφόρηση και πού αρχίζει η ιατρική συμβουλή.
  • Η OpenAI δεν απαγορεύει στο ChatGPT να δίνει πληροφορίες για την υγεία — απλώς διευκρινίζει ότι δεν μπορεί να παρέχει εξατομικευμένες ιατρικές συμβουλές χωρίς συμμετοχή επαγγελματία.

  • Η χρήση του ChatGPT για ιατρική ενημέρωση αυξάνεται ραγδαία, με περίπου 1 στους 6 χρήστες να το συμβουλεύεται για θέματα υγείας κάθε μήνα.

  • Οι νέοι όροι χρήσης προστατεύουν την OpenAI από νομική ευθύνη και θέτουν σαφή όρια μεταξύ ιατρικής πληροφόρησης και ιατρικής πράξης.

Μην ανησυχείτε, μπορείτε να συνεχίσετε να απευθύνετε στο ChatGPT όλες τις καυτές ερωτήσεις σας για την υγεία.

Μια σειρά από ειδησεογραφικά άρθρα και δημοσιεύσεις στο X το πρωί της Δευτέρας, περιλαμβάνοντας και ανάρτηση της αγοράς προβλέψεων Kalshi, υπέδειξαν ότι η OpenAI δεν θα προσφέρει πλέον συμβουλές υγείας μέσω του ChatGPT.

Αυτό δεν είναι απολύτως ακριβές. Η OpenAI μπορεί ακόμη να σας παρέχει ιατρικές πληροφορίες, απλώς δεν μπορεί να προσποιείται ότι είναι ο γιατρός σας.

«Αυτή δεν αποτελεί νέα αλλαγή στους όρους μας. Το ChatGPT ποτέ δεν ήταν υποκατάστατο επαγγελματικής νομικής ή ιατρικής συμβουλής, αλλά θα συνεχίσει να αποτελεί εξαιρετικό εργαλείο για να βοηθά τους ανθρώπους να κατανοούν νομικές και υγειονομικές πληροφορίες», δήλωσε εκπρόσωπος της OpenAI σε ανακοίνωση προς το Business Insider.

Η Kalshi αφαίρεσε την ανάρτηση από το X μετά τη δημοσίευση αυτού του άρθρου.

Οι αναρτήσεις βασίστηκαν στην πολιτική χρήσης της OpenAI, η οποία ενημερώθηκε στις 29 Οκτωβρίου και περιέλαβε νέο κείμενο σχετικά με ιατρικές κατευθύνσεις. Οι νέες πολιτικές αναφέρουν ότι οι χρήστες δεν μπορούν να χρησιμοποιούν τις υπηρεσίες της OpenAI για «παροχή εξατομικευμένων συμβουλών που απαιτούν άδεια, όπως νομική ή ιατρική συμβουλή, χωρίς την κατάλληλη συμμετοχή αδειοδοτημένου επαγγελματία».

Η νέα πραγματικότητα των χρηστών: AI αντί για «Δρ. Google»

Το ChatGPT έχει γνωρίσει εκρηκτική αύξηση στη δημοτικότητα μεταξύ των χρηστών που αναζητούν πληροφορίες για την υγεία. Οι άνθρωποι το χρησιμοποιούν για να προετοιμαστούν για τις επισκέψεις τους στον γιατρό, να αποκρυπτογραφήσουν πολύπλοκη ιατρική ορολογία και να πάρουν μια δεύτερη γνώμη για τα συμπτώματά τους. Περίπου 1 στους 6 χρήστες χρησιμοποιεί το ChatGPT για συμβουλές υγείας τουλάχιστον μία φορά τον μήνα, σύμφωνα με έρευνα της KFF του 2024.

Η ιδέα ότι το ChatGPT δεν θα παρέχει πια συμβουλές υγείας ξάφνιασε τους χρήστες. Σε μια απάντηση στην ανάρτηση της Kalshi που είχε πάνω από 2.100 «μου αρέσει» έως νωρίς το μεσημέρι της Δευτέρας, ένας χρήστης δήλωσε ότι «αν το ChatGPT δεν μπορεί να προσφέρει συμβουλές υγείας, τότε δεν έχω πια λόγο να το χρησιμοποιώ lol».

Είναι αλήθεια ότι το ChatGPT δεν μπορεί να κάνει διάγνωση ή να παρέχει εις βάθος ιατρική καθοδήγηση εξατομικευμένη για εσάς.

Εξατομικευμένες, εξειδικευμένες συστάσεις είναι εκείνες που νομικά διαχωρίζουν την «ιατρική συμβουλή» από τις «ιατρικές πληροφορίες». Η παροχή γενικών πληροφοριών υγείας δεν απαιτεί ιατρική άδεια. Έτσι επιτρέπεται σε δημοσιογράφους, ιδρυτές και influencers να μοιράζονται πληροφορίες για την υγεία και συμβουλές ευεξίας στο διαδίκτυο χωρίς ιατρικό πτυχίο.

Ισχύει η ίδια λογική όπως για έναν TikToker οικονομικών να μοιράζεται τις κορυφαίες του μετοχικές επιλογές αλλά να διευκρινίζει ότι «δεν είναι επενδυτική συμβουλή».

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Όταν η τεχνητή νοημοσύνη γίνεται επικίνδυνη

Οι ενημερωμένοι όροι χρήσης της OpenAI βοηθούν να χαραχθεί πιο σαφής γραμμή για τον περιορισμό της ευθύνης του τεχνολογικού κολοσσού. Καθώς όλο και περισσότεροι χρήστες απευθύνονται στο ChatGPT για ιατρική συμβουλή, εμφανίζονται κάποιες περιπτώσεις όπου η συμβουλή αυτή είχε καταστροφικές συνέπειες.

Ένας άνδρας έπαθε σπάνια ψυχιατρική πάθηση μετά από συμβουλή του ChatGPT να αντικαταστήσει την πρόσληψη αλατιού με βρωμιούχο νάτριο, το οποίο είναι τοξικό για τον άνθρωπο, σύμφωνα με άρθρο του Αυγούστου στο Annals of Internal Medicine. Η OpenAI έχει επίσης εφαρμόσει πιο αυστηρούς μηχανισμούς προστασίας ψυχικής υγείας μετά τη δήλωσή της ότι τα μοντέλα της «δεν αναγνώρισαν επαρκώς ενδείξεις ψευδαισθήσεων ή συναισθηματικής εξάρτησης».

Το ChatGPT δεν μπορεί να αντικαταστήσει έναν κλινικό γιατρό, ειδικά για πιο σοβαρές καταστάσεις όπου απαιτείται διάγνωση ή κρίση επαγγελματικού επιπέδου. Οι πολιτικές χρήσης της OpenAI πλέον αναφέρουν ότι τα προϊόντα της δεν μπορούν να χρησιμοποιούνται για «αυτοματοποίηση αποφάσεων υψηλού ρίσκου σε ευαίσθητους τομείς χωρίς ανθρώπινη επανεξέταση», συμπεριλαμβανομένης της ιατρικής.

Οι ενημερωμένες πολιτικές χρήσης θα μπορούσαν να έχουν συνέπειες για την επέκταση της OpenAI στον τομέα της υγείας, μόλις λίγους μήνες αφότου η εταιρεία προσέλαβε νέους ηγέτες για τα καταναλωτικά και επιχειρηματικά της έργα υγειονομικής περίθαλψης. Αν η OpenAI δεν μπορεί να παρέχει εξατομικευμένη ιατρική συμβουλή, μπορεί να περιορίζεται η ικανότητά της να δημιουργεί προσωπικοποιημένα προϊόντα υγείας για τους καταναλωτές.

Αλλά για τον μέσο χρήστη, μπορείτε ακόμη να ζητάτε από το ChatGPT ιατρικές ερωτήσεις όπως θα ρωτούσατε τον «Γιατρό-Google». Απλώς μην χρησιμοποιείτε το chatbot ως υποκατάστατο του πραγματικού σας γιατρού.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: