ΚΟΣΜΟΣ

«Μην ζητάτε ιατρικές συμβουλές από το ChatGPT», προειδοποιούν οι επιστήμονες

«Μην ζητάτε ιατρικές συμβουλές από το ChatGPT», προειδοποιούν οι επιστήμονες
Το ChatGPT δεν τα καταφέρνει ιδιαίτερα καλά στις συμβουλές σε θέματα υγείας... AP Photo/Matt Rourke

Όλοι μας λίγο πολύ έχουμε χρησιμοποιήσει τον… Δρ. Google για ιατρικές συμβουλές όταν μας απασχολεί κάποιο θέμα υγείας, ενώ τώρα τελευταία πολλοί προτιμούν το ChatGPΤ. Πόσο ασφαλές είναι, όμως, κάτι τέτοιο;

Καθόλου, απαντούν οι ερευνητές του Πανεπιστημίου του Λονγκ Άιλαντ, οι έθεσαν 39 ερωτήματα σχετικά με τη φαρμακευτική αγωγή στη δωρεάν έκδοση του chatbot τεχνητής νοημοσύνης. Στη συνέχεια, οι απαντήσεις του λογισμικού συγκρίθηκαν με απαντήσεις που γράφτηκαν και εξετάστηκαν από εκπαιδευμένους φαρμακοποιούς.

Η μελέτη διαπίστωσε ότι το ChatGPT παρείχε ακριβείς απαντήσεις μόνο σε περίπου 10 από τις ερωτήσεις, δηλαδή περίπου στο ένα τέταρτο του συνόλου. Για τις υπόλοιπες 29, οι απαντήσεις ήταν ελλιπείς ή ανακριβείς ή δεν απαντούσαν ευθέως στις ερωτήσεις.

Τα ευρήματα παρουσιάστηκαν την περασμένη εβδομάδα στην ετήσια συνάντηση της Αμερικανικής Εταιρείας Φαρμακοποιών Συστημάτων Υγείας στο Άναχαϊμ της Καλιφόρνια.

Το ChatGPT, το πειραματικό chatbot τεχνητής νοημοσύνης της OpenAI, κυκλοφόρησε τον Νοέμβριο του 2022 και έγινε η ταχύτερα αναπτυσσόμενη καταναλωτική εφαρμογή στην ιστορία, με σχεδόν 100 εκατομμύρια ανθρώπους να εγγράφονται μέσα σε δύο μήνες.

Δεδομένης αυτής της δημοτικότητας, το ενδιαφέρον των ερευνητών προκλήθηκε από την ανησυχία ότι οι φοιτητές τους, άλλοι φαρμακοποιοί και απλοί καταναλωτές θα στρέφονται σε πόρους όπως το ChatGPT για να θέσουν ερωτήσεις σχετικές με την υγεία και τη φαρμακευτική αγωγή, δήλωσε στο CNNi η Σάρα Γκρόσμαν, καθηγήτρια φαρμακευτικής πρακτικής στο Πανεπιστήμιο του Λονγκ Άιλαντ και μία από τους συγγραφείς της μελέτης.

Ανακριβείς και επικίνδυνες απαντήσεις

Στα ερωτήματα αυτά, διαπίστωσαν, συχνά δίνονταν ανακριβείς – ή και επικίνδυνες – απαντήσεις.

Σε μια ερώτηση, για παράδειγμα, οι ερευνητές ρώτησαν το ChatGPT αν το αντιιικό φάρμακο για την COVID19 Paxlovid και τα φάρμακα για τη μείωση της αρτηριακής πίεσης που περιέχουν βεραπαμίλη θα αντιδρούσαν μεταξύ τους στον οργανισμό. Το ChatGPT απάντησε ότι η συνδυασμένη λήψη των δύο φαρμάκων δεν θα απέφερε καμία ανεπιθύμητη ενέργεια.

Στην πραγματικότητα, τα άτομα που λαμβάνουν και τα δύο φάρμακα ενδέχεται να έχουν μεγάλη πτώση της αρτηριακής πίεσης, η οποία μπορεί να προκαλέσει ζάλη και λιποθυμία. Για τους ασθενείς που λαμβάνουν και τα δύο, οι κλινικοί γιατροί συχνά δημιουργούν σχέδια ειδικά για τον ασθενή, συμπεριλαμβανομένης της μείωσης της δόσης της βεραπαμίλης ή της προειδοποίησης στο άτομο να σηκώνεται αργά από καθιστή θέση, δήλωσε η Γκρόσμαν.

«Η χρήση του ChatGPT για απάντηση σε αυτή την ερώτηση θα έθετε έναν ασθενή σε κίνδυνο για μια ανεπιθύμητη και αποτρέψιμη φαρμακευτική αλληλεπίδραση», είπε η Γκρόσμαν.

Σε άλλη ερώτηση, ζητήθηκε από το ChatGPT να μετατρέψει τις δόσεις για ένεση στη σπονδυλική στήλη της ουσίας για μυϊκό σπασμό βακλοφαίνης σε αντίστοιχες δόσεις για λήψη από το στόμα. Η απάντηση του λογισμικού συνέστησε ποσότητα βακλοφαίνης για λήψη από το στόμα χίλιες φορές μικρότερη από το αναμενόμενο.

Κατασκεύαζε ψευδείς επιστημονικές αναφορές

Όταν οι ερευνητές ζήτησαν από το chatbot επιστημονικές αναφορές για την υποστήριξη κάθε απάντησής του, διαπίστωσαν ότι το μπορούσε να τις παράσχει μόνο για οκτώ από τις 39 ερωτήσεις που έθεσαν. Και στις οκτώ αυτές περιπτώσεις, με έκπληξη διαπίστωσαν ότι το ChatGPT κατασκεύαζε αναφορές.

Με την πρώτη ματιά, οι αναφορές φαίνονταν νόμιμες: Ήταν κατάλληλα μορφοποιημένες, παρείχαν διευθύνσεις URL και αναφέρονταν σε νόμιμα επιστημονικά περιοδικά. Αλλά όταν η ομάδα προσπάθησε να βρει τα άρθρα στα οποία αναφέρονταν, συνειδητοποίησαν ότι το ChatGPT τους είχε δώσει πλασματικές παραπομπές.

Εκπρόσωπος της OpenAI, της εταιρείας που αναπτύσσει το ChatGPT, δήλωσε ότι η εταιρεία συμβουλεύει τους χρήστες να μην βασίζονται στις απαντήσεις ως υποκατάστατο επαγγελματικών ιατρικών συμβουλών ή θεραπείας. Επεσήμανε τις πολιτικές χρήσης του ChatGPT, οι οποίες αναφέρουν ότι «τα μοντέλα του OpenAI δεν είναι ρυθμισμένα ώστε να παρέχουν ιατρικές πληροφορίες». Η πολιτική αναφέρει επίσης ότι τα μοντέλα δεν πρέπει ποτέ να χρησιμοποιούνται για την παροχή «διαγνωστικών ή θεραπευτικών υπηρεσιών για σοβαρές ιατρικές καταστάσεις».

Με πληροφορίες από: ChatGPT struggles to answer medical questions, new research finds by Giri Viswanathan, CNN

ΔΗΜΟΦΙΛΗ