Η νεότερη έκδοση του ChatGPT πέρασε τις ιατρικές εξετάσεις αδειοδότησης στις ΗΠΑ με άριστα - και διέγνωσε μια κατάσταση 1 στις 100.000 σε δευτερόλεπτα

Περίληψη άρθρου:
Ο Dr. Isaac Kohane, επιστήμονας υπολογιστών και γιατρός στο Χάρβαρντ, δοκίμασε το GPT-4, το νεότερο μοντέλο τεχνητής νοημοσύνης από την OpenAI, σε ιατρικό περιβάλλον. Διαπίστωσε ότι ήταν σε θέση να απαντήσει σωστά σε ερωτήσεις για την αδειοδότηση ιατρικών εξετάσεων στις ΗΠΑ σε ποσοστό άνω του 90% των περιπτώσεων, και ήταν επίσης σε θέση να μεταφράσει πληροφορίες για το εξιτήριο ενός ασθενούς που μιλάει πορτογαλικά και να αποστάξει την περίπλοκη τεχνική ορολογία σε κάτι που θα μπορούσαν να διαβάσουν εύκολα μαθητές της 6ης δημοτικού. Το GPT-4 μπορεί επίσης να δώσει στους γιατρούς χρήσιμες υποδείξεις σχετικά με τον τρόπο συμπεριφοράς στο κρεβάτι και να διαβάσει μακροσκελείς εκθέσεις ή μελέτες και να τις συνοψίσει γρήγορα. Ωστόσο, δεν είναι ικανό για πραγματική κατανόηση ή πρόθεση και μπορεί να κάνει λάθη. Για να αποφύγετε τα λάθη, οι συγγραφείς προτείνουν το GPT-4 να διαβάζει τη δική του εργασία με καινούργια μάτια ή να του δείχνει τη δουλειά του. Το GPT-4 έχει τη δυνατότητα να απελευθερώσει πόρους στην κλινική, αλλά είναι σημαντικό να σκεφτούμε πώς θέλουμε να λειτουργεί αυτός ο κόσμος.
Αναλυτικά το άρθρο :
Ο Δρ Isaac Kohane, ο οποίος είναι ταυτόχρονα επιστήμονας πληροφορικής στο Χάρβαρντ και γιατρός, συνεργάστηκε με δύο συναδέλφους του για τη δοκιμαστική οδήγηση του GPT-4, με έναν κύριο στόχο: να δει πώς το νεότερο μοντέλο τεχνητής νοημοσύνης από την OpenAI αποδίδει σε ιατρικό περιβάλλον.
"Είμαι έκπληκτος να πω: καλύτερα από πολλούς γιατρούς που έχω παρατηρήσει", λέει στο επερχόμενο βιβλίο "Η επανάσταση της τεχνητής νοημοσύνης στην ιατρική", το οποίο συνυπογράφουν ο ανεξάρτητος δημοσιογράφος Carey Goldberg, και ο αντιπρόεδρος έρευνας της Microsoft, Peter Lee. (Οι συγγραφείς λένε ότι ούτε η Microsoft ούτε η OpenAI χρειάστηκαν οποιαδήποτε εκδοτική επίβλεψη του βιβλίου, αν και η Microsoft έχει επενδύσει δισεκατομμύρια δολάρια στην ανάπτυξη των τεχνολογιών της OpenAI).
Στο βιβλίο, ο Kohane λέει ότι το GPT-4, το οποίο κυκλοφόρησε τον Μάρτιο του 2023 σε συνδρομητές που πληρώνουν, απαντά σωστά σε ερωτήσεις αδειοδότησης ιατρικών εξετάσεων στις ΗΠΑ σε ποσοστό άνω του 90% των περιπτώσεων. Είναι πολύ καλύτερος εξεταστής από τα προηγούμενα μοντέλα τεχνητής νοημοσύνης ChatGPT, GPT-3 και GPT-3.5, και καλύτερος και από ορισμένους αδειούχους γιατρούς.
Ωστόσο, το GPT-4 δεν είναι απλώς ένας καλός δοκιμαστής και εύρεσης γεγονότων. Είναι επίσης ένας πολύ καλός μεταφραστής. Στο βιβλίο είναι ικανό να μεταφράσει πληροφορίες για το εξιτήριο ενός ασθενούς που μιλάει πορτογαλικά και να αποστάξει την περίπλοκη τεχνική ορολογία σε κάτι που θα μπορούσαν να διαβάσουν εύκολα μαθητές της 6ης δημοτικού.
Όπως εξηγούν οι συγγραφείς με παραστατικά παραδείγματα, το GPT-4 μπορεί επίσης να δώσει στους γιατρούς χρήσιμες υποδείξεις σχετικά με τον τρόπο συμπεριφοράς στο κρεβάτι, προσφέροντας συμβουλές για το πώς να μιλούν στους ασθενείς για τις παθήσεις τους με συμπονετική, σαφή γλώσσα, και μπορεί να διαβάσει μακροσκελείς εκθέσεις ή μελέτες και να τις συνοψίσει εν ριπή οφθαλμού. Η τεχνολογία μπορεί ακόμη και να εξηγήσει τη συλλογιστική της μέσα από προβλήματα με τρόπο που απαιτεί κάποιο μέτρο που μοιάζει με νοημοσύνη ανθρώπινου τύπου.
Αλλά αν ρωτήσετε το GPT-4 πώς τα κάνει όλα αυτά, πιθανότατα θα σας πει ότι όλη η νοημοσύνη του εξακολουθεί να "περιορίζεται σε μοτίβα στα δεδομένα και δεν περιλαμβάνει πραγματική κατανόηση ή σκοπιμότητα". Αυτό ακριβώς είπε το GPT-4 στους συγγραφείς του βιβλίου, όταν το ρώτησαν αν μπορεί πραγματικά να εμπλακεί σε αιτιώδη συλλογισμό. Ακόμη και με τέτοιους περιορισμούς, όπως ανακάλυψε ο Kohane στο βιβλίο, το GPT-4 μπορεί να μιμηθεί τον τρόπο με τον οποίο οι γιατροί διαγιγνώσκουν καταστάσεις με εκπληκτική - αν και ατελή - επιτυχία.
Πώς το GPT-4 μπορεί να κάνει διάγνωση σαν γιατρός
Ο Kohane περνάει από ένα κλινικό πείραμα σκέψης με το GPT-4 στο βιβλίο, βασισμένο σε μια πραγματική περίπτωση που αφορούσε ένα νεογέννητο μωρό που είχε θεραπεύσει αρκετά χρόνια νωρίτερα. Δίνοντας στο ρομπότ μερικές βασικές λεπτομέρειες για το μωρό που συγκέντρωσε από μια φυσική εξέταση, καθώς και κάποιες πληροφορίες από ένα υπερηχογράφημα και τα επίπεδα ορμονών, η μηχανή ήταν σε θέση να διαγνώσει σωστά μια κατάσταση 1 στις 100.000 που ονομάζεται συγγενής υπερπλασία των επινεφριδίων "όπως ακριβώς θα έκανα εγώ, με όλα τα χρόνια μελέτης και εμπειρίας μου", έγραψε ο Kohane.
Ο γιατρός εντυπωσιάστηκε και τρομοκρατήθηκε.
"Από τη μία πλευρά, είχα μια εξελιγμένη ιατρική συζήτηση με μια υπολογιστική διαδικασία", έγραψε, "από την άλλη πλευρά, εξίσου συγκλονιστική ήταν η αγχώδης συνειδητοποίηση ότι εκατομμύρια οικογένειες θα είχαν σύντομα πρόσβαση σε αυτή την εντυπωσιακή ιατρική τεχνογνωσία και δεν μπορούσα να καταλάβω πώς θα μπορούσαμε να εγγυηθούμε ή να πιστοποιήσουμε ότι οι συμβουλές του GPT-4 θα ήταν ασφαλείς ή αποτελεσματικές".
Το GPT-4 δεν έχει πάντα δίκιο - και δεν έχει ηθική πυξίδα
Το GPT-4 δεν είναι πάντα αξιόπιστο, και το βιβλίο είναι γεμάτο με παραδείγματα των λαθών του. Αυτά κυμαίνονται από απλά γραφικά λάθη, όπως η λανθασμένη αναγραφή ενός ΔΜΣ που το ρομπότ είχε υπολογίσει σωστά λίγο νωρίτερα, μέχρι μαθηματικά λάθη όπως η ανακριβής "επίλυση" ενός παζλ Sudoku ή το να ξεχάσει να τετραγωνίσει έναν όρο σε μια εξίσωση. Τα λάθη είναι συχνά ανεπαίσθητα και το σύστημα έχει την τάση να ισχυρίζεται ότι έχει δίκιο, ακόμη και όταν αμφισβητείται.
Δεν είναι δύσκολο να φανταστεί κανείς πώς ένας λάθος αριθμός ή ένα λάθος υπολογισμένο βάρος θα μπορούσε να οδηγήσει σε σοβαρά λάθη στη συνταγογράφηση, ή στη διάγνωση. Όπως και τα προηγούμενα GPT, το GPT-4 μπορεί επίσης να "παραισθήσεις" - ο τεχνικός ευφημισμός για την περίπτωση που η τεχνητή νοημοσύνη επινοεί απαντήσεις ή δεν υπακούει σε αιτήματα.
Όταν ρωτήθηκε σχετικά με το θέμα αυτό από τους συγγραφείς του βιβλίου, ο GPT-4 δήλωσε: "Δεν έχω πρόθεση να εξαπατήσω ή να παραπλανήσω κανέναν, αλλά μερικές φορές κάνω λάθη ή υποθέσεις που βασίζονται σε ελλιπή ή ανακριβή δεδομένα. Επίσης, δεν έχω την κλινική κρίση ή την ηθική ευθύνη ενός ανθρώπινου γιατρού ή νοσηλευτή".
Μια πιθανή διασταύρωση που προτείνουν οι συγγραφείς στο βιβλίο είναι να ξεκινήσετε μια νέα συνεδρία με το GPT-4 και να το αφήσετε να "διαβάσει" και να "επαληθεύσει" τη δική του δουλειά με "φρέσκα μάτια". Αυτή η τακτική λειτουργεί μερικές φορές για την αποκάλυψη λαθών - αν και το GPT-4 είναι κάπως επιφυλακτικό να παραδεχτεί πότε έχει κάνει λάθος. Μια άλλη πρόταση εντοπισμού σφαλμάτων είναι να διατάξετε το ρομπότ να σας δείξει τη δουλειά του, ώστε να μπορείτε να την επαληθεύσετε, με ανθρώπινο τρόπο.
Είναι σαφές ότι το GPT-4 έχει τη δυνατότητα να απελευθερώσει πολύτιμο χρόνο και πόρους στην κλινική, επιτρέποντας στους κλινικούς γιατρούς να είναι περισσότερο παρόντες με τους ασθενείς, "αντί για τις οθόνες των υπολογιστών τους", γράφουν οι συγγραφείς. Αλλά, λένε, "πρέπει να αναγκάσουμε τους εαυτούς μας να φανταστούμε έναν κόσμο με όλο και πιο έξυπνες μηχανές, που τελικά ίσως ξεπεράσουν την ανθρώπινη νοημοσύνη σχεδόν σε κάθε διάσταση. Και στη συνέχεια να σκεφτούμε πολύ σκληρά για το πώς θέλουμε να λειτουργεί αυτός ο κόσμος".
Πηγή: The newest version of ChatGPT passed the US medical licensing exam with flying colors — and diagnosed a 1 in 100,000 condition in seconds
