Σάββατο 8 Απρίλη 2023 - Κυριακή 9 Απρίλη 2023
ΡΙΖΟΣΠΑΣΤΗΣ
ΡΙΖΟΣΠΑΣΤΗΣ
Σελίδα 29
ΠΟΙΚΙΛΗΣ ΥΛΗΣ - ΕΠΙΣΤΗΜΗ
ΑΞΙΟΠΟΙΗΣΗ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ ΣΤΗΝ ΥΓΕΙΑ
Chatbot σε ρόλο γιατρού

Λίγους μήνες μετά την ευρεία διάθεσή του, το ChatGPT αναβαθμίστηκε με το νέο GPT-4. Βελτιωμένο, αλλά με τα ίδια προβλήματα

Οι γιατροί είναι πια συνηθισμένοι να δέχονται ασθενείς που έχουν κάνει αναζήτηση των συμπτωμάτων τους στο διαδίκτυο και ενδεχομένως έχουν στη βάση αυτών των πληροφοριών προχωρήσει και σε μια πρώτη διάγνωση της ασθένειάς τους. Κάποιοι στηρίζονται σε αυτήν την αυτοδιάγνωση μέσω Google και δεν πάνε καθόλου στον γιατρό. Ωθηση προς αυτήν την κατεύθυνση, ιδιαίτερα σε εκείνους που τα φέρνουν πιο δύσκολα οικονομικά, δίνουν το κόστος των ιατρικών εξετάσεων και οι δυσκολίες (διαθέσιμα ραντεβού μετά από μήνες), που τα καπιταλιστικά κράτη αυξάνουν διαρκώς, καθώς προωθούν τόσο την ιδιωτική Υγεία απευθείας, όσο και τα ιδιωτικοοικονομικά κριτήρια λειτουργίας της παρεχόμενης από το κράτος Υγείας.

Τους τελευταίους μήνες, όμως, οι γιατροί αρχίζουν να παρατηρούν και ένα νέο φαινόμενο: Τη χρήση από τους ασθενείς για αυτοδιάγνωση ενός πολύ πιο ισχυρού εργαλείου, των διαλογικών γλωσσικών μοντέλων (chatbot) Τεχνητής Νοημοσύνης (ΤΝ), όπως το ChatGPT της «OpenAI», η νέα έκδοση της μηχανής αναζήτησης Bing της «Microsoft» (που στηρίζεται στο λογισμικό της «OpenAI») και το Med-PaLM της «Google». Αυτά τα διαλογικά γλωσσικά μοντέλα παράγουν λόγο, προβλέποντας την «ορθότερη» επόμενη λέξη στην απάντησή τους, με βάση την ερώτηση (ή την ακολουθία ερωτήσεων) που έκανε ο χρήστης και τον μέχρι εκείνη τη στιγμή διάλογο μαζί του. Δεν έχουν πραγματική αντίληψη ούτε τι είναι ασθένεια ούτε τι είναι θεραπεία, αλλά χρησιμοποιούν τις πληροφορίες με τις οποίες έχουν εκπαιδευτεί για να παράξουν μια απάντηση, που μοιάζει σαν να ξέρουν για τι μιλάνε. Είναι πάντως αλήθεια ότι στην πλειοψηφία των περιπτώσεων κάνουν σωστή, ή αρκετά σωστή διάγνωση.

Τεχνητή Νοημοσύνη στην υπηρεσία του κεφαλαίου

Πολλοί στην ιατρική κοινότητα στις ΗΠΑ, αλλά και μεταξύ των κεφαλαιοκρατών, που βρίσκονται πίσω από ιδιωτικά νοσοκομεία, ιατρικά κέντρα κ.λπ. προσβλέπουν στη βοήθεια αυτού του είδους ΤΝ, ώστε να αντιμετωπιστεί η έλλειψη ιατρικού προσωπικού (για την οποία συνήθως κατηγορούνται οι ίδιοι οι Αμερικανοί ως περίπου φυγόπονοι, επειδή δεν γίνονται γιατροί, μηχανικοί, επιστήμονες πληροφορικής κ.ο.κ.). Κάποιοι ερευνητές προβλέπουν μάλιστα ότι μέσα στο τρέχον έτος, μεγάλο ιατρικό κέντρο στις ΗΠΑ θα ανακοινώσει τη χρήση διαλογικών γλωσσικών μοντέλων ΤΝ, για την αλληλεπίδραση με τους ασθενείς και τη διάγνωση των ασθενειών!

Αρκετοί γιατροί ανησυχούν για τις συνέπειες των ελαττωμάτων της ΤΝ, την ακρίβεια των απαντήσεων που δίνει στους ασθενείς, την παραβίαση της ιδιωτικότητάς τους, τις ρατσιστικές διακρίσεις και τις διακρίσεις με βάση το φύλο, οι οποίες είναι ενσωματωμένες στα δεδομένα που χρησιμοποιήθηκαν για την εκπαίδευσή της. Ανησυχούν επίσης για τον τρόπο που ο κάθε ασθενής θα ερμηνεύσει τις απαντήσεις της ΤΝ. Διαμορφώνεται ένα πεδίο πιο επικίνδυνο απ' ό,τι μέχρι σήμερα με τις υποβοηθούμενες από αναζήτηση στο διαδίκτυο αυτοδιαγνώσεις.

Με δική σας ευθύνη

Σε προδημοσίευση μελέτης, που δεν έχει ακόμη ελεγχθεί για την ορθότητά της από την επιστημονική κοινότητα, ομάδα ερευνητών του Χάρβαρντ τροφοδότησε περιγραφές συμπτωμάτων 48 ασθενών στο GPT-3, την έκδοση του γλωσσικού μοντέλου που υποστήριζε τη λειτουργία του ChatGPT τη στιγμή εκείνη. Μεταξύ των τριών ενδεχόμενων διαγνώσεων που έκανε η ΤΝ, στο 88% των περιπτώσεων περιλαμβανόταν και η σωστή διάγνωση. Οι γιατροί είχαν 96% επιτυχία (κάνοντας μία διάγνωση και όχι τρεις διαφορετικές), ενώ άνθρωποι χωρίς ιατρική εκπαίδευση έκαναν σωστή διάγνωση στο 54% των περιπτώσεων. Οι αλγόριθμοι εκτίμησης των συμπτωμάτων που υπήρχαν μέχρι χτες, περιλάμβαναν τη σωστή διάγνωση μεταξύ τριών προτεινόμενων, στο 51% των περιπτώσεων. Είναι φανερό ότι τα διαλογικά γλωσσικά μοντέλα που στηρίζονται στο GPT από την έκδοση 3 και πάνω, κάνουν πολύ πιο σωστές διαγνώσεις, συγκριτικά με το παλιότερο λογισμικό.

Ενα σημείο ανησυχίας προέρχεται από το γεγονός ότι η ΤΝ εκπαιδεύεται με πηγές, που μπορεί να είναι ένα έγγραφο της αρμόδιας κρατικής υπηρεσίας για θέματα δημόσιας υγείας, μέχρι μια τυχαία ανάρτηση στο Facebook. Η «OpenAI» όταν ρωτήθηκε αν δίνεται μεγαλύτερη βαρύτητα σε κάποιες πηγές πληροφόρησης απέφυγε να απαντήσει. Αλλωστε, η εταιρεία, για να αποφύγει τυχόν αστικές και ποινικές διώξεις, στη νομική κατοχύρωση του προϊόντος της δηλώνει ότι το ChatGPT δεν πρέπει να χρησιμοποιείται για τη διάγνωση σοβαρών νόσων, την παροχή οδηγιών για τη θεραπεία νόσων ή τη διαχείριση επικίνδυνων για τη ζωή θεμάτων.

Ψευδαισθήσεις και πάλι

Μπορεί κανείς εύκολα να σκεφτεί και τρόπους σκόπιμης «μόλυνσης» του GPT με λαθεμένες πληροφορίες, όπως η μαζική ανάρτηση στο διαδίκτυο αντιεμβολιαστικού υλικού, φτιαγμένου έτσι, ώστε να έχει αυξημένη πιθανότητα να χρησιμοποιηθεί από την ΤΝ. Η συνοδεία της απάντησης με τις πηγές στις οποίες στηρίχθηκε οπωσδήποτε βοηθά, αλλά η ευκολία χρήσης της διατυπωμένης απάντησης «αμάσητης» δεν εξασφαλίζει ότι θα εντοπιστούν λάθη από τον τελικό χρήστη, ο οποίος κατά κάποιο τρόπο πρέπει να παίξει τον ρόλο ...αρχίατρου, που θα αξιολογήσει τυχόν διαφορετικές ιατρικές γνώμες. Το χειρότερο είναι ότι τα διαλογικά γλωσσικά μοντέλα έχουν συχνά ψευδαισθήσεις πως γνωρίζουν την απάντηση για κάποιο ζήτημα και κατασκευάζουν εξολοκλήρου ψευδείς, αλλά αληθοφανείς απαντήσεις.

Πριν από μερικές βδομάδες και μόλις λίγους μήνες μετά την ευρεία διάθεσή του στο κοινό, το ChatGPT αναβαθμίστηκε από την «OpenAI», ώστε να χρησιμοποιεί την έκδοση 4 του GPT (Generative Pre-trained Transformer, δηλαδή Παραγωγικός Προεκπαιδευμένος Μετασχηματιστής), αντί την έκδοση 3.5. Σύμφωνα με την εταιρεία η έκδοση αυτή είναι πιο ασφαλής ως προς τις απαντήσεις που δίνει, πετυχαίνει σημαντικά καλύτερες επιδόσεις σε εξετάσεις, όπως αυτές για την εξασφάλιση άδειας άσκησης επαγγέλματος δικηγόρου και πάσχει λιγότερο από ...ψευδαισθήσεις. Η βελτίωση στην ασφάλεια των απαντήσεων φαίνεται να έγινε έως έναν βαθμό με περιορισμό της πολυλογίας του ChatGPT, καθώς τώρα δίνει πιο λακωνικές απαντήσεις, με αποτέλεσμα συχνά να μην προσφέρει και κάποιες χρήσιμες πληροφορίες ή πλευρές του θέματος για το οποίο ρωτήθηκε. Σε μια άλλη εξέλιξη, η ιταλική Αρχή Προστασίας Προσωπικών Δεδομένων ήταν η πρώτη που απαγόρευσε τη χρήση του ChatGPT της «OpenAI» και της «Microsoft» στη γειτονική χώρα, υπογραμμίζοντας την «απουσία νομικής βάσης που να δικαιολογεί τη μαζική συλλογή και αποθήκευση προσωπικών δεδομένων για την εκπαίδευση των αλγορίθμων» του.

Ο ανταγωνισμός

Η «Google» ακολουθεί διαφορετική προσέγγιση με το Med-PaLM, χρησιμοποιώντας εκτεταμένη τράπεζα δεδομένων με πραγματικά σύνολα συμπτωμάτων και ιατρικές διαγνώσεις, καθώς και υλικά από εξετάσεις για χορήγηση άδειας άσκησης επαγγέλματος σε γιατρούς. Σύμφωνα με ερευνητές της ίδιας της «Google», το Med-PaLM σε σχετική δοκιμή που πραγματοποιήθηκε έδωσε 92,6% σωστές απαντήσεις, έναντι 92,9% σωστών απαντήσεων που έδωσαν γιατροί.

Και πιο πρώιμες εκδόσεις ΤΝ διαφόρων εταιρειών είχαν περάσει τις εξετάσεις για ιατρική άδεια. Ομως, όπως επισημαίνουν ειδικοί, η πραγματικότητα δεν είναι διαγώνισμα πολλαπλών επιλογών, αλλά μια ισορροπία με διαφορετικές αποχρώσεις κάθε φορά, ανάμεσα στον ασθενή, τον γιατρό και το κοινωνικό πλαίσιο. Και βέβαια η ταχύτητα με την οποία τείνει να εξαπλωθεί η χρήση της ΤΝ στον τομέα της Υγείας, χωρίς να έχει νομοθετηθεί κανένα πλαίσιο για τη χρήση της, δημιουργεί προβληματισμό ακόμη και σε αρκετούς ένθερμους υποστηρικτές της.

Ορισμένοι ανησυχούν ότι ο φιλικός τόνος των chatbot μπορεί να κάνει τους ασθενείς να τα εμπιστευτούν υπερβολικά, παρέχοντας προσωπικές πληροφορίες που θα επιτρέπουν την αναγνώρισή τους και θα τους εκθέτουν σε κίνδυνο. Σύμφωνα με την ιστοσελίδα της «OpenAI», το ChatGPT συλλέγει πληροφορίες, όπως η τοποθεσία και η διεύθυνση IP, που, σε συνδυασμό με κατά τ' άλλα αθώες πληροφορίες για μέλη της οικογένειας ή χόμπι, θα μπορούσαν να απειλήσουν την ιδιωτικότητα ενός ανθρώπου.

Πειραματισμοί για το κέρδος

Χρήση του GPT-3 από εφαρμογή ψυχικής υποστήριξης για σύνταξη ενθαρρυντικών μηνυμάτων σε 4.000 χρήστες είχε ως αποτέλεσμα μόλις οι χρήστες της μάθαιναν ότι δεν συνομιλούσαν πια με κάποιον άνθρωπο ψυχολόγο, αλλά με ένα chatbot, να μην ακολουθούν πια τις συμβουλές. Ετσι, η εταιρεία που βρίσκεται πίσω από την εφαρμογή διέκοψε το πείραμα, που άλλωστε προκάλεσε διαμαρτυρίες, καθώς αποτελούσε πειραματισμό με ανθρώπους, χωρίς να έχουν δώσει τη συγκατάθεσή τους. Πρόσφατη έρευνα έδειξε ότι το 60% των Αμερικανών θα ένιωθαν άβολα αν ο γιατρός τους χρησιμοποιούσε ΤΝ για να κάνει διαγνώσεις και να προτείνει θεραπείες, παρότι μόνο στο 65% των περιπτώσεων μπορούσαν να διακρίνουν πότε η απάντηση είχε δοθεί από γιατρό ή από ΤΝ. Η εμπιστοσύνη τους στις απαντήσεις από ΤΝ μειωνόταν όσο αυξανόταν η σοβαρότητα του ιατρικού προβλήματος.

Μεταξύ όσων προωθούν την άμεση χρήση της ΤΝ για διαγνώσεις υπάρχει η σκέψη αν ο ασθενής δεν ικανοποιηθεί από την απάντηση της ΤΝ, να μπορεί να απευθυνθεί σε δεύτερο βαθμό και σε άνθρωπο (ατομική ευθύνη κι εδώ). Ανοιχτά παραμένουν ζητήματα όπως η χρέωση για υπηρεσίες από ΤΝ, αν αυτή θα γίνεται στον πελάτη (ασθενή) ή τα ασφαλιστικά ταμεία, πώς θα προστατεύονται τα προσωπικά δεδομένα των ασθενών και ποιος θα είναι υπεύθυνος αν κάποιος βλάψει την υγεία του ακολουθώντας τις συμβουλές του chatbot...

Η αξιοποίηση της ΤΝ και στον τομέα της Υγείας θα μπορούσε να γίνει με πολύ μεγαλύτερη ασφάλεια και αποτελεσματικότητα, αν δεν πραγματοποιούνταν μέσα στο περιβάλλον του ανταγωνισμού για το μεγαλύτερο κέρδος, αν γινόταν με κριτήριο την Υγεία ως δημόσιο αγαθό εγγυημένο για όλους, ακολουθώντας επιστημονικό κεντρικό σχεδιασμό και έλεγχο από τους ίδιους τους εργαζόμενους, που θα είχαν στα χέρια τους τα κλειδιά της οικονομίας, ώστε να μπορούν να κατευθύνουν και να ελέγξουν τις τεχνολογικές εξελίξεις προς όφελος όλων των ανθρώπων.


Επιμέλεια:
Σταύρος Ξενικουδάκης
Πηγή: «Scientific American»


Κορυφή σελίδας
Ευρωεκλογές Ιούνη 2024
Μνημεία & Μουσεία Αγώνων του Λαού
Ο καθημερινός ΡΙΖΟΣΠΑΣΤΗΣ 1 ευρώ