Τεχνητή νοημοσύνη και ιατρική πληροφόρηση βρίσκονται στο επίκεντρο δύο νέων επιστημονικών ερευνών που δημοσιεύθηκαν αυτή την εβδομάδα, αποκαλύπτοντας πως δημοφιλή chatbots παρέχουν συχνά ανακριβείς ή παραπλανητικές απαντήσεις σε θέματα υγείας — ενώ σε ορισμένες περιπτώσεις κατασκευάζουν ακόμη και τις πηγές που επικαλούνται.

Η μισή ιατρική πληροφόρηση θεωρείται προβληματική

Σύμφωνα με μελέτη που δημοσιεύθηκε στο επιστημονικό περιοδικό BMJ Open, περίπου οι μισές απαντήσεις πέντε δημοφιλών πλατφορμών — ChatGPT, Gemini, Meta AI, Grok και DeepSeek — περιείχαν προβληματικές ιατρικές πληροφορίες. Σχεδόν το 20% αυτών χαρακτηρίστηκαν ως «ιδιαιτέρως προβληματικές».

Ερευνητές από τις Ηνωμένες Πολιτείες, τον Καναδά και το Ηνωμένο Βασίλειο υπέβαλαν δέκα ερωτήσεις σε κάθε chatbot, καλύπτοντας πέντε θεματικές κατηγορίες με υψηλό κίνδυνο παραπληροφόρησης — όπως εμβόλια, καρκίνος, βλαστοκύτταρα και διατροφή. Οι πιο ανοιχτές ερωτήσεις παρήγαγαν τις περισσότερες λανθασμένες απαντήσεις, ενώ οι κλειστές ερωτήσεις οδήγησαν σε πιο ακριβή αποτελέσματα.

Ανάμεσα στις πέντε πλατφόρμες, το Grok εμφάνισε τις περισσότερες «ιδιαιτέρως προβληματικές» απαντήσεις (29 στις 50), ενώ το Gemini τις λιγότερες. Όπως σημείωσαν οι ερευνητές, οι απαντήσεις δίνονταν «με αυτοπεποίθηση και βεβαιότητα, με ελάχιστες επιφυλάξεις ή διευκρινίσεις», ενώ καμία πλατφόρμα δεν παρείχε πλήρως ακριβή λίστα αναφορών.

Πλαστές αναφορές υπονομεύουν την αξιοπιστία

Μια δεύτερη μελέτη, που δημοσιεύθηκε στο The Annals of the Royal College of Surgeons of England, εξέτασε τις βιβλιογραφικές αναφορές πίσω από τις απαντήσεις των chatbots σε θέματα χειρουργικής. Οι ερευνητές διαπίστωσαν ότι ορισμένα μοντέλα «επινόησαν» έως και το 34% των πηγών τους.

Συνολικά, εννέα chatbots απάντησαν σε έξι τυποποιημένα χειρουργικά ερωτήματα, παράγοντας 1.249 αναφορές που αξιολογήθηκαν ως προς την αυθεντικότητα και την ποιότητά τους. Το Grok 3 εμφάνισε το υψηλότερο ποσοστό πλαστών παραπομπών (34%), ενώ πέντε μοντέλα δεν παρήγαγαν καμία ψευδή αναφορά.

Ορισμένες ψευδείς πηγές μιμούνταν πειστικά πραγματικά επιστημονικά άρθρα, με φαινομενικά έγκυρους τίτλους, ανύπαρκτα URLs και αποδόσεις σε ιδρύματα όπως η Mayo Clinic. «Οι χρήστες που επιχειρούν να ελέγξουν αυτές τις αναφορές ενδέχεται να διαπιστώσουν ότι δεν υπάρχουν ή ότι δεν υποστηρίζουν τις πληροφορίες που παρατίθενται», προειδοποίησε το Royal College of Surgeons of England σε σχετική ανακοίνωση.

Αυξανόμενες προειδοποιήσεις για προσοχή

Τα ευρήματα ενισχύουν την ανησυχία για τη χρήση της τεχνητής νοημοσύνης στην ιατρική πληροφόρηση και την εξάρτηση των πολιτών από τέτοια εργαλεία. Η OpenAI έχει αναφέρει ότι περισσότεροι από 40 εκατομμύρια χρήστες αναζητούν καθημερινά πληροφορίες υγείας μέσω του ChatGPT.

Ο Tim Mitchell, πρόεδρος του Royal College of Surgeons of England, υπογράμμισε ότι ο «ενθουσιασμός γύρω από τη χρήση της AI στην ιατρική πληροφόρηση πρέπει να συνοδεύεται από προσοχή, τόσο από τους ασθενείς όσο και από τους γιατρούς», προσθέτοντας πως τα εργαλεία αυτά «δεν πρέπει να αντικαθιστούν την κριτική αξιολόγηση και την τεκμηριωμένη ιατρική πρακτική».

Σχόλια
Γράψτε το σχόλιό σας
50 /50
2000 /2000
Όροι Χρήσης. Το site προστατεύεται από reCAPTCHA, ισχύουν Πολιτική Απορρήτου & Όροι Χρήσης της Google.
Τα μυστικά καταφύγια της Αθήνας: Χιλιάδες κάτω από τα πόδια μας που δεν γνωρίζουμε