Η χρήση εργαλείων τεχνητής νοημοσύνης ως «ψηφιακών γιατρών» εξαπλώνεται ραγδαία, αλλά νέα επιστημονικά δεδομένα προειδοποιούν ότι η πρακτική αυτή μπορεί να κρύβει σοβαρούς κινδύνους για τη δημόσια υγεία.
Σύμφωνα με μελέτη που δημοσιεύθηκε στο περιοδικό BMJ Open, περίπου το 50% των απαντήσεων που δίνουν δημοφιλή μεγάλα γλωσσικά μοντέλα σε ιατρικά ερωτήματα είναι προβληματικές, ελλιπείς ή άμεσα λανθασμένες. Οι ερευνητές επισημαίνουν ότι, παρά τη ρεαλιστική και «αυθεντική» διατύπωσή τους, τα συστήματα αυτά δεν διαθέτουν πραγματική ιατρική κατανόηση ούτε ικανότητα κριτικής αξιολόγησης επιστημονικών δεδομένων.
Η έρευνα εξέτασε πέντε από τα πιο διαδεδομένα συστήματα τεχνητής νοημοσύνης, μεταξύ των οποίων τα ChatGPT, Gemini και Grok. Οι ερευνητές υπέβαλαν 250 ερωτήσεις που κάλυπταν ευαίσθητες ιατρικές θεματικές, όπως καρκίνος, εμβόλια, διατροφή και αθλητική απόδοση.
Τα αποτελέσματα ανέδειξαν σημαντικές διαφορές μεταξύ των μοντέλων. Το Grok εμφάνισε το υψηλότερο ποσοστό προβληματικών απαντήσεων, ενώ το Gemini κατέγραψε την πιο «συντηρητική» και ακριβή συμπεριφορά. Παρ’ όλα αυτά, κανένα σύστημα δεν θεωρήθηκε πλήρως αξιόπιστο σε όλες τις κατηγορίες.
Οι επιστήμονες τονίζουν ότι ένα από τα βασικά προβλήματα των μοντέλων αυτών είναι η αδυναμία τους να ξεχωρίσουν την ποιοτική επιστημονική έρευνα από την παραπληροφόρηση που κυκλοφορεί στο διαδίκτυο. Ειδικά σε τομείς όπως η διατροφή ή η άσκηση, όπου η επιστημονική βιβλιογραφία είναι πιο ανομοιογενής, τα σφάλματα είναι συχνότερα.
Ένα ακόμη κρίσιμο ζήτημα είναι η «βέβαιη» γλώσσα με την οποία απαντούν τα συστήματα. Σε αντίθεση με έναν γιατρό που μπορεί να εκφράσει αβεβαιότητα, τα μοντέλα τεχνητής νοημοσύνης συχνά διατυπώνουν απαντήσεις με απόλυτη αυτοπεποίθηση, ακόμη και όταν είναι λανθασμένες. Αυτό δημιουργεί μια επικίνδυνη ψευδαίσθηση αξιοπιστίας στον χρήστη.
Παράλληλα, η μελέτη καταγράφει το φαινόμενο των λεγόμενων «αλουσινώσεων», όπου τα συστήματα μπορούν να κατασκευάσουν ανύπαρκτες επιστημονικές πηγές ή να αποδώσουν ψευδείς πληροφορίες σε υπαρκτούς ερευνητές. Σε πολλές περιπτώσεις, οι παραπομπές που δίνουν δεν αντιστοιχούν σε πραγματικές δημοσιεύσεις.
Οι ερευνητές επισημαίνουν επίσης ότι, παρότι τα εργαλεία αυτά παρουσιάζονται ως εύχρηστα για το ευρύ κοινό, οι απαντήσεις τους είναι συχνά διατυπωμένες σε επίπεδο δύσκολης επιστημονικής γλώσσας. Αυτό μπορεί να ενισχύσει την εντύπωση εγκυρότητας, ενώ στην πραγματικότητα η πληροφορία παραμένει αβέβαιη ή λανθασμένη.
Το συμπέρασμα της μελέτης είναι σαφές: η τεχνητή νοημοσύνη μπορεί να λειτουργήσει ως βοηθητικό εργαλείο για απλές εργασίες πληροφόρησης, αλλά δεν πρέπει σε καμία περίπτωση να αντικαθιστά ιατρική συμβουλή ή επαγγελματική διάγνωση.
Σε έναν κόσμο όπου όλο και περισσότεροι άνθρωποι στρέφονται σε ψηφιακούς βοηθούς για θέματα υγείας, οι ειδικοί προειδοποιούν ότι η πιο επικίνδυνη ψευδαίσθηση δεν είναι η άγνοια — αλλά η υπερβολική εμπιστοσύνη σε μια τεχνολογία που μιλάει με σιγουριά, χωρίς να «καταλαβαίνει» πραγματικά.