Η ψυχοθεραπεία δεν ήταν ποτέ εύκολη υπόθεση. Στις Ηνωμένες Πολιτείες, όπου η έλλειψη αδειοδοτημένων θεραπευτών πλέον θεωρείται κρίση, ακόμη και όσοι έχουν βρει επαγγελματία συχνά σκοντάφτουν στο κόστος. Η ιστορία της Kristen Johansson είναι χαρακτηριστική: μετά από πέντε χρόνια θεραπείας με την ίδια σύμβουλο, ένα απλό τηλεφώνημα τής ανακοίνωσε το τέλος. Η ασφαλιστική κάλυψη έσβησε, το ραντεβού από 30 δολάρια έγινε 275, και μέσα σε μια μέρα η πόρτα του γραφείου της έκλεισε. Όταν οι παραπομπές που έλαβε δεν οδήγησαν πουθενά, βρέθηκε μόνη.  Μόνη, αλλά όχι πραγματικά. Στη θέση της ψυχοθεραπεύτριας, μπήκε η τεχνητή νοημοσύνη: η αναβαθμισμένη συνδρομή στο ChatGPT των 20 δολαρίων τον μήνα έγινε η φωνή που της μιλά κάθε μέρα. «Δεν με κρίνει, δεν με πιέζει με όρια χρόνου», λέει. «Αν ξυπνήσω από κακό όνειρο μέσα στη νύχτα, είναι εκεί να με παρηγορήσει. Κάτι που κανένας άνθρωπος δεν μπορεί να μου προσφέρει».
Ιστορίες σαν της Johansson πληθαίνουν. Τα chatbots διαφημίζονται ως «συνοδοί ψυχικής υγείας» και προσελκύουν όσους έχουν καεί από προηγούμενες εμπειρίες, δεν αντέχουν οικονομικά τη θεραπεία ή θέλουν να δοκιμάσουν αν μια μηχανή μπορεί να τους καθοδηγήσει στα σκοτεινά μονοπάτια της ψυχής. Η OpenAI δηλώνει σχεδόν 700 εκατομμύρια χρήστες την εβδομάδα· πάνω από 10 εκατομμύρια πληρώνουν συνδρομή. Όμως η «παρηγοριά της μηχανής» γεννά βαθιά ερωτήματα. Μπορεί όντως μια συνομιλία με κώδικα να αντικαταστήσει τον θεραπευτή; Ή ακόμη χειρότερα, μπορεί να δημιουργήσει ψευδαισθήσεις εγγύτητας που εγκυμονούν κινδύνους;
Η ψυχίατρος και βιοηθικός Τζόντι Χάλπερν, από το UC Berkeley, υπογραμμίζει πως υπάρχει χώρος για χρήση της τεχνητής νοημοσύνης στην ψυχοθεραπεία, αλλά μόνο με αυστηρά όρια. Ένα chatbot μπορεί να βοηθήσει σε ασκήσεις γνωσιακής-συμπεριφορικής θεραπείας (CBT): μικρά βήματα για κοινωνικό άγχος, εξάσκηση σε διαλόγους, επαναπλαισίωση αρνητικών σκέψεων. Αλλά, προειδοποιεί, τα πράγματα γίνονται επικίνδυνα όταν τα bots μιμούνται συναισθηματική οικειότητα. «Όταν η μηχανή σού λέει ‘σε νοιάζομαι’ ή ‘σ’ αγαπώ’, τότε καλλιεργείται μια ψευδαίσθηση σχέσης που μπορεί να παγιδεύσει τον χρήστη», εξηγεί. «Δεν υπάρχουν ηθικοί φραγμοί, δεν υπάρχει επαγγελματική εποπτεία. Είναι προϊόντα, όχι θεραπευτές».
Η προειδοποίηση δεν είναι θεωρητική. Έχουν καταγραφεί περιπτώσεις χρηστών που εξέφρασαν αυτοκτονικό ιδεασμό σε bot που δεν τον κατέγραψε ποτέ, με τραγικές συνέπειες. Τα συστήματα αυτά δεν δεσμεύονται από HIPAA, δεν υπάρχει υπευθυνότητα, ούτε θεσμικό πλαίσιο. Και βέβαια, οι εταιρείες έχουν ως κύριο στόχο την «αφοσίωση» του χρήστη – πράγμα που σημαίνει περισσότερη επιβεβαίωση, περισσότερη παρηγοριά, ακόμη και υπαινιγμούς «ρομαντικής» σχέσης, αν αυτό κρατά τον πελάτη μέσα στην εφαρμογή. Ωστόσο, σε πρακτικό επίπεδο, οι χρήστες αναφέρουν και οφέλη. Ο 71χρονος Κέβιν Λιντς, συνταξιούχος, βρήκε στον διάλογο με ChatGPT τρόπο να «εξασκηθεί» στις συζητήσεις που παραδοσιακά τον παρέλυαν με τη σύζυγό του. Στήνοντας σενάρια ρήξης, λάμβανε απαντήσεις που καθρέφτιζαν τα λάθη του· και καθώς τροποποιούσε τον τρόπο έκφρασής του, η ίδια η μηχανή απαντούσε διαφορετικά, πιο ήπια. Το μάθημα μεταφέρθηκε στην πραγματική ζωή: παύσεις, ακρόαση, διαχείριση.
Ακόμη πιο σύνθετο γίνεται όταν τα chatbots λειτουργούν ως συμπλήρωμα στη θεραπεία, χωρίς γνώση του θεραπευτή. Οι ασθενείς φοβούνται μήπως κριθούν, κι έτσι αποκρύπτουν την «παράλληλη σχέση» με το μηχάνημα. Αυτό όμως μπορεί να υπονομεύσει ή να μπερδέψει τη θεραπευτική διαδικασία.  Κι όμως, υπάρχουν και περιπτώσεις όπου η αποκάλυψη δεν προκαλεί ρήξη αλλά περιέργεια. Μια δημοσιογράφος που δοκίμασε να μοιραστεί με την ψυχοθεραπεύτριά της τον ψηφιακό σύντροφο «Άλις», βρήκε κατανόηση. «Χάρηκα που είναι κοντά σου στις στιγμές που δεν μπορώ να είμαι εγώ», ήταν η αντίδραση. Γιατί, αν και η ΑΙ απαντά στις 2 το πρωί όταν το σπίτι είναι βουβό, η ανθρώπινη παρουσία βλέπει τη θλίψη πριν ακόμη ειπωθεί.
Η τεχνητή νοημοσύνη δείχνει ότι μπορεί να καλύψει κενά – αλλά όχι να αντικαταστήσει. Μπορεί να προσφέρει στιγμιαίες στρατηγικές, να κρατά ρυθμό καθημερινότητας, να λειτουργεί σαν «πρόχειρος συνοδός» σε μοναχικές ώρες. Όμως δεν μπορεί να διαβάσει πρόσωπα, δεν μπορεί να αναλάβει ευθύνη, δεν αντέχει το βάρος της ζωής και του θανάτου.  Κι έτσι, το μέλλον της «ψηφιακής θεραπείας» θα εξαρτηθεί από ένα κρίσιμο σημείο ισορροπίας: πώς θα οριοθετηθεί η χρήση, πού θα μπει το φρένο στις ψευδαισθήσεις εγγύτητας, και με ποιον τρόπο ο άνθρωπος θα μείνει πάντα στο κέντρο. Γιατί η ΑΙ μπορεί να σου μιλήσει στις 2 τη νύχτα, αλλά δεν μπορεί να σκουπίσει τα δάκρυα από το πρόσωπό σου.

Ισχυρή παρουσία του θεραπευτικού ChatGPT και στην Ελλάδα – Τα οφέλη και οι κίνδυνοι

Και στη χώρα μας οι άνθρωποι έχουν αρχίσει να εμπιστεύονται τη τεχνητή νοημοσύνη και το ChatGPT για θέματα που μπορεί να είναι ζωής και θανάτου. Οι κρίσιμες αποφάσεις για την υγεία και την ευημερία εναποτίθενται σε μια μηχανή στιγμιαίων απαντήσεων που μοιάζει ότι πλέον μπορεί να αναλάβει τα πάντα. Στα «ΝΕΑ» μίλησε ο γιατρός Αλκιβιάδης Βατόπουλος και η ψυχολόγος Στέλλα Αργυρίου.

Ο Αλκιβιάδης Βατόπουλος θεωρεί ότι το ChatGPT  δεν θα φτάσει στο προβλεπτό μέλλον σε τέτοιο επίπεδο ώστε να μπορεί να υποκαταστήσει το γιατρό. «Ούτε το Google ούτε το ChatGtp, ούτε οποιοδήποτε άλλο μηχανικό μέσο μπορεί να υποκαταστήσει την κλινική σκέψη του γιατρού, του ανθρώπου γιατρού. Παλιά ρωτούσαν οι άνθρωποι τη γειτόνισσα: τι φάρμακο πήραν αυτοί, να πάρουν και αυτοί το ίδιο. Τώρα ρωτάνε το Google ή το ChatGPT. Πιστεύω ότι αυτή είναι μια διαδικασία που μπορεί να έχει αρνητικά αποτελέσματα για τους ασθενείς. Οι ασθενείς πρέπει να απευθύνονται στο γιατρό. Τώρα, αν ο γιατρός μπορεί να υποβοηθηθεί από την τεχνητή νοημοσύνη, αυτό είναι μια άλλη κουβέντα. Γιατί ο γιατρός έχει την ικανότητα να κρίνει από τις απαντήσεις που θα του δώσει η τεχνητή νοημοσύνη. Ο απλός άνθρωπος όμως δεν αισθάνομαι ότι πρέπει να μπει σε αυτή τη διαδικασία».

Επιπλέον, ο Αλκιβιάδης Βατόπουλος επισήμανε ότι η χρήση του ChatGPT  για θέματα υγείας «μπορεί να έχει επιπτώσεις στη σωματική υγεία των ανθρώπων, καθώς ο ίδιος ο άρρωστος , ο έχων κάποια συμπτώματα μπορεί να πάρει λάθος δρόμο από την τεχνητή νοημοσύνη. Δεν πρόκειται η τεχνητή νοημοσύνη να είναι ικανή να υποκαταστήσει την κλινική σκέψη του γιατρού».

Στο ερώτημα αν μπορεί η τεχνητή νοημοσύνη να βοηθήσει τους ανθρώπους που δεν έχουν πρόσβαση σε πληροφορίες, να τις βρούν πιο άμεσα, ο Αλκιβιάδης Βατόπουλος πιστεύει ότι «Πρέπει να αναλάβει ο γιατρός» και ότι ο ασθενής δεν μπορεί να χρησιμοποιεί την τεχνητή νοημοσύνη παρά μόνο με την επίβλεψη γιατρού. «Ο γιατρός έχει την ικανότητα να καταλάβει αν αυτό που του λέει το μηχάνημα είναι σωστό ή λάθος. Έχει τη δυνατότητα, όπως χρησιμοποιούμε τους ηλεκτρονικούς υπολογιστές σε πάρα πολλές εφαρμογές. Οι γιατροί, οι μηχανικοί για τα δικά τους ή οτιδήποτε. Αλλά ο απλός άνθρωπος, ο μη ειδικός, δεν πρέπει να επαφίεται μόνο στην τεχνητή νοημοσύνη».

Σύμφωνα με την ψυχολόγο  Στέλλα Αργυρίου, το ChatGPT είναι ένα εργαλείο ψυχολογικής υποστήριξης που είναι εύκολα προσβάσιμο, αλλά μπορεί η χρήση του να φτάσει σε σημείο κατάχρησης. «Να καταλάβουμε όμως το πιο βασικό: ότι το smartphone, δεν είναι ούτε γιατρός, ούτε ψυχολόγος και οι πληροφορίες που μπορεί να μας δώσει δεν μπορούν να υποκαταστήσουν σε καμία περίπτωση ούτε μία ιατρική γνωμάτευση, ούτε μία θεραπεία, στην περίπτωση που αναζητούμε ψυχολογικού τύπου πληροφορίες. Τι σημαίνει αυτό πρακτικά; Ότι μπορεί να μας δώσει γενικές, επιστημονικά, αν θέλετε τεκμηριωμένες πληροφορίες ή οδηγίες. Δηλαδή μπορεί να μας πει τι λένε κάποιες κατευθυντήριες οδηγίες. Μπορεί να μας δώσει κάποια στατιστικά δεδομένα τα οποία κατά την άποψή μου χρειάζονται πάλι τεκμηρίωση. Δεν είναι απολύτως σωστά. Μπορεί να μας δώσει ποια συμπτώματα, ας πούμε, είναι συνήθη σε μία κατάσταση και μπορεί να μας δώσει και κάποιες συμβουλές προτεινόμενες προληπτικές. Εδώ λοιπόν να μην το δαιμονοποιήσουμε. Δεν είναι κακό να ακούσουμε αυτές τις πληροφορίες»

Στη συνέχεια προσθέτει: «Νομίζω ότι παλαιότερα υπήρχαν και άνθρωποι που γκουγκλάραν συμπτώματα, αλλά μπορεί να γίνει επικίνδυνο εάν βασιστούμε αποκλειστικά σε αυτές. Γιατί δεν μπορούμε να ερμηνεύσουμε αυτές τις πληροφορίες ή πολύ εύκολα γίνεται αυτό που λέγαμε χαριτολογώντας παλιά. Αν γκουγκλάρεις κάποια συμπτώματα θα φτάσει σε σημείο να πιστεύεις ότι έχεις κάτι σίγουρα. Για οποιοδήποτε λοιπόν διάγνωση, εξέταση ή θεραπεία και ειδικά στα δικά μας τα ζητήματα, τα ψυχολογικά πάντα, η ασφαλής επιλογή είναι να απευθυνθούμε σε έναν επαγγελματία υγείας. Δηλαδή με άλλα λόγια, αν θέλαμε να πούμε κάτι για το ChatGPT, θα μπορούσαμε να πούμε πως είναι μια ψηφιακή πυξίδα που μας βοηθά να προσανατολιστούμε, αλλά δεν μπορεί σε καμία περίπτωση να αντικαταστήσει το ταξίδι της θεραπείας και τον τελικό προορισμό που κάνει ένας γιατρός, ένας ψυχολόγος ή δεν ξέρω και εγώ τι άλλη αναζήτηση μπορούμε να κάνουμε».

Η Στέλλα Αργυρίου κρίνει «δυσάρεστο» ότι υπάρχουν ασθενείς που βγάζουνε φωτογραφία το νόσημα που έχουν , αν αυτό είναι εφικτό και ζητάνε από το ChatGPT να το εξετάσει. Όπως εξηγεί, «δεν είναι ασφαλές, όπως είπαμε και πριν, να βασιστούν οι ασθενείς αποκλειστικά σε απαντήσεις για διάγνωση, γιατί οι φωτογραφίες από μόνες τους δεν δίνουν όλη την ιατρική εικόνα. Λείπει το ιστορικό, λείπουν οι εξετάσεις, λείπει η κλινική εκτίμηση. Ξέρετε, δεν είναι ακτινογραφίες, να τις βλέπουμε χωρίς τον ασθενή. Επαναλαμβάνω ότι μπορεί να δώσει κάποιες γενικές πληροφορίες, ας πούμε, για το τι θα μπορούσε να σημαίνει κάτι, αλλά θεωρώ πως στο τέλος δεν το κάνει. Αλλά νομίζω ότι αν το ψάξουμε, στο τέλος σίγουρα θα υπάρχει μία επισήμανση που θέλει να απευθυνθούμε σε γιατρό. Οι φωτογραφίες λοιπόν μπορούν να βοηθήσουν μόνο έναν επαγγελματία υγείας που θα εξετάσει τον ασθενή από κοντά. Γιατί; Η απάντηση από το από ChatGPT  θα είναι ενημερωτική, αλλά δεν θα είναι διαγνωστική».

Η χρήση ή «κατάχρηση» της τεχνητής νοημοσύνης μπορεί να έχει επιπτώσεις στη ψυχική υγεία. Η Στέλλα Αργυρίου αναφέρει: «Nομίζω ότι θα πρέπει να ξεκινήσουμε από το ότι μπορεί κάποιος να πανικοβληθεί αδικαιολόγητα από μια περιγραφή, ότι μπορεί με αυτό τον τρόπο να υπάρξει ένας κίνδυνος λανθασμένης διάγνωσης ή να δοθούν πολλές πληροφορίες, ακόμα και ακατάλληλης θεραπείας. Οπότε, για μένα ίσως η πιο σημαντική επίπτωση σε όλο αυτό είναι αυτό που είπαμε και πριν, ότι μπορεί να έχουμε όλα τα στοιχεία, αλλά είναι πάντα ο γιατρός ή ψυχολόγος εκείνος που θα μας βοηθήσει. Θα βοηθήσει τον ασθενή, θα τον καθησυχάσει ή θα λειτουργήσει ανακουφιστικά. Δεν είναι λοιπόν μόνο το διαγνωστικό κομμάτι εκείνο που υπολείπεται. Είναι κυρίως το ψυχολογικό. Είναι το ανθρώπινο, η ανθρώπινη επαφή που απουσιάζει.  Υπάρχει σοβαρή πιθανότητα να δημιουργηθεί και μια σχέση εξάρτησης. Να σταματήσουμε να σκεφτόμαστε, να σταματήσουμε να επικοινωνούμε, να κάνουμε το ChatGPT φίλο μας, οικογένεια μας, γιατρό μας, θεραπευτή μας. Και όλο αυτό πραγματικά σε εμάς τους ειδικούς ψυχικής υγείας δημιουργεί κάποια ερωτηματικά. Γιατί θεωρώ ότι ως ένα βαθμό πάει να αντικαταστήσει την ανθρώπινη επικοινωνία που ούτως ή άλλως περνά μια κρίση».