Η OpenAI προχωρά σε σημαντικές αλλαγές στη λειτουργία του ChatGPT, προκειμένου να περιορίσει την παρέμβασή του σε προσωπικές αποφάσεις υψηλού ρίσκου των χρηστών. Στο εξής, το γνωστό chatbot δεν θα δίνει οριστικές απαντήσεις σε ερωτήσεις που αφορούν ζητήματα όπως ο χωρισμός από έναν σύντροφο, αλλά θα βοηθά τους ανθρώπους να εξετάζουν τα προβλήματα και να σκέφτονται πιο ώριμα τις επιλογές τους.
Όπως διευκρίνισε η αμερικανική εταιρεία, το ChatGPT στοχεύει πλέον στο να ενθαρρύνει την αυτοκριτική και τη διερεύνηση των “υπέρ και κατά” μέσω διαλόγου. «Όταν ρωτάτε κάτι όπως: Να χωρίσω με το αγόρι μου; Το ChatGPT δεν θα πρέπει να σας δώσει μια απάντηση. Θα πρέπει να σας βοηθήσει να το σκεφτείτε – κάνοντας ερωτήσεις, ζυγίζοντας τα υπέρ και τα κατά», ανέφερε χαρακτηριστικά η OpenAI.
Νέες κατευθύνσεις στην τεχνητή νοημοσύνη για ευαίσθητα ζητήματα
Η προσφυγή στη τεχνητή νοημοσύνη για υποστήριξη σε θέματα ψυχικής υγείας ή προσωπικών προκλήσεων, αν και φαίνεται πολλές φορές καθησυχαστική, ενέχει τον κίνδυνο της αναζήτησης βεβαιότητας από ένα γλωσσικό μοντέλο το οποίο επί της ουσίας δεν έχει αντίληψη της πραγματικότητας. Γι’ αυτό και το νέο καθεστώς συμπεριφοράς που θα ενσωματωθεί σύντομα στο ChatGPT θα εστιάζει στην αντιμετώπιση “προσωπικών αποφάσεων υψηλού ρίσκου”.
Η εταιρεία παραδέχεται πως παλαιότερες εκδόσεις του chatbot είχαν αντίστοιχα παραδείγματα ανάρμοστων ή υπερβολικά δογματικών απαντήσεων σε ευαίσθητα θέματα, όπως στην περίπτωση χρήστη που σταμάτησε τη φαρμακευτική αγωγή του και απομακρύνθηκε από την οικογένειά του. Το chatbot είχε τότε υιοθετήσει «ενθαρρυντικό τόνο», γεγονός που οδήγησε σε εσωτερική αναθεώρηση της προσέγγισης.
Στην πρόσφατη ανάρτησή της, η OpenAI αποδέχεται ότι ακόμη και το προχωρημένο μοντέλο 4o σε ορισμένες περιπτώσεις δεν αναγνώρισε έγκαιρα σημάδια αυταπάτης ή συναισθηματικής αστάθειας στους χρήστες, σε μια περίοδο που οι ανησυχίες για την επίδραση των chatbots στις κρίσεις ψυχικής υγείας αυξάνονται.
Νέες λειτουργίες και εργαλεία για την ψυχική υγεία
Εργαζόμενη προς αυτή την κατεύθυνση, η OpenAI αναπτύσσει εργαλεία που θα επιτρέπουν την ανίχνευση σημείων ψυχικής ή συναισθηματικής δυσφορίας, ώστε το ChatGPT να μπορεί να παραπέμπει τους χρήστες σε “τεκμηριωμένους πόρους βοήθειας”.
Ταυτόχρονα, σύμφωνα με πρόσφατη μελέτη ιατρών του NHS, που εκκρεμεί η αξιολόγησή της, η χρήση τεχνητής νοημοσύνης μπορεί να ενισχύσει παραληρηματικό ή μεγαλοπρεπές περιεχόμενο σε άτομα που είναι ευάλωτα στην ψύχωση. Οι ειδικοί επισημαίνουν ότι τα μοντέλα όπως το ChatGPT συχνά “σχεδιάστηκαν για να μεγιστοποιούν την εμπλοκή και την επιβεβαίωση” των χρηστών.
Η ίδια η μελέτη επισημαίνει πως, ενώ κάποιοι χρήστες επωφελούνται από τις αλληλεπιδράσεις με την τεχνητή νοημοσύνη, εντούτοις υπάρχει σαφής κίνδυνος τα εργαλεία αυτά να “θολώσουν τα όρια της πραγματικότητας και να διαταράξουν την αυτορρύθμιση”.
Υπενθυμίσεις και ευρύτερη συνεργασία ειδικών
Σε μια επιπλέον πρωτοβουλία, η OpenAI θα αποστέλλει “ήπιες υπενθυμίσεις” στους χρήστες που παραμένουν για μεγάλο χρονικό διάστημα σε διαλόγους με το chatbot, προτρέποντάς τους σε διαλείμματα από την οθόνη – μια τακτική ήδη δοκιμασμένη σε πλατφόρμες κοινωνικής δικτύωσης.
Για τη διαμόρφωση μιας πιο αξιόπιστης και υπεύθυνης τεχνητής νοημοσύνης, η εταιρεία συγκρότησε ειδική συμβουλευτική ομάδα εμπειρογνωμόνων σε ψυχική υγεία, ανάπτυξη νέων και αλληλεπίδραση ανθρώπου-μηχανής, ενώ συνεργάζεται με περισσότερους από 90 επαγγελματίες, ανάμεσά τους ψυχίατροι και παιδίατροι, για τη δημιουργία πλαισίων αξιολόγησης πολύπλοκων συνομιλιών του ChatGPT.
Όπως σημειώνει η OpenAI: «Κάνουμε στους εαυτούς μας ένα τεστ: αν κάποιος που αγαπάμε απευθυνόταν στο ChatGPT για υποστήριξη, θα νιώθαμε καθησυχασμένοι; Το να φτάσουμε σε ένα ξεκάθαρο “ναι” είναι η δουλειά μας».
Νέο μοντέλο ChatGPT στον ορίζοντα
Οι ανακοινώσεις αυτές έρχονται σε μια περίοδο έντονης φημολογίας περί επικείμενης κυκλοφορίας μιας ακόμα πιο προηγμένης εκδοχής του chatbot. Την περασμένη Κυριακή, ο διευθύνων σύμβουλος της OpenAI, Sam Altman, μοιράστηκε στιγμιότυπο που φέρεται να απεικονίζει το νέο μοντέλο GPT-5, εντείνοντας το ενδιαφέρον για τη μελλοντική πορεία της τεχνητής νοημοσύνης στην καθημερινότητα των χρηστών.







