Η OpenAI, κατασκευάστρια του ChatGPT, προχώρησε σε αλλαγές στα εργαλεία τεχνητής νοημοσύνης της, δίνοντας εντολή να σταματήσουν να αναφέρονται σε καλικάντζαρους, έπειτα από παρατηρήσεις ότι ο όρος εμφανιζόταν τυχαία στις απαντήσεις των μοντέλων της.

Σε ανάρτηση στο blog της, η εταιρεία ανέφερε ότι εντόπισε αυξημένες αναφορές σε καλικάντζαρους και σε gremlins μέσα σε μεταφορές που χρησιμοποιούσαν το ChatGPT και άλλα εργαλεία βασισμένα στο νεότερο μοντέλο της, το GPT-5. Οι χρήστες και εργαζόμενοι παρατήρησαν πως διάφορα τεχνικά προβλήματα περιγράφονταν ως «μικροί καλικάντζαροι», γεγονός που οδήγησε την εταιρεία να λάβει μέτρα περιορισμού του φαινομένου.

Μεταξύ αυτών, η OpenAI έδωσε εντολή στον προγραμματιστικό βοηθό Codex να αποφεύγει οποιαδήποτε αναφορά στα πλάσματα αυτά, εκτός αν είναι απολύτως σχετική με το ερώτημα του χρήστη. Όπως εξήγησε, μια «nerdy προσωπικότητα» που είχε αναπτυχθεί για το ChatGPT φαίνεται πως ενθάρρυνε άθελά της τέτοιες αναφορές.

Το περιστατικό αναδεικνύει τις προκλήσεις που αντιμετωπίζουν οι εταιρείες τεχνητής νοημοσύνης στην προσπάθειά τους να αποτρέψουν τα συστήματα από το να ενισχύουν ιδιόμορφες ή λανθασμένες εκφράσεις. Η OpenAI εντόπισε την αύξηση των αναφορών σε καλικάντζαρους και άλλα πλάσματα μετά την κυκλοφορία του GPT-5.1 τον Νοέμβριο, όταν οι χρήστες παραπονέθηκαν ότι το μοντέλο ήταν «περίεργα οικείο» στις συνομιλίες.

Σύμφωνα με την εταιρεία, η εμφάνιση της λέξης «goblin» στις απαντήσεις αυξήθηκε κατά 175% μετά την κυκλοφορία του GPT-5.1, ενώ οι αναφορές σε «gremlin» ανέβηκαν κατά 52%. Αν και τα ποσοστά αυτά αφορούν μικρό μέρος των συνολικών απαντήσεων, κρίθηκαν επαρκή για περαιτέρω διερεύνηση. Όπως σημείωσε η OpenAI, «ένας μόνο μικρός καλικάντζαρος μπορεί να είναι ακίνδυνος, ακόμη και χαριτωμένος», ωστόσο η συχνότητα των εμφανίσεων δικαιολογούσε παρέμβαση.

Διαβάστε ακόμη: Τι θέλει να πει ο Σαμ Άλτμαν; Η σοκαριστική ανάρτηση του CEO της Open AI για το τέλος της εργασίας στην εποχή της AGI

«Ρακούν, τρολ, όγκροι, περιστέρια»

Οι καλικάντζαροι δεν ήταν τα μόνα πλάσματα που εμφανίζονταν απρόσμενα στις απαντήσεις, σύμφωνα με την εταιρεία. Πριν από τη σχετική ανάρτηση, χρήστες στα κοινωνικά δίκτυα είχαν εντοπίσει οδηγίες προς τον Codex που τον προέτρεπαν να «μην μιλά ποτέ για καλικάντζαρους, gremlins, ρακούν, τρολ, όγκρους, περιστέρια ή άλλα πλάσματα, εκτός αν είναι απολύτως σχετικό».

Ένας χρήστης στο Reddit χαρακτήρισε την οδηγία «πραγματικά τρελή», ρωτώντας «γιατί το GPT-5.5 έχει περιοριστικά μέτρα κατά των ρακούν, καλικάντζαρων και περιστεριών;». Κάποιοι υπέθεσαν ότι πρόκειται για τέχνασμα μάρκετινγκ, ωστόσο ερευνητής της εταιρείας διέψευσε την εκδοχή αυτή, τονίζοντας πως «δεν είναι καθόλου διαφημιστικό κόλπο».

Η OpenAI εξήγησε ότι η οδηγία προστέθηκε για να περιοριστεί η «παράξενη προτίμηση για καλικάντζαρους» που εμφάνιζε ο Codex και το μοντέλο του. Το πρόβλημα φαίνεται να προέκυψε κατά την εκπαίδευση των μοντέλων με συγκεκριμένα «στυλ προσωπικότητας», όπως η «nerdy προσωπικότητα», η οποία ενίσχυε μεταφορικές αναφορές σε φανταστικά πλάσματα.

Αν και η συγκεκριμένη προσωπικότητα έχει πλέον αποσυρθεί, οι δοκιμές έδειξαν ότι ευθυνόταν για το 66,7% όλων των αναφορών σε «goblin» στο ChatGPT. Αυτού του είδους οι «λεκτικές συνήθειες» μπορούν να μεταφερθούν ευρύτερα στην εκπαίδευση του μοντέλου, αν επιβραβευτούν σε ένα στάδιο και ενισχυθούν σε επόμενο.

«Goblin mode» και οι προκλήσεις της προσωποποίησης

Η υπόθεση έρχεται σε μια περίοδο όπου η βιομηχανία της τεχνητής νοημοσύνης στρέφεται σε πιο «χαρακτηριστικές» και φιλικές προσωπικότητες για τα chatbots, με στόχο την ενίσχυση της αλληλεπίδρασης με τους χρήστες. Ειδικοί, ωστόσο, προειδοποιούν ότι αυτή η τάση μπορεί να αυξήσει την πιθανότητα εμφάνισης «φανταστικών» απαντήσεων ή hallucinations.

Μελέτη του Oxford Internet Institute έδειξε ότι η προσαρμογή μοντέλων ώστε να φαίνονται πιο ζεστά και φιλικά ενδέχεται να οδηγήσει σε «ανταλλαγή ακρίβειας», με τα συστήματα να κάνουν περισσότερα λάθη ή να επιβεβαιώνουν λανθασμένες πεποιθήσεις των χρηστών. Οι ειδικοί συνιστούν προσοχή, ειδικά σε ζητήματα υγείας και ιατρικής.

Όπως και με το «πρόβλημα των καλικάντζαρων», τα σφάλματα της γενετικής τεχνητής νοημοσύνης μπορεί κάποιες φορές να είναι απλώς παράξενα και ακίνδυνα. Τον Μάιο του 2024, το chatbot της Google είχε γίνει αντικείμενο χλευασμού επειδή έλεγε στους χρήστες ότι είναι εντάξει να τρώνε πέτρες και «να βάζουν κόλλα στην πίτσα».

ΣΧΟΛΙΑ
ΠΡΟΣΘΗΚΗ ΣΧΟΛΙΟΥ
0 /50
0 /2000