Ένα από τα μεγαλύτερα ελαττώματα των σύγχρονων συστημάτων συνομιλίας τεχνητής νοημοσύνης – τα γνωστά chatbots – είναι ότι σπάνια παραδέχονται πως δεν γνωρίζουν κάτι. Αντί να δηλώσουν αβεβαιότητα, προτιμούν να… αυτοσχεδιάσουν. Στην καλύτερη περίπτωση θα δώσουν μια αόριστη περίληψη σχετικών κειμένων· στη χειρότερη, θα εφεύρουν μια απάντηση από το μηδέν.
Αυτό το φαινόμενο, γνωστό και ως hallucination, αποτελεί σοβαρό εμπόδιο στην αξιοπιστία των LLM (μεγάλα γλωσσικά μοντέλα). Σε αντίθεση με τον άνθρωπο, που συχνά απευθύνεται σε έναν ειδικό όταν νιώθει ανεπαρκής σε ένα θέμα, τα μοντέλα αυτά δεν έχουν την ικανότητα να “ζητήσουν βοήθεια”. Τουλάχιστον, μέχρι σήμερα.
Ερευνητές από το MIT ανέπτυξαν έναν νέο αλγόριθμο με το όνομα Co-LLM (Collaborative Language Model), ο οποίος στοχεύει να δώσει στα LLM ακριβώς αυτήν την ικανότητα: να ξέρουν πότε δεν ξέρουν και να “συνεργάζονται” με πιο εξειδικευμένα μοντέλα, όταν η περίσταση το απαιτεί. Το Co-LLM λειτουργεί σαν ένας διαχειριστής έργου (project manager), που αναθέτει διαφορετικά κομμάτια μιας εργασίας στους κατάλληλους ειδικούς.
Στην πράξη, το Co-LLM συνδυάζει ένα γενικού τύπου LLM με ένα ή περισσότερα εξειδικευμένα μοντέλα – για παράδειγμα, ένα μοντέλο που έχει εκπαιδευτεί αποκλειστικά σε ιατρικά δεδομένα. Κατά την παραγωγή μιας απάντησης, το Co-LLM εξετάζει λέξη προς λέξη τη γενική απάντηση και αποφασίζει αν χρειάζεται να καλέσει το “ειδικό” μοντέλο να προσφέρει ακρίβεια σε κάποιο σημείο. Το εντυπωσιακό είναι ότι αυτό γίνεται επιλεκτικά – δηλαδή, ο ειδικός ενεργοποιείται μόνο όταν πραγματικά χρειάζεται, κάτι που εξοικονομεί σημαντικούς υπολογιστικούς πόρους.
Για να ελέγξουν την αποτελεσματικότητα του συστήματος, οι ερευνητές χρησιμοποίησαν το ιατρικό dataset BioASQ και συνδύασαν ένα βασικό LLM με το Meditron, ένα μοντέλο εκπαιδευμένο αποκλειστικά πάνω σε ιατρικά κείμενα. Το Co-LLM κατάφερε να δώσει πιο ακριβείς και αξιόπιστες απαντήσεις σε ερωτήματα που απαιτούν εξειδικευμένη γνώση – για παράδειγμα, τους μηχανισμούς μιας ασθένειας ή τα συστατικά ενός φαρμάκου. Επιπλέον, το σύστημα έχει τη δυνατότητα να ειδοποιεί τον χρήστη σε ποια σημεία της απάντησης θα ήταν σκόπιμο να γίνει επιπλέον επαλήθευση.
Η καινοτομία του Co-LLM δεν έγκειται μόνο στην ακρίβεια, αλλά κυρίως στην προσομοίωση της ανθρώπινης συνεργασίας. Όπως και οι άνθρωποι δουλεύουν καλύτερα σε ομάδες όταν αναγνωρίζουν τα όρια των γνώσεών τους και ζητούν βοήθεια, έτσι και τα LLM μπορούν πλέον να λειτουργούν πιο υπεύθυνα και αποτελεσματικά. Ίσως το μέλλον της τεχνητής νοημοσύνης δεν είναι τα μοντέλα-“παντογνώστης”, αλλά οργανωμένα δίκτυα συνεργαζόμενων μοντέλων, όπου κάθε ένα φέρει την ειδίκευσή του, όπως ακριβώς συμβαίνει και στον πραγματικό κόσμο.