Η τεχνητή νοημοσύνη δεν αποτελεί πλέον μια αφηρημένη έννοια του μέλλοντος, αλλά μια καθημερινή πραγματικότητα που μετασχηματίζει τον τρόπο με τον οποίο εργαζόμαστε, ενημερωνόμαστε και διαμορφώνουμε άποψη για τον κόσμο. Με εκατοντάδες εκατομμύρια ανθρώπους να χρησιμοποιούν ήδη εφαρμογές τεχνητής νοημοσύνης για αναζήτηση πληροφοριών, συγγραφή κειμένων, εκπαίδευση ή επαγγελματικές ανάγκες, τα μεγάλα γλωσσικά μοντέλα έχουν αρχίσει να λειτουργούν ως νέοι «κόμβοι γνώσης». Σε αυτό το πλαίσιο, ένα κρίσιμο ερώτημα έρχεται όλο και πιο συχνά στο προσκήνιο: έχουν ιδεολογία οι μηχανές που απαντούν στις ερωτήσεις μας;

Η συζήτηση αυτή δεν είναι απλώς φιλοσοφική ή θεωρητική. Αγγίζει την ίδια τη λειτουργία της δημοκρατίας και της δημόσιας σφαίρας. Όταν η πληροφορία που λαμβάνει ένας πολίτης περνά μέσα από φίλτρα τεχνολογικών συστημάτων, τότε η κατανόηση του τρόπου με τον οποίο αυτά τα συστήματα λειτουργούν και των πιθανών προκαταλήψεών τους αποκτά τεράστια σημασία.

Τα chatbots δεν διαθέτουν συνείδηση ούτε πολιτική βούληση. Ωστόσο, είναι προϊόντα ανθρώπινου σχεδιασμού, εκπαίδευσης και αξιολόγησης, γεγονός που σημαίνει ότι οι αξίες, οι επιλογές και οι προτεραιότητες των δημιουργών τους μπορούν να αποτυπωθούν στις απαντήσεις που δίνουν.

Στον πυρήνα της λειτουργίας τους βρίσκονται τα λεγόμενα μεγάλα γλωσσικά μοντέλα. Πρόκειται για συστήματα που εκπαιδεύονται σε τεράστιες βάσεις δεδομένων κειμένου, ώστε να μάθουν να αναγνωρίζουν μοτίβα, να κατανοούν το πλαίσιο μιας ερώτησης και να παράγουν συνεκτικές απαντήσεις. Αυτή η εκπαίδευση δεν είναι ουδέτερη. Περιλαμβάνει επιλογές σχετικά με το ποιες πηγές θεωρούνται αξιόπιστες, ποιες απαντήσεις θεωρούνται ασφαλείς και ποιες θέσεις πρέπει να αποφεύγονται.

Στη συνέχεια, οι προγραμματιστές εφαρμόζουν διαδικασίες αξιολόγησης και ανατροφοδότησης, όπου άνθρωποι δοκιμάζουν το σύστημα και το «διορθώνουν» όταν κρίνουν ότι οι απαντήσεις του είναι ακατάλληλες, επικίνδυνες ή παραπλανητικές. Μέσα από αυτή τη διαδικασία διαμορφώνεται ένα είδος «ιδεολογικού αποτυπώματος», όχι με τη μορφή συνειδητής πολιτικής τοποθέτησης, αλλά ως αποτέλεσμα σχεδιαστικών επιλογών.

Ορισμένοι ερευνητές έχουν επιχειρήσει να χαρτογραφήσουν αυτές τις τάσεις. Σε γενικές γραμμές, πολλές δυτικές εφαρμογές τεχνητής νοημοσύνης εμφανίζουν μια προτίμηση προς μετριοπαθείς ή προοδευτικές θέσεις σε ζητήματα όπως η κοινωνική ισότητα, η περιβαλλοντική πολιτική και η κρατική ρύθμιση της οικονομίας.

Αυτό δεν σημαίνει ότι «υποστηρίζουν» συγκεκριμένα κόμματα ή ιδεολογίες με την παραδοσιακή έννοια, αλλά ότι συχνά προκρίνουν απαντήσεις που ευθυγραμμίζονται με σύγχρονες κοινωνικές και επιστημονικές αντιλήψεις. Για παράδειγμα, σε θέματα κλιματικής αλλαγής ή δικαιωμάτων μειονοτήτων, τείνουν να υιοθετούν τη θέση που θεωρείται επιστημονικά τεκμηριωμένη ή κοινωνικά αποδεκτή από τους περισσότερους διεθνείς οργανισμούς.

Από την άλλη πλευρά, υπάρχουν συστήματα που επιχειρούν να διαφοροποιηθούν, προβάλλοντας μεγαλύτερη έμφαση στην ελευθερία έκφρασης και στα ατομικά δικαιώματα. Σε ορισμένες περιπτώσεις, αυτό μεταφράζεται σε λιγότερο φιλτραρισμένες απαντήσεις ή σε μεγαλύτερη ανοχή απέναντι σε αμφιλεγόμενες απόψεις. Η στρατηγική αυτή συνδέεται συχνά με μια πιο «φιλελεύθερη» προσέγγιση με την αμερικανική έννοια του όρου, δηλαδή την υπεράσπιση της ατομικής αυτονομίας και τη δυσπιστία απέναντι στους μηχανισμούς ελέγχου του περιεχομένου. Ωστόσο, ακόμη και σε αυτές τις περιπτώσεις, τα συστήματα δεν παύουν να ενσωματώνουν κανόνες ασφαλείας, καθώς οι εταιρείες που τα αναπτύσσουν οφείλουν να προστατεύουν τους χρήστες από παραπληροφόρηση, ρητορική μίσους ή επικίνδυνες οδηγίες.

Ιδιαίτερο ενδιαφέρον παρουσιάζουν τα μοντέλα τεχνητής νοημοσύνης που δημιουργούνται σε περιβάλλοντα όπου το κράτος έχει ισχυρό ρόλο στον έλεγχο της πληροφόρησης. Εκεί, οι απαντήσεις μπορεί να αντανακλούν πιο άμεσα την επίσημη πολιτική γραμμή ή να αποφεύγουν ευαίσθητα ιστορικά και πολιτικά ζητήματα.

Το φαινόμενο αυτό αναδεικνύει μια νέα διάσταση της ψηφιακής γεωπολιτικής: η τεχνητή νοημοσύνη δεν είναι μόνο τεχνολογία, αλλά και εργαλείο επιρροής. Η γλώσσα, οι πηγές εκπαίδευσης και το πολιτικό πλαίσιο μέσα στο οποίο αναπτύσσεται ένα σύστημα μπορούν να επηρεάσουν σημαντικά το περιεχόμενο που παράγει.

Παρά τις διαφορές τους, όλα τα συστήματα τεχνητής νοημοσύνης αντιμετωπίζουν την ίδια πρόκληση: πώς να παραμείνουν χρήσιμα και αξιόπιστα χωρίς να κατηγορηθούν για μεροληψία. Η πλήρης ουδετερότητα είναι πρακτικά αδύνατη, καθώς ακόμη και η επιλογή να παρουσιαστούν «και οι δύο πλευρές» ενός ζητήματος αποτελεί μια αξιακή απόφαση. Αυτό που γίνεται ολοένα και πιο σημαντικό είναι η διαφάνεια. Οι χρήστες χρειάζεται να γνωρίζουν πώς εκπαιδεύονται αυτά τα συστήματα, ποιοι κανόνες τα διέπουν και ποια είναι τα όριά τους.

Στον κόσμο που διαμορφώνεται, η τεχνητή νοημοσύνη δεν αντικαθιστά την ανθρώπινη κρίση, αλλά την επηρεάζει. Μπορεί να διευκολύνει την πρόσβαση στη γνώση, να ενισχύσει την παραγωγικότητα και να ανοίξει νέους δρόμους δημιουργικότητας. Ταυτόχρονα, όμως, δημιουργεί νέα ερωτήματα για την ισορροπία μεταξύ τεχνολογίας, εξουσίας και κοινωνίας.

Η ιδεολογία των μηχανών δεν είναι αποτέλεσμα συνείδησης, αλλά αντανάκλαση των κοινωνιών που τις κατασκευάζουν. Και γι’ αυτό ακριβώς η συζήτηση γύρω από αυτήν δεν αφορά μόνο την τεχνολογία, αλλά το ίδιο το μέλλον της δημοκρατίας και της πληροφόρησης.