Η Τεχνητή Νοημοσύνη έχει πλέον ενσωματωθεί στην καθημερινότητα, από τις συνταγές και τις σχολικές εργασίες έως τις αγορές και τη μόδα. Το ερώτημα που εγείρεται είναι τι θα συμβεί αν αυτή η τεχνολογία εισέλθει και στην προεκλογική συζήτηση. Δύο πρόσφατες μελέτες, που δημοσιεύθηκαν ταυτόχρονα στα περιοδικά «Nature» και «Science», δείχνουν ότι η AI μπορεί να επηρεάσει τις απόψεις από 1,5% έως και 25% των ψηφοφόρων που συμμετείχαν στα πειράματα. Η αποτελεσματικότητα αυτή θεωρείται μεγαλύτερη από εκείνη των παραδοσιακών πολιτικών διαφημίσεων, κάτι ιδιαίτερα κρίσιμο, καθώς περίπου το ένα τέταρτο των ψηφοφόρων αποφασίζει την ψήφο του την τελευταία εβδομάδα πριν από τις εκλογές.
Τα πιο γνωστά chatbots αποφεύγουν να απαντήσουν ευθέως στο ερώτημα ποιο κόμμα να στηρίξει κάποιος. «Δεν μπορώ να σας πω ποιον να ψηφίσετε», απαντούν συνήθως οι πλατφόρμες. Ωστόσο, αυτή η στάση μπορεί εύκολα να ξεπεραστεί μέσα από πιο έμμεσες ερωτήσεις και παρατεταμένο διάλογο.
Η έρευνα των David Rand, καθηγητή Πληροφορικής, και Gordon Pennycook, αναπληρωτή καθηγητή Ψυχολογίας στο Πανεπιστήμιο Cornell, εξέτασε την επίδραση των chatbots σε ψηφοφόρους. Στη μελέτη που δημοσιεύθηκε στο «Nature» συμμετείχαν 2.300 Αμερικανοί, 1.530 Καναδοί και 2.118 Πολωνοί, οι οποίοι συνομίλησαν με AI εκπαιδευμένη πάνω στις τελευταίες προεδρικές εκλογές των χωρών τους.
Σε όλες τις περιπτώσεις, η Τεχνητή Νοημοσύνη επηρέασε τις προθέσεις ψήφου, με διαφορές ως προς την αποτελεσματικότητα. Στις ΗΠΑ, το μοντέλο που είχε εκπαιδευτεί να ευνοεί την Κάμαλα Χάρις έπεισε το 3,9% των ψηφοφόρων, ενώ εκείνο που υποστήριζε τον Ντόναλντ Τραμπ το 1,52%. Στον Καναδά και την Πολωνία, η μεταβολή των απόψεων έφτασε έως και το 10%. «Ήταν ένα εκπληκτικά μεγάλο αποτέλεσμα», σημείωσε ο Rand.
Ο ερευνητής διευκρινίζει ότι δεν πρόκειται για ψυχολογική χειραγώγηση, αλλά για πειθώ με όρια. «Τα LLM μπορούν να αλλάξουν τη στάση των ανθρώπων απέναντι στους υποψηφίους και τις πολιτικές τους, παρέχοντας πολλές πραγματικές δηλώσεις υπέρ μιας θέσης. Ωστόσο, αυτές οι δηλώσεις δεν είναι πάντα ακριβείς και ενδέχεται να παραλείπουν σημαντικά στοιχεία».
Οι ειδικοί που επαλήθευσαν το περιεχόμενο των επιχειρημάτων της AI διαπίστωσαν ότι οι αναφορές υπέρ συντηρητικών υποψηφίων ήταν συχνότερα εσφαλμένες, καθώς στηρίζονταν σε δεδομένα που κυκλοφορούν στα κοινωνικά δίκτυα της δεξιάς, όπου «μοιράζονται πιο ανακριβείς πληροφορίες από όσους ανήκουν στην αριστερά».
Η πειθώ της AI και οι κίνδυνοι «ψευδαίσθησης»
Σε δεύτερη μελέτη, που δημοσιεύθηκε στο «Science», ο Rand ανέλυσε την επίδραση της Τεχνητής Νοημοσύνης σε 77.000 Βρετανούς ψηφοφόρους σχετικά με 700 πολιτικά ζητήματα. Το πιο εξελιγμένο μοντέλο, το οποίο ενίσχυε τα επιχειρήματά του με πραγματικά δεδομένα, κατάφερε να μεταβάλει τις απόψεις έως και του 25% των συμμετεχόντων.
«Τα μεγαλύτερα μοντέλα είναι πιο πειστικά και ο πιο αποτελεσματικός τρόπος για να αυξηθεί αυτή η ικανότητα είναι να τους δοθεί οδηγία να στηρίζουν τα επιχειρήματά τους σε όσο το δυνατόν περισσότερα γεγονότα και να εκπαιδευτούν περαιτέρω στην πειστικότητα», εξηγεί ο Rand.
Σύμφωνα με τους ερευνητές, η συγκεκριμένη ικανότητα έχει και θετική πλευρά, καθώς τα επιχειρήματα της AI μπορούν να συμβάλουν στη μείωση των θεωριών συνωμοσίας, αποδίδοντας τα γεγονότα σε πραγματικά αίτια και όχι σε φανταστικές ομάδες εξουσίας.
Ωστόσο, υπάρχει και περιορισμός. «Καθώς το chatbot αναγκάζεται να παρέχει όλο και περισσότερες πραγματικές πληροφορίες, τελικά εξαντλεί τις ακριβείς πηγές και αρχίζει να επινοεί δεδομένα». Το φαινόμενο αυτό είναι γνωστό στην επιστημονική κοινότητα ως «ψευδαίσθηση», δηλαδή η παραγωγή ανακριβών πληροφοριών που φαίνονται αληθινές.
Οι συγγραφείς των μελετών καταλήγουν ότι είναι κρίσιμη η περαιτέρω έρευνα γύρω από την πειστική δύναμη της Τεχνητής Νοημοσύνης, όχι μόνο στο πολιτικό πεδίο, αλλά και γενικότερα. Στόχος είναι να «προβλεφθεί και να περιοριστεί η κατάχρηση» και να θεσπιστούν ηθικές κατευθυντήριες γραμμές για το «πώς πρέπει και πώς δεν πρέπει να χρησιμοποιείται η AI».