Τα μέσα κοινωνικής δικτύωσης (social media) έχουν κατηγορηθεί συχνά ότι εξελίχθηκαν σε «τοξικά λημέρια» παραπληροφόρησης και μίσους. Παρά τις υποσχέσεις για έναν ψηφιακό δημόσιο χώρο ανοιχτού διαλόγου, η πραγματικότητα δείχνει πιο ζοφερή. Αυτό επιβεβαιώνει και μια νέα μελέτη του Πανεπιστημίου του Άμστερνταμ, η οποία κατέληξε σε ανησυχητικά συμπεράσματα.
Οι ερευνητές Πέτερ Τόρνμπεργκ και Μαϊκ Λαρούι δημιούργησαν ένα εικονικό κοινωνικό δίκτυο, στο οποίο όλοι οι χρήστες ήταν chatbots βασισμένα στο GPT-4o, το προηγμένο γλωσσικό μοντέλο τεχνητής νοημοσύνης. Στόχος ήταν να εξεταστεί αν με συγκεκριμένες παρεμβάσεις θα μπορούσε να αποτραπεί η δημιουργία «echο chambers» και η ενίσχυση του διχαστικού λόγου.
Δοκιμάστηκαν έξι διαφορετικές στρατηγικές, από την εμφάνιση των αναρτήσεων με χρονολογική σειρά και την ενίσχυση εναλλακτικών απόψεων, μέχρι την απόκρυψη στατιστικών όπως οι αριθμοί ακολούθων. Ωστόσο, όπως διαπιστώθηκε, καμία παρέμβαση δεν έφερε ουσιαστικά αποτελέσματα. Σε ορισμένες περιπτώσεις μάλιστα, η κατάσταση έγινε ακόμη χειρότερη: η χρονολογική ταξινόμηση, για παράδειγμα, έφερε στο προσκήνιο ακραίο περιεχόμενο.
Ο Τόρνμπεργκ τόνισε ότι η τοξικότητα δεν προκύπτει μόνο από το περιεχόμενο, αλλά και από τις ίδιες τις δομές που δημιουργούνται μέσα στα δίκτυα, οι οποίες τροφοδοτούν έναν φαύλο κύκλο πόλωσης. Το αποτέλεσμα είναι μια ακραία ανισότητα προσοχής, με μια μικρή μειοψηφία αναρτήσεων να αποσπά το μεγαλύτερο ενδιαφέρον.
Στην εποχή της γενετικής τεχνητής νοημοσύνης, οι κίνδυνοι εντείνονται: ολοένα και περισσότερα «ρομποτικά» προφίλ παράγουν μαζικά περιεχόμενο με στόχο να μεγιστοποιήσουν την προσοχή, συχνά μέσω παραπληροφόρησης και διχαστικού λόγου. Όπως υπογράμμισε ο Τόρνμπεργκ, είναι δύσκολο να φανταστεί κανείς ότι τα σημερινά μοντέλα κοινωνικών δικτύων μπορούν να επιβιώσουν χωρίς ριζικές αλλαγές. Το πείραμα δείχνει ότι η μάχη για πιο υγιή και αξιόπιστα social media δεν θα είναι εύκολη και ίσως η ίδια η αρχιτεκτονική τους να αποτελεί τον μεγαλύτερο εχθρό.