Μέσα στους τελευταίους έξι μήνες, τα εργαλεία δημιουργίας βίντεο μέσω AI έχουν εξελιχθεί τόσο, που η εμπιστοσύνη μας στην κάμερα κλονίζεται. Το πιθανότερο είναι πως όλοι θα εξαπατηθούμε ξανά και ξανά, μέχρι να αρχίσουμε να αμφισβητούμε κάθε τι που βλέπουμε στην οθόνη.

Προς το παρόν, υπάρχουν ακόμη ορισμένα σημάδια που μπορούν να μας προειδοποιήσουν. Ένα από τα πιο χαρακτηριστικά είναι η χαμηλή ποιότητα εικόνας – τα «θολά» ή «κοκκώδη» πλάνα θα πρέπει να μας βάζουν σε υποψίες ότι μπορεί να πρόκειται για προϊόν τεχνητής νοημοσύνης.

«Είναι από τα πρώτα πράγματα που εξετάζουμε», δηλώνει ο Hany Farid, καθηγητής Πληροφορικής στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϊ και ιδρυτής της εταιρείας ανίχνευσης deepfake, GetReal Security.

Η πραγματικότητα είναι πως τα εργαλεία αυτά θα γίνουν ακόμη καλύτερα, καθιστώντας τις σημερινές συμβουλές σύντομα άχρηστες. Ωστόσο, για την ώρα, η προσοχή σε τέτοιες λεπτομέρειες μπορεί να μας προστατεύσει από παραπλανητικό περιεχόμενο, μέχρι να μάθουμε να σκεφτόμαστε διαφορετικά για την αλήθεια στο διαδίκτυο.

Τα σημάδια που προδίδουν ένα AI βίντεο

Δεν είναι όλα τα βίντεο χαμηλής ανάλυσης ψεύτικα, ούτε όλα τα βίντεο υψηλής ποιότητας αληθινά. Όπως εξηγεί ο Matthew Stamm, καθηγητής και επικεφαλής του Multimedia and Information Security Lab στο Πανεπιστήμιο Drexel των ΗΠΑ, «αν δείτε κάτι πολύ χαμηλής ποιότητας, αυτό δεν σημαίνει ότι είναι ψεύτικο ή ύποπτο».

Ωστόσο, τα θολά και pixelated AI βίντεο είναι συχνά εκείνα που καταφέρνουν να ξεγελάσουν ευκολότερα. Ο Farid σημειώνει ότι τα κορυφαία εργαλεία παραγωγής βίντεο, όπως το Veo της Google και το Sora της OpenAI, εξακολουθούν να παρουσιάζουν μικρές ασυνέπειες – όχι πια έξτρα δάχτυλα ή παραμορφωμένα γράμματα, αλλά πιο λεπτές ατέλειες.

Ακόμη και τα πιο εξελιγμένα μοντέλα εμφανίζουν προβλήματα όπως υπερβολικά λεία δέρματα, περίεργες κινήσεις στα μαλλιά ή στα ρούχα, ή αντικείμενα στο φόντο που κινούνται αφύσικα. Όσο πιο καθαρή η εικόνα, τόσο πιο εύκολο είναι να εντοπιστούν αυτά τα σφάλματα· γι’ αυτό τα χαμηλής ποιότητας βίντεο είναι πιο «πειστικά».

Τα viral παραδείγματα και η ψευδαίσθηση της πραγματικότητας

Τους τελευταίους μήνες, αρκετά ψεύτικα βίντεο με AI έγιναν viral, ξεγελώντας εκατομμύρια χρήστες. Από το βίντεο με τα «κουνέλια στο τραμπολίνο» με 240 εκατ. προβολές στο TikTok, μέχρι το ρομαντικό στιγμιότυπο ενός ζευγαριού στο μετρό της Νέας Υόρκης – όλα είχαν κοινό στοιχείο τη χαμηλή ανάλυση.

Ακόμη και ένα βίντεο με έναν ιερέα που φέρεται να εκφωνεί προοδευτικό κήρυγμα αποδείχθηκε ψεύτικο. Όπως επισημαίνει ο Farid, «τα τρία στοιχεία που πρέπει να προσέχουμε είναι η ανάλυση, η ποιότητα και η διάρκεια». Τα περισσότερα AI βίντεο είναι πολύ σύντομα, συνήθως 6 έως 10 δευτερολέπτων, καθώς η παραγωγή τους είναι δαπανηρή και τα λάθη αυξάνονται όσο μεγαλώνει η διάρκεια.

Η τεχνολογία βελτιώνεται – η εμπιστοσύνη μειώνεται

Τα εργαλεία AI γίνονται συνεχώς πιο ρεαλιστικά. «Αυτά τα οπτικά σημάδια δεν θα υπάρχουν για πολύ ακόμη», προειδοποιεί ο Stamm. «Σε δύο χρόνια, τουλάχιστον τα προφανή, θα έχουν εξαφανιστεί. Δεν μπορούμε πια να εμπιστευόμαστε τα μάτια μας».

Οι ερευνητές, ωστόσο, διαθέτουν πιο εξελιγμένες μεθόδους επαλήθευσης. Όπως εξηγεί ο Stamm, κάθε τροποποιημένο βίντεο αφήνει πίσω του «στατιστικά ίχνη», σαν ψηφιακά αποτυπώματα, τα οποία μπορούν να εντοπιστούν με ειδικές τεχνικές. Παράλληλα, οι μεγάλες εταιρείες τεχνολογίας αναπτύσσουν πρότυπα που θα επιτρέπουν στις κάμερες να ενσωματώνουν στοιχεία επαλήθευσης απευθείας στα αρχεία.

Η νέα εποχή της ψηφιακής εμπιστοσύνης

Σύμφωνα με τον ειδικό ψηφιακής παιδείας Mike Caulfield, το ζητούμενο δεν είναι να μάθουμε να εντοπίζουμε τα ίχνη της τεχνητής νοημοσύνης, αλλά να αλλάξουμε τον τρόπο που αντιλαμβανόμαστε το περιεχόμενο. «Μακροπρόθεσμα, τα βίντεο θα αντιμετωπίζονται όπως τα κείμενα – η προέλευση θα έχει μεγαλύτερη σημασία από τα επιφανειακά χαρακτηριστικά», τονίζει.

Όπως δεν θεωρούμε ένα γραπτό κείμενο αληθινό μόνο επειδή κάποιος το έγραψε, έτσι και στα βίντεο πρέπει να αναζητούμε την πηγή, το πλαίσιο και την επιβεβαίωση από αξιόπιστες πηγές. «Αν μπορώ να το πω μεγαλοπρεπώς», καταλήγει ο Stamm, «αυτό είναι η μεγαλύτερη πρόκληση ασφάλειας πληροφορίας του 21ου αιώνα. Όμως δεν χάνουμε την ελπίδα – η λύση θα έρθει μέσα από εκπαίδευση, πολιτικές και τεχνολογία που θα συνεργάζονται».

Πηγή: BBC