Ολο και περισσότερο τα τελευταία χρόνια η τεχνητή νοημοσύνη εντάσσεται στην εργαλειοθήκη πολλών σωμάτων ασφαλείας ενισχύοντας την περίφημη προληπτική αστυνόμευση, αλλά ταυτόχρονα δημιουργώντας σοβαρές προκλήσεις για τα ανθρώπινα δικαιώματα και τις ατομικές ελευθερίες. Η ένταξη αυτών των συστημάτων έχει αποδειχθεί σισύφειος καθώς έχει δημιουργήσει πολιτικούς τριγμούς σε πολλές χώρες, με αποτέλεσμα είτε την απαγόρευση και την απόσυρση των συστημάτων αυτών είτε τον θεμελιακό επανακαθορισμό του πραγματικού τους ρόλου. Για παράδειγμα, το πρόγραμμα ProKid, με βάση το οποίο η Ολλανδία αξιολογεί αλγοριθμικά τον κίνδυνο εγκληματικότητας παιδιών, έχει αποτελέσει αντικείμενο έντονων επικρίσεων αναφορικά με την αξιοπιστία τoυ. Σοβαρές αντιδράσεις έχει συναντήσει επίσης και το πρόγραμμα «Risikoorientierte Sanktionenvollzug» (ROS) που έχει σχεδιαστεί για να προωθήσει την επανακοινωνικοποίηση των κρατουμένων στα γερμανόφωνα καντόνια της Ελβετίας. Η χρήση του λογισμικού COMPAS για την υποστήριξη των δικαστών στις ΗΠΑ αποτελεί πλέον σημείο αναφοράς στις μελέτες για τη μεροληπτικότητα της ΤΝ, ενώ η χρήση του λογισμικού PRECOBS (Pre-Crime-Observation-System) έχει πλέον εγκαταλειφθεί από πολλές αστυνομίες σε όλον τον κόσμο.
Υπό το πρίσμα όλων αυτών των προβληματικών υποθέσεων, γίνεται φανερό ότι η ένταξη της τεχνητής νοημοσύνης στα υπάρχοντα συστήματα καταπολέμησης του εγκλήματος απαιτεί προσεκτικά βήματα και κυρίως συστηματικές προκαταρκτικές εκτιμήσεις επιπτώσεων, διαρκή ανθρώπινη εποπτεία και τη δημιουργία ισχυρών μηχανισμών λογοδοσίας. Η ταχύτητα εξέλιξης της τεχνολογίας είναι τέτοια (ήδη τίθενται σε πιλοτική εφαρμογή λογισμικά τεχνητής νοημοσύνης αναγνώρισης συναισθημάτων) που καθιστά τις όποιες προσπάθειες αλγοριθμικής επιτήρησης ιδιαίτερα δύσκολες. Απαιτείται επομένως ρυθμιστική επαγρύπνηση, διαρκής εκπαίδευση του συνόλου των φορέων που εμπλέκονται στη χρήση των νέων αυτών συστημάτων, αλλά και να καταστεί κατανοητό ότι το έγκλημα δεν είναι ένα φαινόμενο που είναι προβλέψιμο με απόλυτα μαθηματικούς όρους, ούτε και αλγοριθμικά πλήρως μετρήσιμο, και κυρίως ότι δεν αντιμετωπίζεται αποκλειστικά και μόνο με τεχνολογικά εργαλεία, όσο προηγμένα και εάν είναι αυτά.
Επομένως εάν η χώρα μας αποφασίσει να προχωρήσει στην αξιοποίηση της συγκεκριμένης τεχνολογίας στον τομέα της ασφάλειας, θα πρέπει όχι μόνο να διδαχθεί από τη σχετική διεθνή εμπειρία, αλλά και να καταστρώσει τη δική της διακριτή στρατηγική που θα θέτει σαφείς κατευθυντήριες γραμμές για τα όρια χρήσης αυτών των συστημάτων και θα εισάγει ρήτρες αλγοριθμικής και λειτουργικής διαφάνειας που θα θωρακίζουν την ανεξαρτησία της διαδικασίας «ελέγχου των ελεγκτών». Μια τέτοια στρατηγική θα πρέπει να εδράζεται επίσης σε μια σειρά από παραδοχές τεχνολογικού, νομικού και ηθικού χαρακτήρα.
Πρώτον, θα πρέπει να αναγνωρίζει τους δομικούς περιορισμούς της τεχνολογίας στον συγκεκριμένο τομέα. Ο τύπος λογισμικού που χρησιμοποιείται, οι βάσεις και η ποιότητα των δεδομένων που εμπλέκονται στην εκπαίδευσή του και το πώς ενσωματώνεται ένα τέτοιο τεχνολογικό σύστημα στη διαδικασία λήψης αποφάσεων στο πεδίο αποτελούν κρίσιμες παραμέτρους για την ισορροπημένη λειτουργία του. Οσοι χειρίζονται ένα τέτοιο πλαίσιο θα πρέπει να λάβουν υπόψη ότι η χρήση ιστορικών δεδομένων εγκλήματος κωδικοποιεί το παρελθόν καθιστώντας το «μη διαπραγματεύσιμο» και «εγκλωβίζει» την αστυνόμευση σε ιστορικά δεδομένα εγκλήματος που διαιωνίζουν τις υφιστάμενες προκαταλήψεις, δημιουργώντας έναν φαύλο κύκλο υπεραστυνόμευσης και στιγματισμού συγκεκριμένων περιοχών.
Ενας άλλος κρίσιμος παράγοντας που πρέπει να ληφθεί υπόψη είναι ο ίδιος ο ανθρώπινος παράγοντας: έρευνες δείχνουν ότι όσοι εμπλέκονται στη δίωξη του εγκλήματος είναι γενικά δύσπιστοι απέναντι στις περίφημες αλγοριθμικές λύσεις, ενώ αρκετοί δεν διαθέτουν την απαραίτητη ψηφιακή εκπαίδευση για να αξιολογήσουν και να ερμηνεύσουν τα αλγοριθμικά δεδομένα. Οι αστυνομικές Αρχές καλούνται να διαχειριστούν λογισμικά που μαθαίνουν μόνα τους, είναι δυναμικά, με μεγάλο αριθμό μεταβλητών και ταυτόχρονα αδιαφανή ως προς τη λογική τους. Υπάρχουν επίσης σοβαρές ανησυχίες ότι η έλευση αυτών των αυτοματοποιημένων συστημάτων θα αντικαταστήσει ή, στην καλύτερη περίπτωση, θα υποβαθμίσει τον ανθρώπινο παράγοντα καθώς είναι μεγάλος ο κίνδυνος της μεροληψίας αυτοματισμού.
Ενα άλλο σημαντικό στοιχείο που θα πρέπει να ληφθεί υπόψη είναι ότι η προληπτική αστυνόμευση καλλιεργεί μια λογική «συλλογής δεδομένων χωρίς όρια», καθιστώντας όσους έχουν πρόσβαση σε αυτά αλλά και σε επεξεργαστική ισχύ ιδιαίτερα ισχυρούς. Για την ακρίβεια, η «εγγενώς» περιορισμένη πρόσβαση της αστυνομίας στον πηγαίο κώδικα (source code) αλλά και η έλλειψη προτύπων διαφάνειας που διακρίνει τον σχεδιασμό αυτών των συστημάτων καθιστούν τον εξωτερικό έλεγχο αυτών των συστημάτων ιδιαίτερα δύσκολο επιτείνοντας την ανισορροπία ισχύος. Αυτή η έλλειψη διαφάνειας δημιουργεί με τη σειρά της προβλήματα λογοδοσίας, οδηγώντας στη δημιουργία «πλατφoρμών αστυνόμευσης» που αυξάνουν την εξάρτηση της αστυνομίας από «εξωτερικά» λογισμικά.
Επιπρόσθετα, η Ελλάδα ως latecomer σε όλες αυτές τις τεχνολογικές αναζητήσεις θα μπορούσε να αντλήσει χρήσιμα μαθήματα για την αξιοπιστία και τη συμβατότητα αυτών των συστημάτων με τους κανόνες για την προστασία των ανθρώπινων δικαιωμάτων και της ανθρωποκεντρικής χρήσης της τεχνητής νοημοσύνης από άλλους ευρωπαίους εταίρους: η Γαλλία και η Εσθονία διαθέτουν πλέον τα δικά τους δημόσια λογισμικά προληπτικής αστυνόμευσης, η Ολλανδία και η Φινλανδία έχουν δημιουργήσει ειδικά αποθετήρια ανοιχτών δεδομένων, ενώ η Αυστρία πρωτοπορεί στην εκπαίδευση του αστυνομικού της δυναμικού σε διάφορες εκφάνσεις της τεχνητής νοημοσύνης. Με άλλα λόγια, η εισαγωγή αυτών των τεχνολογικών συστημάτων στον ελληνικό χώρο θα μπορούσε να αποτελεί την αφορμή όχι μόνο ψηφιακού εκσυγχρονισμού των σχετικών υποδομών και ελεγχόμενου πειραματισμού αυτών των συστημάτων (sandboxing), αλλά και αξιοποίησης αυτών των διεθνών πρακτικών για τον επανακαθορισμό των σχέσεων ανάμεσα στην αστυνομία και την ίδια την ελληνική κοινωνία.
O δρ Μιχάλης Kρητικός είναι κύριος ερευνητής του ΕΛΙΑΜΕΠ, επίκουρος καθηγητής σε θέματα Τεχνητής Νοημοσύνης και Ψηφιακής Μετάβασης στη Σχολή Διακυβέρνησης του Πανεπιστημίου των Βρυξελλών και συγγραφέας του βιβλίου «Ethical AI Surveillance in the Workplace»







