Οι νέες τεχνολογίες και ιδιαιτέρως η τεχνητή νοημοσύνη ήρθαν για να δώσουν μια νέα πνοή στη συζήτηση για το Κοινωνικό Συμβόλαιο στον τομέα της ασφάλειας. Οι κρίσεις, οι νέες απειλές, τα αυταρχικά κράτη, η πόλωση, η αμφισβήτηση των θεσμών και της πολιτικής γενικότερα από ομάδες διαμαρτυρίας, αλλά και λαϊκιστικούς πολιτικούς σχηματισμούς, έχουν δημιουργήσει πολλούς προβληματισμούς γύρω από τη λειτουργία των κρατών ως προστάτες και εγγυητές της ασφάλειας των πολιτών. Η διττή κρίση θεσμών και αντιπροσώπευσης που αντιμετωπίζουν όλες οι φιλελεύθερες δημοκρατίες έχει καλλιεργήσει μια συνθήκη αμφισβήτησης του ρόλου του κράτους στο Κοινωνικό Συμβόλαιο για την ασφάλεια. Δεν είναι τυχαίο πως πολλές φορές επικρατούν δύο ακραίες αντιθετικές προσεγγίσεις στο ζήτημα της ασφάλειας και των δικαιωμάτων. Η μια «πλευρά» προσπαθεί να μηδενίσει την αξία της άλλης (δεν χρειαζόμαστε σύνορα, δεν υπάρχει πρόβλημα να τοποθετηθούν κάμερες παντού). Οπως είναι αναμενόμενο, σε έναν πολωμένο και γεμάτο απλουστεύσεις δημόσιο διάλογο δεν μπορεί να γίνει γόνιμη αντιπαράθεση για τη χρήση των νέων τεχνολογιών στον τομέα της ασφάλειας.

Οι δημοκρατίες βασίζονται στο Κοινωνικό Συμβόλαιο, στη συναίνεση δηλαδή των πολιτών να εκχωρήσουν μέρος της ιδιωτικότητάς τους για να τους παρέχει το κράτος ασφάλεια. Σε μια δημοκρατία που λειτουργεί το δίλημμα «ελευθερία Vs ασφάλειας» δεν υπάρχει με αντιθετική μορφή, καθώς τα δύο αγαθά συλλειτουργούν. Πάνω σε αυτή την παραδοχή πρέπει να δομηθεί ένας δημιουργικός δημόσιος διάλογος για τη χρήση νέων τεχνολογιών στον τομέα της ασφάλειας, τους κινδύνους, τις προκλήσεις, αλλά και τις ευκαιρίες και τα πλεονεκτήματα που μπορούν να προκύψουν από αυτή τη διαδικασία. Ας ξεκαθαρίσουμε λοιπόν ευθύς εξαρχής πως δεν μπορεί και δεν πρέπει να γίνεται κατάχρηση ή κακόβουλη χρήση της τεχνητής νοημοσύνης από τους δημόσιους φορείς και περισσότερο από τους φορείς ασφαλείας. Για αυτόν τον λόγο στην Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη υπάρχουν ειδικές προβλέψεις για τον τομέα της ασφάλειας και κυρίως της αστυνόμευσης. Η ΕΕ λειτουργεί και εδώ ως ένας ρυθμιστικός πρωταγωνιστής, διαμορφώνοντας ένα πλαίσιο εντός του οποίου πρέπει να λειτουργήσουν τα κράτη- μέλη και οι υπηρεσίες των σωμάτων ασφαλείας.

Ωστόσο, η ΕΕ αλλά και τα κράτη-μέλη θα πρέπει να αποφύγουν τον κίνδυνο να εγκλωβιστούν σε μια ρυθμιστική παγίδα. Οπου ο στόχος δεν θα είναι η ρύθμιση για την ορθή χρήση των νέων τεχνολογιών και κυρίως της τεχνητής νοημοσύνης, αλλά η ρύθμιση για τη ρύθμιση. Αυτό δεν σημαίνει σε καμία περίπτωση πως πρέπει να γίνουν εκπτώσεις ή πως η ΕΕ πρέπει να απεμπολήσει το ρυθμιστικό πλαίσιο που είναι συστατικό στοιχείο της κανονιστικής της φύσης. Ωστόσο, πρέπει να ληφθούν υπόψη ο χρόνος με τον οποίο τρέχει η ανάπτυξη και η χρήση νέων τεχνολογιών και τα δεδομένα που διαμορφώνονται.

Ηδη η ΕΕ υστερεί στον γεωπολιτικό ανταγωνισμό για την τεχνητή νοημοσύνη, με τις ΗΠΑ και την Κίνα να τρέχουν, για διαφορετικούς λόγους, σε άλλη ταχύτητα και αυτό να ενισχύει τη θέση τους στον παγκόσμιο ανταγωνισμό ισχύος, αλλά και να τους προσφέρει τα οφέλη της χρήσης των αναδυόμενων τεχνολογιών. Η ΕΕ σε αυτή την περίπτωση κερδίζει το στοίχημα της ρύθμισης, χάνει όμως το στοίχημα της τεχνολογικής πρωτοβουλίας και καινοτομίας, καθώς και της ισχύος που τις συνοδεύει.

Μεγαλύτερος ωστόσο προβληματισμός προκύπτει από τους δρώντες που χρησιμοποιούν ήδη τις αναδυόμενες τεχνολογίες κακόβουλα και καταχρηστικά. Από τα αυταρχικά και τα αναθεωρητικά κράτη μέχρι τις εγκληματικές και τρομοκρατικές οργανώσεις, αλλά ακόμη και ιδιωτικούς φορείς που μπορούν να έχουν πρόσβαση σε προϊόντα αναδυόμενων τεχνολογιών. Υπάρχει δηλαδή ένας σημαντικός αριθμός δρώντων που έχουν πρόσβαση στις αναδυόμενες τεχνολογίες και δεν εμπίπτουν σε καμία ρύθμιση και προφανώς αδιαφορούν για την ηθική χρήση. Drones, αυτόνομα όπλα, ακόμη και στον τομέα των πυρηνικών, deep fakes, απάτες, εξελιγμένες κυβερνοεπιθέσεις, διασπορά προπαγάνδας και αναβαθμισμένων θεωριών συνωμοσίας, λογισμικά παρακολούθησης, κρυπτογραφημένες επικοινωνίες και 3d printing όπλα είναι μερικά παραδείγματα από την κακόβουλη χρήση της τεχνολογίας.

Είναι λοιπόν κρίσιμο να αντιμετωπιστεί αυτή η κατάσταση που έχει δημιουργηθεί και δίνει δυστυχώς ένα ανταγωνιστικό πλεονέκτημα στους κακόβουλους δρώντες. Τα σώματα ασφαλείας και οι υπηρεσίες πληροφοριών, όπως και σε επίπεδο εθνικής ασφάλειας οι ένοπλες δυνάμεις, έχουν ανάγκη από τη χρήση νέων τεχνολογιών για να μπορέσουν να αναβαθμίσουν τις δυνατότητές τους. Σε αντίθετη περίπτωση, υπάρχει σημαντικός κίνδυνος, ιδιαίτερα για τις ευρωπαϊκές χώρες, να υστερήσουν τεχνολογικά στη μάχη κατά του εγκλήματος.

Εν κατακλείδι, είναι κρίσιμο στη διαμόρφωση και στην υιοθέτηση ενός ρυθμιστικού πλαισίου για τη χρήση της τεχνητής νοημοσύνης στους τομείς της ασφάλειας και της άμυνας να ενσωματώσουμε την ανάγκη των υπηρεσιών να τις αποκτήσουν, καθώς και τον χρόνο που απαιτείται για γίνει μια προμήθεια ενός τέτοιου συστήματος. Η EUROPOL μπορεί να επιτελέσει έναν σημαντικό ρόλο για την προετοιμασία και την υποστήριξη των αστυνομιών των κρατών-μελών ώστε να διαμορφώσουν την αναγκαιότητα και την αξιοποίηση της τεχνητής νοημοσύνης σύμφωνα με τις προβλέψεις του ευρωπαϊκού ρυθμιστικού πλαισίου.

Δεν πρέπει για να αποφύγουμε την πιθανή κατάχρηση να εγκλωβιστούμε στην παγίδα της μη χρήσης. Αν μπούμε σε αυτή την παγίδα, θα μοιάζουμε με την τελευταία σκηνή μάχης από την ταινία «Ο τελευταίος σαμουράι», όταν οι πιστοί στην παράδοση σαμουράι σφαγιάστηκαν από τον αυτοκρατορικό στρατό που χρησιμοποιούσε τα σύγχρονα όπλα των ΗΠΑ.