Η τεχνητή νοημοσύνη (AI) έχει διεισδύσει βαθιά στις δομές και τις λειτουργίες των σύγχρονων κρατών, ιδιαίτερα σε θέματα ασφάλειας και άμυνας. Καθώς οι δυνατότητές της εξελίσσονται ραγδαία, το ζήτημα της ρύθμισης και της ηθικής διαχείρισης γίνεται πιο επιτακτικό από ποτέ.
Στον τομέα της ασφάλειας, η AI αξιοποιείται ήδη ευρέως για αναγνώριση προσώπων, παρακολούθηση, ανάλυση μεγάλων δεδομένων και πρόληψη εγκληματικών ενεργειών. Ταυτόχρονα, όμως, εγείρει σημαντικά ζητήματα σχετικά με την προστασία των ατομικών δικαιωμάτων, της ιδιωτικότητας και της δημοκρατίας. Η κρίσιμη ερώτηση είναι: πώς μπορεί η τεχνητή νοημοσύνη να εξασφαλίζει την ασφάλεια των πολιτών, χωρίς να υπονομεύει τις θεμελιώδεις αρχές των σύγχρονων δημοκρατιών;
Η απάντηση βρίσκεται στη δημιουργία ενός ολοκληρωμένου ρυθμιστικού πλαισίου που θα ισορροπεί ανάμεσα στις ανάγκες ασφάλειας και στην προστασία των δικαιωμάτων. Η Ευρωπαϊκή Ενωση, για παράδειγμα, προωθεί τον Κανονισμό για την Τεχνητή Νοημοσύνη (AI Act), που ταξινομεί τις εφαρμογές της AI ανάλογα με το επίπεδο κινδύνου τους. Εφαρμογές με υψηλό ρίσκο, όπως η παρακολούθηση και η αστυνομική δράση, υπόκεινται σε αυστηρούς περιορισμούς και διαφάνεια, ενώ απαιτείται η συνεχής ανθρώπινη εποπτεία για τη λήψη τελικών αποφάσεων.
Επιπλέον, πολλές χώρες αναπτύσσουν εθνικές στρατηγικές για την AI, οι οποίες προβλέπουν τη θέσπιση ανεξάρτητων αρχών εποπτείας, μηχανισμών ελέγχου και τακτικών αξιολογήσεων των αλγορίθμων. Το ζητούμενο είναι να αποφευχθεί η δημιουργία ενός «ψηφιακού αυταρχισμού», όπου η τεχνολογία θα χρησιμοποιείται ως μέσο ελέγχου και καταστολής, και να ενισχυθεί η υπευθυνότητα και η λογοδοσία των αρχών ασφαλείας.
Στο πλαίσιο του foresight, η σχέση ανθρώπου, AI και ασφάλειας αναμένεται να εξελιχθεί σε τρεις κυρίαρχες τάσεις:
Πρώτον, η ενισχυμένη συνεργασία ανθρώπου – μηχανής, όπου τα συστήματα AI θα λειτουργούν κυρίως ως βοηθητικά εργαλεία, υποστηρίζοντας ανθρώπινες αποφάσεις χωρίς να τις υποκαθιστούν πλήρως. Η ανθρώπινη κρίση παραμένει απαραίτητη για την αξιολόγηση σύνθετων και ευαίσθητων καταστάσεων, ιδιαίτερα σε ζητήματα ηθικής και δικαίου.
Δεύτερον, η ανάπτυξη αυτόνομων συστημάτων ασφαλείας, όπως drones, ρομπότ και αυτόνομοι φύλακες, θα αυξηθεί σημαντικά. Αυτή η τάση ενδέχεται να ενισχύσει την αποτελεσματικότητα και την ταχύτητα αντίδρασης, ωστόσο απαιτεί αυστηρούς κανόνες λειτουργίας για να αποφευχθεί η υπερβολική ή λανθασμένη χρήση δύναμης.
Τρίτον, η πρόληψη και η αντιμετώπιση ψηφιακών απειλών, όπως κυβερνοεπιθέσεις, deepfakes και ψηφιακή παραπληροφόρηση, θα βρεθούν στο επίκεντρο των στρατηγικών ασφαλείας. Τα συστήματα AI, αν και θα αξιοποιηθούν για την ανίχνευση και την αντιμετώπιση αυτών των απειλών, ταυτόχρονα θα αποτελούν και στόχο κυβερνοεπιθέσεων, καθιστώντας απαραίτητη τη συνεχή αναβάθμιση της κυβερνοασφάλειας.
Ωστόσο, η μεγαλύτερη πρόκληση δεν είναι τεχνική, αλλά κοινωνική και πολιτική. Οι κοινωνίες καλούνται να αποφασίσουν τι είδους σχέση επιθυμούν να έχουν με τις αναδυόμενες τεχνολογίες. Η ισορροπία ανάμεσα στην ασφάλεια και την ελευθερία απαιτεί διαρκή εγρήγορση και δημόσια διαβούλευση.
Η τεχνητή νοημοσύνη δεν είναι πανάκεια, αλλά ένα ισχυρό εργαλείο που, αν αξιοποιηθεί σωστά, μπορεί να ενισχύσει σημαντικά την εθνική και κοινωνική ασφάλεια. Παράλληλα, η πρόκληση της διατήρησης της ανθρώπινης αξιοπρέπειας και των δικαιωμάτων καθίσταται πιο επιτακτική από ποτέ.
Η τελική μορφή αυτής της σχέσης δεν θα εξαρτηθεί μόνο από τεχνικούς ή πολιτικούς παράγοντες, αλλά και από τη συνειδητή επιλογή όλων μας σχετικά με το πώς θέλουμε να συμβιώσουμε με την AI στο εγγύς και μακρινό μέλλον. Η ασφάλεια του αύριο είναι ήδη εδώ – και απαιτεί την άμεση προσοχή μας.
Ο Γιάννης Μαστρογεωργίου είναι ειδικός γραμματέας Μακροπρόθεσμου Σχεδιασμού, συντονιστής της Επιτροπής για την Τεχνητή Νοημοσύνη







