Μόλις λίγες ώρες πριν ξεκινήσει, από κοινού με το Ισραήλ, την επίθεση στο Ιράν, ο Ντόναλντ Τραμπ ανακοίνωσε ότι απαγορεύει στις κυβερνητικές υπηρεσίες να χρησιμοποιούν περαιτέρω τα εργαλεία της αμερικανικής εταιρείας τεχνητής νοημοσύνης Anthropic.
Είχε προηγηθεί μια έντονη διαμάχη μεταξύ της εταιρείας και του αμερικανικού στρατού, αφού η Anthropic δεν δεχόταν να παραχωρήσει πλήρως τον έλεγχο και ήθελε να διασφαλίσει πως η AI δεν θα χρησιμοποιούνταν για αυτόνομες δολοφονικές επιχειρήσεις ή για δραστηριότητες που θα παραβίαζαν ηθικούς και νομικούς κανόνες. Με άλλα λόγια: η εταιρεία ήθελε μια ασφαλή, ελεγχόμενη χρήση της τεχνητής νοημοσύνης, ενώ το Πεντάγωνο ήθελε πλήρη επιχειρησιακή ελευθερία – και συμβιβασμός δεν βρέθηκε.
Παρ’ όλα αυτά, το γλωσσικό μοντέλο της Antropic, το Claude, έχει χρησιμοποιηθεί ενεργά στον πόλεμο κατά του Ιράν. Σύμφωνα μάλιστα με αμερικανικά Μέσα, ανάμεσά τους τόσο η «Wall Street Journal» όσο και η «Washington Post» μόνο μέσα στο πρώτο 24ωρο του πολέμου ο αμερικανικός στρατός αξιοποίησε το Claude ώστε να πλήξει περισσότερους από 1.000 στόχους.
Η απλή εξήγηση είναι πως η συμφωνία μεταξύ Anthropic και Πενταγώνου περιλάμβανε τη σταδιακή κατάργηση της χρήσης της τεχνολογίας σε βάθος εξαμήνου, ώστε ο στρατός να μπορέσει να αντικαταστήσει σταδιακά τα συστήματα με άλλα μοντέλα.
Αυτό σημαίνει ότι το Claude παραμένει ενεργό σε τρέχουσες επιχειρήσεις για όσο διάστημα δεν έχει ολοκληρωθεί η μετάβαση – και λόγω της βαθιάς ενσωμάτωσής του σε συστήματα όπως το Maven Smart System, μια πλατφόρμα που αναπτύχθηκε από την Palantir και χρησιμοποιείται από τον αμερικανικό στρατό για αναλύσεις πληροφοριών και σχεδιασμό επιχειρήσεων σε επίπεδο μάχης.
Μέσα από αυτό το σύστημα, η AI επεξεργάζεται τεράστιες ποσότητες δεδομένων – όπως δορυφορικές εικόνες, ηλεκτρονικές πληροφορίες, feeds παρακολούθησης και άλλα – ώστε να εντοπίζει, ιεραρχεί και αξιολογεί πιθανές θέσεις/στόχους σε πραγματικό χρόνο.
Σύμφωνα με τη «Washington Post», τον τελευταίο χρόνο οι στρατιωτικοί σχεδιαστές παρατήρησαν ότι το Claude, σε συνδυασμό με το Maven, εξελίχθηκε σε εργαλείο καθημερινής χρήσης σε πολλές μονάδες του στρατού.
Είχε ήδη χρησιμοποιηθεί για την αντιμετώπιση τρομοκρατικών σχεδίων καθώς και στην επιχείρηση σύλληψης του προέδρου της Βενεζουέλας Νικολάς Μαδούρο. Ωστόσο, αυτή είναι η πρώτη φορά που χρησιμοποιείται σε μεγάλες πολεμικές επιχειρήσεις. Καθώς ετοιμαζόταν η πιθανή επίθεση στο Ιράν, το Maven, με την υποστήριξη του Claude, πρότεινε εκατοντάδες στόχους, έδωσε ακριβείς συντεταγμένες και τους ιεράρχησε ανάλογα με τη σημασία τους.
Ο συνδυασμός Maven και Claude δημιούργησε ένα εργαλείο που επιταχύνει την εκστρατεία, περιορίζει την ικανότητα του Ιράν να αντεπιτεθεί και μετατρέπει εβδομάδες σχεδιασμού σε επιχειρήσεις σε πραγματικό χρόνο. Τα εργαλεία τεχνητής νοημοσύνης αξιολογούν επίσης μια επίθεση αφού αυτή ξεκινήσει.
Σύμφωνα πάντα με τις πληροφορίες, μόνο μέσα στις πρώτες 24 ώρες των επιχειρήσεων στο Ιράν το Claude συνέβαλε στον εντοπισμό και στην προτεραιοποίηση περισσότερων από 1.000 στόχων, μετατρέποντας πολύπλοκα δεδομένα σε προτάσεις που χρησιμοποιούνται για επιχειρησιακή λήψη αποφάσεων. Τι γίνεται όμως από πλευράς επίβλεψης; Δεν είναι καθησυχαστικό ότι ο αμερικανός υπουργός Αμυνας Πιτ Χέγκσεθ δήλωσε προ ημερών σε συνέντευξη Τύπου πως «δεν υπάρχουν ηλίθιοι κανόνες εμπλοκής» στον πόλεμο.
Η χρήση του Claude στο Ιράν αναδεικνύει γενικότερα το θέμα της διείσδυσης της τεχνητής νοημοσύνης σε κρίσιμες διαδικασίες λήψης αποφάσεων. «Μπορείς να παράγεις γρήγορα μακριές λίστες στόχων, πολύ πιο γρήγορα από ό,τι θα μπορούσαν οι άνθρωποι, αυτοματοποιώντας αυτή τη διαδικασία» δήλωσε στους «Japan Times» ο Πίτερ Ασάρο, αναπληρωτής καθηγητής Μελετών Μέσων στη The New School της Νέας Υόρκης και αντιπρόεδρος της εκστρατείας «Stop Killer Robots».
«Το ηθικό και νομικό ερώτημα είναι: Σε ποιον βαθμό οι άνθρωποι αυτοί εξετάζουν πραγματικά τους συγκεκριμένους στόχους που έχουν καταγραφεί, επαληθεύοντας τη νομιμότητα και τη στρατιωτική τους αξία πριν δώσουν την έγκριση;».
Πριν καλά καλά ανακοινωθεί η καταχώριση της Anthropic στη μαύρη λίστα της κυβέρνησης Τραμπ, ανακοίνωσε συμφωνία με το Πεντάγωνο η Open AI. Αμέσως μετά, η Κέιτλιν Καλινόφσκι, επικεφαλής του τομέα hardware/ρομποτικής σε αυτήν την τελευταία, υπέβαλε την παραίτησή της. Το αποχαιρετιστήριο μήνυμά της στο X είχε μέσα σε ένα 24ωρο περισσότερες από πέντε εκατομμύρια προβολές.
«Η τεχνητή νοημοσύνη έχει σημαντικό ρόλο στην εθνική ασφάλεια. Ομως η παρακολούθηση αμερικανών πολιτών χωρίς δικαστική εποπτεία και η θανατηφόρα αυτονομία χωρίς ανθρώπινη έγκριση είναι γραμμές που άξιζαν πολύ περισσότερη συζήτηση απ’ όση έγινε» έγραψε. «Αυτό ήταν ζήτημα αρχών, όχι ανθρώπων».






