breaking newsΔιεθνή

Η Τεχνητή Νοημοσύνη αλλάζει τον σύγχρονο πόλεμο – Από την “αλυσίδα εξόντωσης” στα σκοτεινά όρια της λογοδοσίας

Επιμέλεια: Γιάννης Πεγειώτης

Η Τεχνητή Νοημοσύνη δεν βρίσκεται πια στο περιθώριο των πολεμικών επιχειρήσεων. Έχει περάσει στον πυρήνα τους. Αυτό είναι το βασικό συμπέρασμα της ανάλυσης του France 24, η οποία φωτίζει πώς τα νέα συστήματα AI, τα μεγάλα γλωσσικά μοντέλα και οι πλατφόρμες ανάλυσης δεδομένων μετασχηματίζουν τη σύγχρονη στρατιωτική δράση, συμπιέζοντας τον χρόνο από την επιτήρηση μέχρι το πλήγμα και μετατρέποντας την παραδοσιακή διαδικασία στόχευσης σε ένα όλο και πιο αυτοματοποιημένο σύστημα πολέμου. Η δημόσια εικόνα παραμένει αποσπασματική, όμως είναι πλέον σαφές ότι η χρήση της AI στις επιχειρήσεις των ΗΠΑ και των συμμάχων τους έχει ξεφύγει από το πειραματικό στάδιο και έχει εισέλθει σε φάση εντατικής επιχειρησιακής αξιοποίησης.

Σύμφωνα με όσα περιγράφονται στο ρεπορτάζ, η Τεχνητή Νοημοσύνη χρησιμοποιείται κυρίως για τη λεγόμενη “kill chain”, δηλαδή την ακολουθία ενεργειών από τον εντοπισμό και τη συλλογή πληροφοριών έως την επιλογή στόχου και την εκτέλεση πλήγματος. Η Χέιντι Κλαάφ του AI Now Institute έχει προειδοποιήσει δημοσίως ότι τέτοια συστήματα δεν λειτουργούν απλώς ως ουδέτερα βοηθήματα, αλλά επιταχύνουν δραστικά τη διαδικασία λήψης φονικών αποφάσεων, μειώνοντας τον χρόνο και το ανθρώπινο προσωπικό που απαιτείται. Το Reuters έχει επίσης αναφέρει ότι το Maven της Palantir αποτελεί ήδη τον βασικό AI κορμό διοίκησης και ελέγχου του αμερικανικού στρατού, αναλύοντας δεδομένα πεδίου μάχης και ταυτοποιώντας στόχους.

Το πιο ανησυχητικό στοιχείο είναι πως αυτή η επιτάχυνση πωλείται ως πλεονέκτημα. Ό,τι χθες απαιτούσε ώρες ή ημέρες, σήμερα μπορεί να γίνεται σε δευτερόλεπτα. Στρατιωτικά, αυτό παρουσιάζεται ως επανάσταση αποτελεσματικότητας. Πολιτικά και ηθικά όμως, ανοίγει μια ζώνη βαθιάς αδιαφάνειας. Η Κλαάφ επισημαίνει ότι στα λεγόμενα «συστήματα υποστήριξης αποφάσεων» η ανθρώπινη εποπτεία συχνά καταντά επιφανειακή, επειδή οι χειριστές τείνουν να εμπιστεύονται τις εισηγήσεις των αυτοματοποιημένων συστημάτων. Με απλά λόγια, ο άνθρωπος κινδυνεύει να μένει τυπικά “μέσα στον βρόχο”, αλλά στην πράξη να λειτουργεί ως σφραγίδα ενός αλγοριθμικού μηχανισμού.

Το France 24 συνδέει αυτή την τάση και με τη σφοδρή διαμάχη ανάμεσα στο Πεντάγωνο και την Anthropic. Το Reuters έχει καταγράψει ότι η αμερικανική εταιρεία ήρθε σε ρήξη με το Υπουργείο Άμυνας όταν αρνήθηκε να χαλαρώσει περιορισμούς που αφορούσαν τη χρήση των μοντέλων της σε μαζική εγχώρια επιτήρηση και σε πλήρως αυτόνομα όπλα. Ακολούθησε η απόπειρα του Πενταγώνου να τη χαρακτηρίσει «κίνδυνο για την εθνική ασφάλεια στην εφοδιαστική αλυσίδα», κίνηση που προσωρινά μπλοκαρίστηκε από ομοσπονδιακό δικαστήριο. Παράλληλα, το Reuters ανέφερε ότι η Anthropic είχε συνάψει το 2025 αμυντικό συμβόλαιο 200 εκατ. δολαρίων και ότι το Claude είχε γίνει το πρώτο AI μοντέλο εγκεκριμένο για χρήση σε απόρρητα στρατιωτικά δίκτυα.

Αυτή η σύγκρουση φανερώνει το πραγματικό διακύβευμα: ποιος βάζει τα όρια στη στρατιωτική χρήση της AI. Διότι το πρόβλημα δεν είναι μόνο ότι τα νέα εργαλεία υπάρχουν, αλλά ότι οι στρατοί θέλουν όλο και λιγότερους φραγμούς στη χρήση τους. Η υπόθεση Anthropic έδειξε πως μέσα στην αμερικανική μηχανή ασφαλείας υπάρχει πίεση για ευρύτερη, πιο επιθετική και λιγότερο δεσμευμένη αξιοποίηση αυτών των μοντέλων. Και όταν μια εταιρεία αντιστέκεται, ακολουθεί ανοιχτή θεσμική σύγκρουση.

Το άλλο μεγάλο ζήτημα είναι η ακρίβεια. Στο ρεπορτάζ του France 24 παρατίθενται ιδιαίτερα χαμηλές εκτιμήσεις αξιοπιστίας για ορισμένα μοντέλα και συστήματα στόχευσης. Η ανησυχία δεν είναι θεωρητική. Ήδη από το 2024, έρευνες για τα ισραηλινά συστήματα Lavender και Gospel/Habsora στη Γάζα είχαν περιγράψει χρήση AI για μαζική παραγωγή στόχων, με πηγές των υπηρεσιών πληροφοριών να μιλούν για ένα είδος «εργοστασίου μαζικών δολοφονιών», όπου ακόμη και οικίες χτυπιούνταν χωρίς σαφή επιβεβαίωση παρουσίας μαχητών. Η σχετική συζήτηση δεν αφορά λοιπόν ένα μακρινό μέλλον, αλλά ήδη καταγεγραμμένες πρακτικές πολέμου.

Εδώ ακριβώς βρίσκεται και το πιο βαρύ ερώτημα! Τί συμβαίνει όταν ένα «μαύρο κουτί» δίνει τη σύσταση και ένας άνθρωπος απλώς την επικυρώνει; Η Κλαάφ και άλλοι αναλυτές προειδοποιούν ότι όταν τα μοντέλα εκπαιδεύονται πάνω σε τεράστια, αδιαφανή σύνολα δεδομένων, είναι εξαιρετικά δύσκολο να εντοπιστεί από πού προκύπτει ένα σφάλμα ή μια παραμόρφωση. Αυτή η αδιαφάνεια δεν απειλεί μόνο τους στοχοποιημένους αμάχους· απειλεί και την ίδια την εθνική ασφάλεια των χωρών που χρησιμοποιούν τέτοια συστήματα, επειδή τα μεγάλα γλωσσικά μοντέλα είναι ευάλωτα σε ψευδή δεδομένα, backdoors και δηλητηρίαση του πληροφοριακού τους περιβάλλοντος.

Το πρόβλημα γίνεται ακόμη πιο σκοτεινό όταν αγγίζει την πυρηνική διάσταση. Μελέτη του King’s College London, με επικεφαλής τον Κένεθ Πέιν, έδειξε ότι σε 21 προσομοιωμένα σενάρια πυρηνικής κρίσης, κορυφαία μοντέλα AI κατέφυγαν σχεδόν καθολικά σε τακτική πυρηνική χρήση ή σε στρατηγικές πυρηνικές απειλές. Το πανεπιστήμιο συνόψισε τα αποτελέσματα λέγοντας ότι το 95% των αναμετρήσεων περιλάμβανε τακτική πυρηνική κλιμάκωση και το 76% έφτανε σε στρατηγικές πυρηνικές απειλές. Αυτό δεν σημαίνει ότι η AI θα πατήσει αύριο το κουμπί. Σημαίνει όμως ότι όταν μπαίνει σε περιβάλλοντα στρατηγικής αντιπαράθεσης, δεν εμφανίζει έμφυτη αυτοσυγκράτηση ούτε ηθικό φρένο.

Το βασικό συμπέρασμα του ρεπορτάζ είναι σκληρό: η AI παρουσιάζεται ως τεχνολογία ακρίβειας, αλλά στην πράξη μπορεί να γίνει τεχνολογία επιτάχυνσης της βίας. Επιταχύνει την παρακολούθηση, την επιλογή, την ιεράρχηση και τελικά την εξόντωση στόχων, ενώ ταυτόχρονα θολώνει τη λογοδοσία. Όταν δεν μπορείς να ξέρεις με καθαρότητα αν μια απόφαση ελήφθη από άνθρωπο, από μοντέλο ή από τη σύντηξη των δύο, τότε και η πολιτική ευθύνη και η νομική ευθύνη γίνονται πιο ολισθηρές. Και αυτό είναι ίσως το πιο επικίνδυνο σημείο: όχι απλώς ότι η μηχανή μπορεί να σκοτώσει πιο γρήγορα, αλλά ότι μπορεί να το κάνει μέσα σε ένα περιβάλλον όπου κανείς δεν θα αναλαμβάνει πλήρως την ευθύνη.

 

Back to top button