Ο Τραμπ και ο πόλεμος με AI: Πώς την χρησιμοποίησε ο Λευκός Οίκος σε Ιράν και Βενεζουέλα – Η νέα επικίνδυνη εποχή των στρατιωτικών επιχειρήσεων

Η Τεχνητή Νοημοσύνη έχει ήδη αλλάξει την καθημερινότητα εκατομμυρίων ανθρώπων, από απλές εργασίες μέχρι την οργάνωση δεδομένων και την ανάλυση πληροφοριών. Ωστόσο, ένα από τα πιο ανησυχητικά πεδία όπου αρχίζει να χρησιμοποιείται όλο και περισσότερο είναι ο πόλεμος. Τα τελευταία γεγονότα δείχνουν ότι η Τεχνητή Νοημοσύνη δεν αποτελεί πλέον απλώς εργαλείο παραγωγικότητας, αλλά μπαίνει και στον πυρήνα στρατιωτικών επιχειρήσεων.

Αυτό για το οποίο γράφονται πολύ λιγότερα, και για το οποίο πρέπει πλέον να μιλήσουμε πιο δυνατά, είναι οι κίνδυνοι που ενέχει η στρατιωτικοποίηση της Τεχνητής Νοημοσύνης. Τους τελευταίους τρεις μήνες, ο Λευκός Οίκος του Ντόναλντ Τραμπ φέρεται να χρησιμοποίησε Τεχνητή Νοημοσύνη δύο φορές για να επιφέρει αλλαγή καθεστώτος ή – στην πιο πρόσφατη περίπτωση στο Ιράν – για να φτάσει όσο το δυνατόν πιο κοντά σε αυτό, αφήνοντας στη συνέχεια τους ίδιους τους Ιρανούς πολίτες να ολοκληρώσουν τη διαδικασία.

Χρήση AI σε στρατιωτικές επιχειρήσεις

Αρχικά, το μοντέλο Τεχνητής Νοημοσύνης Claude της εταιρείας Anthropic – το οποίο οι περισσότεροι χρησιμοποιούν ως μια πιο «απαιτητική» εναλλακτική του ChatGPT – φέρεται να χρησιμοποιήθηκε τόσο στον σχεδιασμό όσο και στην εκτέλεση της επιχείρησης απαγωγής του Νικολάς Μαδούρο από το συγκρότημά του στη Βενεζουέλα, αν και δεν είναι σαφές με ποιον ακριβώς τρόπο αξιοποιήθηκε το μοντέλο.

Στη συνέχεια, αυτό το Σαββατοκύριακο, έγινε γνωστό ότι το ίδιο εργαλείο Τεχνητής Νοημοσύνης χρησιμοποιήθηκε ξανά για την επεξεργασία πληροφοριών που βοήθησαν στη μεγάλη πυραυλική επίθεση που εξαπολύθηκε κατά του Ιράν, προφανώς για τον εντοπισμό στόχων και την εκτέλεση προσομοιώσεων.

Είναι δύσκολο να υπερεκτιμήσει κανείς πόσο σημαντικές είναι αυτές οι δύο στιγμές. Η Τεχνητή Νοημοσύνη χρησιμοποιήθηκε στον σχεδιασμό και την εκτέλεση στρατιωτικών επιχειρήσεων που προκάλεσαν άγνωστο αριθμό θυμάτων και κλόνισαν τη Μέση Ανατολή.

Αντιδράσεις και αντιπαραθέσεις

Αν αυτό προκαλεί ανησυχία, δεν είσαι ο μόνος. Ο διευθύνων σύμβουλος της Anthropic, Ντάριο Αμοντέι, έχει εμπλακεί σε μια έντονη δημόσια αντιπαράθεση με τον Αμερικανό Πρόεδρο, αφού αρνήθηκε να χαλαρώσει δύο «κόκκινες γραμμές» για το μοντέλο Claude: να μην χρησιμοποιείται για μαζική εσωτερική παρακολούθηση και να μην αξιοποιείται για την κατασκευή πλήρως αυτόνομων όπλων που επιλέγουν και πλήττουν στόχους χωρίς ουσιαστικό ανθρώπινο έλεγχο.

Η OpenAI έσπευσε στη συνέχεια να υπογράψει συμφωνία με το Πεντάγωνο, αν και υποστηρίζει ότι οι όροι της συμφωνίας αυτής παρέχουν ακόμη ισχυρότερες προστασίες από εκείνες που ζητούσε η Anthropic.

Ανεξάρτητα από τις επιμέρους ρήτρες των συμβολαίων, αξίζει να επαναληφθεί το εξής: ένα εργαλείο που ξεκίνησε τη δημόσια παρουσία του ως μια φιλική διεπαφή για τη σύνοψη email και τη συγγραφή συνοδευτικών επιστολών βρίσκεται πλέον κάπου στην αλυσίδα που μετατρέπει την πληροφορία σε βία.

Ο Ντάριο Αμοντέι, διευθύνων σύμβουλος της Anthropic, μιλά στο Νταβός τον Ιανουάριο. Φωτογραφία: Denis Balibouse / Reuters.
Ο Ντάριο Αμοντέι, διευθύνων σύμβουλος της Anthropic, μιλά στο Νταβός τον Ιανουάριο. Φωτογραφία: Denis Balibouse / Reuters.

Ένα ιστορικό σημείο καμπής

Μέχρι πρόσφατα, ερωτήματα όπως «ποιος πρέπει να ελέγχει την Τεχνητή Νοημοσύνη» και «τι θα συμβεί αν χρησιμοποιηθεί στρατιωτικά» συζητούνταν κυρίως σε ακαδημαϊκά πάνελ και θεωρητικές συζητήσεις. Υπήρχαν ανησυχίες, αλλά έμοιαζαν μακρινές επειδή δεν είχαν ακόμη υλοποιηθεί.

Όταν όμως ο Μαδούρο συνελήφθη από ειδικές δυνάμεις τον Ιανουάριο και όταν οι βόμβες άρχισαν να πέφτουν στο Ιράν – προφανώς με τη βοήθεια Τεχνητής Νοημοσύνης – αυτή η εξίσωση άλλαξε.

Οι βασικές αρχές των ένοπλων συγκρούσεων ήταν ότι τα μεγάλα και τρομακτικά όπλα υπάρχουν αλλά δεν χρησιμοποιούνται. Λειτουργούν ως αποτροπή. Η θεωρία της αμοιβαίας εξασφαλισμένης καταστροφής σήμαινε ότι κανείς δεν τολμούσε να πατήσει το κουμπί των πυρηνικών.

Ανησυχητικά, τα πρώτα στοιχεία από προσομοιώσεις πολεμικών σεναρίων δείχνουν ότι οι αποφάσεις που λαμβάνονται από συστήματα Τεχνητής Νοημοσύνης είναι πιο πρόθυμες να χρησιμοποιήσουν πυρηνικά όπλα.

Ένας κόσμος πιο επικίνδυνος

Πλέον αυτή η δικαιολογία δεν υπάρχει. Περισσότερες χώρες θα χρησιμοποιήσουν την Τεχνητή Νοημοσύνη στον στρατιωτικό σχεδιασμό και στις επιχειρήσεις τους – και σε έναν βαθμό δικαιολογημένα, αφού έχει αποδειχθεί αποτελεσματική. Ωστόσο εγείρονται σοβαρά ηθικά ζητήματα όταν η Τεχνητή Νοημοσύνη συμμετέχει στη λήψη στρατιωτικών αποφάσεων.

Όταν οι στρατιωτικοί ιστορικοί κοιτάξουν πίσω στα γεγονότα των τελευταίων μηνών, είναι εύκολο να φανταστεί κανείς ότι θα τα συγκρίνουν με τη ρίψη των πυρηνικών όπλων στην Ιαπωνία: μια στιγμή που χωρίζει καθαρά το «πριν» από ένα αβέβαιο «μετά».

Τι μπορεί να γίνει τώρα

Τι μπορούμε να κάνουμε για αυτό; Πολύ λίγα. Θα έπρεπε να είχε υπάρξει μια καθολική απαγόρευση της στρατιωτικής χρήσης της Τεχνητής Νοημοσύνης. Ωστόσο εδώ και περισσότερο από μια δεκαετία απομακρυνόμαστε σταδιακά από αυτή την ιδέα.

Όταν ο Ντέμις Χασάμπις δήλωσε ότι θα πουλούσε την εταιρεία του DeepMind στη Google μόνο εάν η τεχνολογία δεν χρησιμοποιούνταν στρατιωτικά, θεωρήθηκε μια ισχυρή ηθική στάση. Πέρυσι όμως η εταιρεία, που πλέον ανήκει στην Alphabet, εγκατέλειψε σιωπηρά τη δέσμευση ότι δεν θα χρησιμοποιεί την Τεχνητή Νοημοσύνη για όπλα. Και οι ενέργειες του Τραμπ κατέρριψαν ακόμη πιο δυνατά αυτή την ιδέα.

Η ανάγκη διεθνούς ελέγχου

Η διεθνής κοινότητα πρέπει τώρα να προσπαθήσει να αποτρέψει μια επικίνδυνη κλιμάκωση. Οι σύμμαχοι των ΗΠΑ οφείλουν να πιέσουν τον Λευκό Οίκο του Τραμπ όχι μόνο να χρησιμοποιεί υπεύθυνα την Τεχνητή Νοημοσύνη σε στρατιωτικό επίπεδο, αλλά και να αποδεχθεί δεσμευτικούς περιορισμούς.

Αυτό θα πρέπει να περιλαμβάνει διεθνείς συμφωνίες, διαφανή πρότυπα προμηθειών και ουσιαστικούς μηχανισμούς εποπτείας, στους οποίους θα συμμετέχουν και άλλες χώρες, αντί να αντιμετωπίζεται η ηθική ως εμπόδιο στη δράση.

Γιατί αν ο ισχυρότερος στρατός στον κόσμο κανονικοποιήσει τη χρήση εμπορικών μοντέλων Τεχνητής Νοημοσύνης σε επιχειρήσεις αλλαγής καθεστώτων, τότε θα έχουμε περάσει σε μια εντελώς νέα πραγματικότητα για την Τεχνητή Νοημοσύνη – έναν πολύ πιο επικίνδυνο κόσμο.

Πηγή: The Guardian

Μοιράσου το:

σχολίασε κι εσύ

ENIKOS NETWORK