από Giovanna Cracco
«Αυτό που είχαμε θέσει ως στόχο να κάνουμε δεν ήταν τίποτα λιγότερο από το να καταλάβουμε γιατί η ανθρωπότητα, αντί να εισέλθει σε μια πραγματικά ανθρώπινη κατάσταση, βυθίζεται σε ένα νέο είδος βαρβαρότητας». Διαλεκτική του Διαφωτισμού,
Max Horkheimer και Theodor W. Adorno
Σε ένα βίντεο που παρήγαγε το Future of Life (1) ένα σμήνος μίνι drones, στο μέγεθος της παλάμης ενός χεριού, βγαίνει από ένα φορτηγό και κατευθύνεται προς ένα πανεπιστήμιο. Μόλις φτάσει, διεισδύει μέσα από τους τοίχους χρησιμοποιώντας μικρά εκρηκτικά φορτία, κινείται μέσα μεταξύ των διαφορετικών τάξεων προκαλώντας πανικό στους μαθητές, αναγνωρίζει μερικούς από αυτούς και τους σκοτώνει, πυροδοτώντας 3 γραμμάρια εκρηκτικών λίγα εκατοστά από το μέτωπο. Η επιχείρηση δεν διοικείται εξ αποστάσεως από έναν ανθρώπινο χειριστή, ούτε όσον αφορά την πτήση, ούτε για την αναγνώριση του στόχου, ούτε για την εντολή «βολής»: τα drones είναι εντελώς αυτόνομα. Η τεχνητή νοημοσύνη που τους κινεί, ατομικά και συλλογικά σε ένα συντονισμένο σμήνος, χρησιμοποιεί ένα GPS για να φτάσει στο πανεπιστήμιο, αισθητήρες και κάμερες για να κινηθεί γύρω από τη δομή με βάση τον προφορτωμένο χάρτη του κτιρίου και ένα σύστημα αναγνώρισης προσώπου για τον εντοπισμό των φοιτητών-στόχων, των οποίων τα δεδομένα έχουν ληφθεί από τα κοινωνικά δίκτυα μέσω αλγορίθμων δημιουργίας προφίλ που παρακολουθούν τις αναρτήσεις. μου αρέσει, εικόνες κ.λπ. Τα drones ανήκουν στην κατηγορία των ρομπότ δολοφόνων ή θανατηφόρων αυτόνομων όπλων (LAW), των «θανατηφόρων αυτόνομων όπλων» και η φανταστική ταινία μικρού μήκους του Future of Life θέλει να καταγγείλει τον κίνδυνο της τεχνητής νοημοσύνης που εφαρμόζεται στον στρατιωτικό τομέα.
Το βίντεο είναι από τον Νοέμβριο του 2017. Πριν από επτά χρόνια φαινόταν σχεδόν επιστημονική φαντασία, σήμερα δείχνει μια επιχειρησιακή πραγματικότητα. Και αντί να λογοκρίνει την εφαρμογή της τεχνητής νοημοσύνης στα όπλα, ο ΟΗΕ συζητά πώς να τη ρυθμίσει. Σαν να μην υπήρχε εναλλακτική λύση. Σαν να αναπτύχθηκε κάποτε, μια τεχνολογία δεν θα μπορούσε να παραμείνει αχρησιμοποίητη. Λες και το ήθος και η επιστήμη ανήκουν σε ξεχωριστούς κόσμους και το πρώτο δεν μπορεί να λειτουργήσει ως οδηγός, κρίση και επιλογή του δεύτερου. Λες και ο σχεδιασμός της ατομικής βόμβας – και η χρήση της – δεν είχε διδάξει τίποτα. «Έχω γίνει ο Θάνατος, ο καταστροφέας των κόσμων».
Ουκρανία: το μοντέλο του Ισραήλ
Σύμφωνα με την autonomousweapons.org – η οποία προωθεί μια εκστρατεία ευαισθητοποίησης για την απαγόρευση του LAW – τα ρομπότ δολοφόνοι είναι εκείνα τα όπλα που μπορούν αυτόνομα, χωρίς ανθρώπινο έλεγχο, να κάνουν δύο λειτουργίες: να επιλέξουν και να χτυπήσουν έναν στόχο. Η βάση δεδομένων του οργανισμού αριθμεί δεκαεπτά (2) από αυτά: πέντε από τις Ηνωμένες Πολιτείες, πέντε από το Ισραήλ (συμπεριλαμβανομένου ενός σε συνεργασία με τη Γερμανία), δύο από τη Ρωσία, δύο από τη Νότια Κορέα, ένα από την Κίνα, ένα από την Τουρκία και τέλος ένα από την Ουκρανία. Η ύπαρξη του τελευταίου είναι σημαντική: καθιστά σαφές πόσο η χώρα έχει γίνει έδαφος και αγορά για την ανάπτυξη της τεχνητής νοημοσύνης που εφαρμόζεται στη βιομηχανία όπλων και, γενικά, στον πόλεμο.
"Η Ουκρανία είναι ένα ζωντανό εργαστήριο όπου ορισμένα από αυτά τα συστήματα με δυνατότητα AI μπορούν να φτάσουν στην ωριμότητα μέσω ζωντανών πειραμάτων και ταχείας και συνεχούς επανάληψης", δήλωσε στο Time (3) τον περασμένο Φεβρουάριο ο Jorrit Kaminga, διευθυντής παγκόσμιας πολιτικής στη RainDefense + AI, μια ερευνητική εταιρεία που ειδικεύεται στην αμυντική AI. Το πόσο η «ταχεία και συνεχής επανάληψη» σημαίνει πραγματικά τη δολοφονία ανθρώπων είναι ένα γεγονός που δεν επηρεάζει τον ενθουσιασμό του Kaminga. Ή ο Alex Karp της Palantir Technologies, ο πρώτος διευθύνων σύμβουλος ιδιωτικής εταιρείας που συναντήθηκε με τον Zelenskyj, μόλις τρεις μήνες μετά την έναρξη της σύγκρουσης: «Υπάρχουν πράγματα που μπορούμε να κάνουμε στο πεδίο της μάχης που δεν θα μπορούσαμε να κάνουμε σε ένα τεχνητό πλαίσιο», δηλώνει στο Time - όπως είναι γνωστό, η Palantir είναι μία από τις μεγαλύτερες εταιρείες ανάλυσης μεγάλων δεδομένων που δραστηριοποιούνται στους τομείς του στρατού και της ασφάλειας, εργολάβος του Πενταγώνου, της CIA και του Υπουργείου Εξωτερικών των ΗΠΑ, του οποίου ο ιδρυτής Peter Thiel δήλωσε στους New York Times, τον Αύγουστο του 2019, ότι η τεχνητή νοημοσύνη είναι πρωτίστως στρατιωτική τεχνολογία (4). Την Palantir ακολούθησαν, μεταξύ των γνωστών ονομάτων, η Microsoft, η Amazon, η Google, η Starlink και η Clearview AI, η εταιρεία γνωστή για το σύστημα αναγνώρισης προσώπου. Ο Mykhailo Fedorov, υπουργός Ψηφιακού Μετασχηματισμού της Ουκρανίας, είναι ο αρχιτέκτονας της συνέργειας: η Ουκρανία «είναι το καλύτερο πεδίο δοκιμών για όλες τις τελευταίες τεχνολογίες», λέει, «επειδή εδώ μπορείτε να τις δοκιμάσετε σε πραγματικές συνθήκες». Το Ισραήλ είναι το διακηρυγμένο μοντέλο: μια χώρα που όχι μόνο έχει γίνει κέντρο για την ανάπτυξη της ψηφιακής τεχνολογίας, αλλά η οποία χαρακτηρίζεται από τη δυνατότητα ταχείας δοκιμής των στρατιωτικών καινοτομιών της σε καταστάσεις σύγκρουσης, μεταξύ της Γάζας, της Δυτικής Όχθης και του Λιβάνου: ένα συν (!) που ωφελεί τις πωλήσεις. Ο στόχος του Fedorov είναι ο ίδιος: να οικοδομήσει έναν τεχνολογικό τομέα που μπορεί να βοηθήσει να κερδίσει τον πόλεμο και να γίνει ο πυρήνας της ουκρανικής οικονομίας. Οι επενδυτές της Silicon Valley, αναφέρει το Time, ξεκίνησαν το Blue and Yellow Heritage Fund για να επενδύσουν σε ουκρανικές νεοσύστατες επιχειρήσεις. Ο πρώην διευθύνων σύμβουλος της Google, Eric Schmidt, έχει επενδύσει περισσότερα από 10 εκατομμύρια δολάρια στο D3Dare για την υπεράσπιση της δημοκρατίας, έναν επιταχυντή των ουκρανικών στρατιωτικών νεοσύστατων επιχειρήσεων. Η Quantum Systems, μια γερμανική εταιρεία που ειδικεύεται στο σχεδιασμό και την παραγωγή drones, ανακοίνωσε ότι θα ανοίξει ένα κέντρο έρευνας και ανάπτυξης στο Κίεβο. Η Rakuten, μια ιαπωνική πολυεθνική εταιρεία τεχνολογίας, σχεδιάζει να ανοίξει γραφείο στο Κίεβο. Η Baykar, μια τουρκική εταιρεία που δραστηριοποιείται στον αμυντικό τομέα με την κατασκευή drones, έχει επενδύσει σχεδόν 100 εκατομμύρια δολάρια για την κατασκευή ενός κέντρου έρευνας και παραγωγής στην Ουκρανία έως το 2025. μικρές αμερικανικές και ευρωπαϊκές εταιρείες, πολλές από τις οποίες επικεντρώνονται σε αυτόνομα μη επανδρωμένα αεροσκάφη, έχουν δημιουργήσει κατάστημα στο Κίεβο. σε μικρή απόσταση από την πρωτεύουσα, γεννήθηκε το Unit City, ένα «πάρκο καινοτομίας» υψηλής τεχνολογίας, ενώ οι πολυσύχναστοι χώροι συνεργασίας του Κιέβου έχουν μετονομαστεί σε «Mil-Tech Valley». Μια συνέπεια, στο σύνολό της, που μπορεί να βοηθήσει να κατανοήσουμε γιατί πολλοί παράγοντες - κυρίως οι ΗΠΑ και η Ευρωπαϊκή Ένωση - επιμένουν να αντιτίθενται στις διαπραγματεύσεις για τον τερματισμό της σύγκρουσης και συνεχίζουν να εξοπλίζουν την Ουκρανία.
Big Tech, στρατιωτικό DNA
Αν ο πόλεμος ήταν πάντα, ιστορικά, κινητήρια δύναμη για την επιστημονική και τεχνική καινοτομία, σήμερα είναι τόσο συνδεδεμένος με τις ψηφιακές τεχνολογίες που θα πρέπει να αρχίσουμε να συμπεριλαμβάνουμε τον τομέα στον τομέα των εξοπλισμών. Η έκθεση SIPRI 2022 είχε ήδη αρχίσει να το επισημαίνει αυτό, σημειώνοντας παράλληλα τη δυσκολία εισαγωγής δεδομένων: αφενός, πολλές από τις υπηρεσίες και τις τεχνολογίες που πωλούνται από εταιρείες τεχνολογίας στον αμυντικό τομέα δεν ταξινομούνται ως «εξοπλισμοί», αφετέρου, ο σχετικός κύκλος εργασιών είναι πολύ μικρός για να εμφανιστεί τώρα στην κατάταξη των γιγάντων της βιομηχανίας όπλων.
Όταν το 2018 περισσότεροι από 4.000 εργαζόμενοι της Google υπέγραψαν μια αναφορά ζητώντας από την εταιρεία να μην ανανεώσει τη σύμβαση με το Πεντάγωνο σχετικά με το Project Maven, η διοίκηση αποφάσισε να τους ακολουθήσει και τον Μάρτιο του 2019 η εταιρεία αποχώρησε επίσημα από το πρόγραμμα. Το Maven ήταν ένα έργο τεχνητής νοημοσύνης και επεξεργασίας μεγάλων δεδομένων της Άμυνας των ΗΠΑ, στο πλαίσιο του οποίου η Google ανέπτυξε ένα λογισμικό για την αναγνώριση κινούμενων «στόχων» που προορίζονται για drones, το οποίο μπορεί να χρησιμοποιηθεί τόσο για εργασίες επιτήρησης όσο και για αυτόνομες επιθέσεις. Με την ευκαιρία αυτή, η εταιρεία ανακοίνωσε ότι δεν θα συμμετέχει πλέον σε στρατιωτικά έργα που σχετίζονται με τη χρήση της τεχνητής νοημοσύνης σε εξοπλισμούς. Η ιστορία κέρδισε απήχηση στα μέσα ενημέρωσης, ενοχλήθηκε με τη λέξη «ηθική» και αρκετές εταιρείες της Silicon Valley υιοθέτησαν την ίδια αφήγηση, δηλώνοντας ότι θα σταματήσουν να συνεργάζονται με ομοσπονδιακές υπηρεσίες και το Υπουργείο Άμυνας των ΗΠΑ. Τα μέσα μαζικής ενημέρωσης τιτλοφόρησαν εμφατικά το «διαζύγιο» μεταξύ της Big Tech και του στρατού. Αλλά δεν είχε υπάρξει διαζύγιο.
Μια έρευνα Tech Inquiry του Ιουλίου 2020 (5) αποκάλυψε ότι η Google, η Amazon, η Microsoft, το Facebook, η Apple, η Dell, η IBM, η HP, η Cisco, η Oracle, η NVIDIA και η Anduril είχαν συνάψει χιλιάδες συμφωνίες, αξίας εκατομμυρίων δολαρίων, με την Άμυνα, τη Μετανάστευση και την Τελωνειακή Επιβολή, το FBI, την Υπηρεσία Δίωξης Ναρκωτικών και το Ομοσπονδιακό Γραφείο Φυλακών. Ο Jack Poulson, ο οποίος υπέγραψε την έρευνα, ήταν πρώην ερευνητής της Google που είχε εγκαταλείψει την εταιρεία το 2018, σε αντίθεση με τις συνεργασίες με τον στρατό. Ο αναλυτής είχε κοσκινίσει περισσότερες από 30 εκατομμύρια κυβερνητικές συμβάσεις που υπογράφηκαν ή τροποποιήθηκαν μεταξύ Ιανουαρίου 2016 και Ιουνίου 2020 και η έρευνα είναι τόσο πλούσια σε δεδομένα και λεπτομέρειες που παραπέμπουμε σε πλήρη ανάγνωση.
Συνοπτικά, είναι καταρχάς σημαντικό ότι η δυσκολία εύρεσης των συμβάσεων οφείλεται στο γεγονός ότι οι περισσότερες από αυτές έχουν συναφθεί με άλλες εταιρείες, οι οποίες με τη σειρά τους αναθέτουν υπεργολαβικά το έργο στις μεγάλες εταιρείες της Silicon Valley: τα ονόματα των Big Techs, επομένως, δεν εμφανίζονται σε πρώτη αναζήτηση. Είχε ήδη συμβεί με το Project Maven: καμία από τις συμβάσεις δεν ανέφερε την Google και το 2018 η συνεργασία ανακαλύφθηκε μόνο χάρη στις αποκαλύψεις των υπαλλήλων της εταιρείας: η σύμβαση ήταν στο όνομα της ECS Federal, μιας εταιρείας που παρέχει τεχνολογικές υπηρεσίες στην Άμυνα και αρκετών ομοσπονδιακών υπηρεσιών, οι οποίες είχαν αναθέσει υπεργολαβικά το έργο στην Google. Επιπλέον, «οι συμβάσεις τείνουν να είναι συνοπτικές», δήλωσε ο Poulson σε συνέντευξή του στο NBC News (6), «συχνά η περιγραφή του έργου φαίνεται πολύ ασήμαντη και μόνο όταν κοιτάζετε τις λεπτομέρειες της σύμβασης, τις οποίες μπορείτε να λάβετε μόνο μέσω αιτημάτων του νόμου περί ελευθερίας της πληροφόρησης, βλέπετε πραγματικά τι είναι»: που κυμαίνονται από την αποθήκευση στο cloud έως τη διαχείριση βάσεων δεδομένων, για υποστήριξη εφαρμογών, εργαλεία διαχείρισης και αναλυτικά στοιχεία για logistics. Οι σύντομες περιγραφές δεν λένε περισσότερα.
Η Microsoft χρησιμοποιεί «ένα δίκτυο υπεργολάβων που οι περισσότεροι άνθρωποι δεν έχουν ακούσει ποτέ, ή τουλάχιστον δεν θα σκεφτόντουσαν να συμπεριλάβουν σε μια λίστα προμηθευτών στρατιωτικής τεχνολογίας, συμπεριλαμβανομένων γνωστών εταιρειών όπως η Dell αλλά και πολύ λιγότερο γνωστών εταιρειών όπως η CDW Corporation, η Insight Enterprises και η Minburn Technology Group», έγραψε ο Poulson στην έρευνα.
Η Amazon κινείται «σχεδόν εξ ολοκλήρου μέσω μεσαζόντων, όπως η Four Points Technology, η JHC Technology και η ECS Federal (η οποία ήταν επίσης ο κύριος ανάδοχος για τα συμβόλαια της Maven of Google)».
"Η Google συνεργάζεται με την ECS Federal και άλλες λιγότερο γνωστές εταιρείες όπως η Daston Corporation, η DLT Solutions, η Eyak Technology και η Dnutch Associates. Στις 16 Απριλίου [2020], η ECS Federal ανακοίνωσε μια νέα διευρυμένη συνεργασία με το Google Cloud για να συμπεριλάβει ενσωματώσεις με το Google Analytics και τους Χάρτες Google. Αργότερα τον ίδιο μήνα, η ECS Federal έλαβε ένα νέο συμβόλαιο 83 εκατομμυρίων δολαρίων για πρωτότυπες πλατφόρμες AI για τον στρατό.
«Η Silicon Valley ήταν πάντα στην επιχείρηση του πολέμου», δήλωσε στο NBC News η Margart O'Mara, καθηγήτρια στο Πανεπιστήμιο της Ουάσιγκτον και ιστορικός στον τομέα της βιομηχανίας τεχνολογίας: «Η ανάθεση και η υπεργολαβία είναι μια λογική που χρονολογείται από τις δεκαετίες του '50 και του '60: Lockheed Martin, πρώην Lockheed, μια εταιρεία για μεγάλο χρονικό διάστημα μεταξύ των μεγαλύτερων στρατιωτικών εργολάβων στη χώρα. ήταν ο μεγαλύτερος εργοδότης στη Silicon Valley μέχρι τη δεκαετία του 1980. Είτε το συνειδητοποιούν οι υπάλληλοί τους είτε όχι, οι σημερινοί τεχνολογικοί γίγαντες περιέχουν όλοι DNA αμυντικής βιομηχανίας» (7). Ο Yll Bajraktari, εκτελεστικός διευθυντής της Επιτροπής Εθνικής Ασφάλειας για την Τεχνητή Νοημοσύνη, υπενθυμίζει επίσης στους Financial Times ότι «η Silicon Valley έχει τις ρίζες της στο Υπουργείο Άμυνας και στην αεροδιαστημική και αμυντική βιομηχανία». Μεταξύ των τεχνολογιών για τις οποίες ο στρατός έχει συμβάλει είναι "ραντάρ, GPS και τεχνολογία stealth, η οποία εμφανίστηκε κατά τη διάρκεια του Ψυχρού Πολέμου, για να μην αναφέρουμε Arpanet, το δίκτυο που ιδρύθηκε στη δεκαετία του '70 και έγινε η βάση του Διαδικτύου [...] Καθώς το Διαδίκτυο έγινε μέρος της καθημερινής ζωής, η Silicon Valley μετατόπισε την εστίασή της σε καταναλωτικές και επιχειρηματικές εφαρμογές, αγορές που έγιναν πολύ μεγαλύτερες από τις παραγγελίες της κυβέρνησης των ΗΠΑ, αλλά κατά την τελευταία δεκαετία ο στρατός συνειδητοποίησε ότι έπρεπε να συνεργαστεί στενότερα με εταιρείες υψηλής τεχνολογίας για να είναι σε θέση να ανταγωνιστεί ανταγωνιστές όπως η Κίνα και η Ρωσία. Και έτσι «το 2015 το Υπουργείο Άμυνας δημιούργησε τη Μονάδα Αμυντικής Καινοτομίας, ένα φυλάκιο στη Silicon Valley που σχεδιάστηκε για να επιταχύνει την υιοθέτηση της τελευταίας τεχνολογίας από το Πεντάγωνο, επιδιώκοντας παράλληλα να εμβαθύνει τη συμμαχία στρατιωτικής-τεχνολογίας» (8).
Αυτή ήταν η κατάσταση πριν από τον πόλεμο στην Ουκρανία, η οποία σηματοδότησε ένα διάλειμμα όσον αφορά την αφήγηση: σήμερα η Big Tech, καθώς και όλες οι μικρότερες εταιρείες που ξεκίνησαν την ανάπτυξη της εφαρμογής της τεχνητής νοημοσύνης, δεν χρειάζεται πλέον να κρύβουν τη συνεργασία τους με τον στρατιωτικό τομέα, αλλά μπορούν να το καυχηθούν δυνατά, γιορτάζοντας τη συμβολή τους στην υπεράσπιση της φιλελεύθερης δημοκρατίας. Με έντονο βλέμμα στα οικονομικά αποτελέσματα, φυσικά. Το Blue and Yellow Heritage Fund που ξεκίνησε η Silicon Valley για να επενδύσει σε ουκρανικές νεοσύστατες επιχειρήσεις «δεν είναι φιλανθρωπικό ίδρυμα», επισημαίνει ο ιδρυτικός εταίρος John Frankel: «Είναι ο τρόπος μας να συνεισφέρουμε, αλλά και να επιτύχουμε αυτό που πιστεύουμε ότι θα είναι υψηλή απόδοση κεφαλαίου» (9). Εξακολουθούμε να ζούμε στον καπιταλισμό.
Επενδύοντας στο θάνατο
Μια μελέτη που δημοσιεύθηκε τον Μάιο του 2023 από την εταιρεία συμβούλων Exactitude Consultancy (10) φωτογραφίζει τις τάσεις και τις προβλέψεις της αγοράς AI στον στρατιωτικό τομέα για την περίοδο 2022-2029: από 6,3 δισεκατομμύρια δολάρια το 2020, ο τομέας θα αυξηθεί σε 19 δισεκατομμύρια δολάρια το 2029, αύξηση 13,1% σε σύγκριση με τα στοιχεία του 2022. Ο τομέας κυριαρχείται από τις BAE Systems, Northrop Grumman, RTX-Raytheon Technologies, Lockheed Martin, Thales, L3Harris Technologies, Rafael Advanced Defense Systems, IBM και Boeing. Μια επένδυση με σίγουρη απόδοση που δεν χάνει η χρηματοδότηση. Η BlackRock και η Vanguard, τα δύο μεγαλύτερα παγκόσμια αμοιβαία κεφάλαια, συγκαταλέγονται πράγματι μεταξύ των πρώτων ονομάτων στη μετοχική σύνθεση των διαφόρων εταιρειών (11). Στη συνέχεια, υπάρχουν εταιρείες που επικεντρώνονται στην ανάπτυξη τεχνητής νοημοσύνης που εφαρμόζεται σε εξοπλισμούς, όπως οι C3.ai., UiPath, Palo Alto Networks, KLA Corporation, Synopsys και Cadence Design Systems, που επίσης ανήκουν κυρίως στις BlackRock και Vanguard (12).
«Η τεχνητή νοημοσύνη βοηθά τους στρατιώτες στην πρώτη γραμμή να λύσουν προβλήματα που σχετίζονται με την ανθρώπινη φύση, υποστηρίζει τον στρατό και τονώνει την παγκόσμια οικονομία», τονίζει το στούντιο, φυσικά ενθουσιώδες για τη συγχώνευση μεταξύ τεχνητής νοημοσύνης και εξοπλισμών. Ωστόσο, ένα σύννεφο κινδυνεύει να σκοτεινιάσει τον ορίζοντα: «Όσον αφορά την πιθανότητα οι κυβερνητικές υπηρεσίες να ενδυναμώνουν τα «ρομπότ δολοφόνους» για να κερδίσουν τον ανταγωνισμό για τα όπλα τεχνητής νοημοσύνης, ανθρωπιστικές οργανώσεις όπως η Human Rights Watch ανησυχούν επίσης. Ορισμένοι υποστηρίζουν ότι ο ανθρώπινος έλεγχος των ρομπότ είναι απαραίτητος για τη διατήρηση της διαχείρισης και της ανθρωπιστικής προστασίας, όταν οι εθνικές αρχές εφαρμόζουν συστήματα ελεγχόμενα από την τεχνητή νοημοσύνη για διαδικασίες και αυτοματοποιημένη επιτήρηση. […]. Αυτά τα ζητήματα περιορίζουν την ανάπτυξη της αγοράς». Μακάρι να ήταν αλήθεια...
Η φαρισαϊκή υπεύθυνη χρήση
Ο ΟΗΕ συνεδριάζει ετησίως στη Γενεύη βάσει της Διεθνούς Συνθήκης για τον Αφοπλισμό, γνωστής ως Σύμβασης για τη Σύμβαση: Από το 2014, τα όπλα που χρησιμοποιούν τεχνητή νοημοσύνη βρίσκονται επίσης στο τραπέζι για συζήτηση. Η συζήτηση επικεντρώθηκε πάντα στο επίπεδο αυτονομίας στο τράβηγμα της σκανδάλης και δεν επιτεύχθηκε ποτέ συμφωνία. Την 1η Νοεμβρίου 2023, με το ψήφισμα L56 να ψηφίζεται με μεγάλη πλειοψηφία – 164 κράτη υπέρ, πέντε κατά (Ρωσία, Λευκορωσία, Ινδία, Μάλι, Νίγηρας) και οκτώ αποχές (Ισραήλ, Κίνα, Βόρεια Κορέα, Ιράν, Σαουδική Αραβία, Συρία, Τουρκία, Ηνωμένα Αραβικά Εμιράτα – η Πρώτη Επιτροπή της Γενικής Συνέλευσης των Ηνωμένων Εθνών ζήτησε ρητά να συζητηθούν θανατηφόρα αυτόνομα όπλα, ανοίγοντας μια διαδικασία που θα μπορούσε να οδηγήσει στη σύνταξη μιας διεθνούς συνθήκης που θα ρυθμίζει τη χρήση της. Στο επίκεντρο των φόβων του ΟΗΕ βρίσκονται «οι πιθανές αρνητικές συνέπειες και ο αντίκτυπος των αυτόνομων οπλικών συστημάτων στην παγκόσμια ασφάλεια και την περιφερειακή και διεθνή σταθερότητα, συμπεριλαμβανομένου του κινδύνου μιας αναδυόμενης κούρσας εξοπλισμών, η οποία μειώνει τα όρια των συγκρούσεων και της διάδοσης».
Το ψήφισμα αναφέρει ρητά, με θετική προοπτική, το REAIM 2023, δηλαδή τη διεθνή σύνοδο κορυφής που πραγματοποιήθηκε στη Χάγη τον Φεβρουάριο του 2023, που διοργανώθηκε από τις Κάτω Χώρες και τη Νότια Κορέα, και η οποία θα δει την έκδοση του 2024 τον προσεχή Σεπτέμβριο στη Σεούλ (13). Το ακρωνύμιο REAIM σημαίνει Responsible AI in the Military Domain. Αυτή είναι η «πρώτη παγκόσμια σύνοδος κορυφής για την υπεύθυνη τεχνητή νοημοσύνη στον στρατό», αναφέρει ο ιστότοπος της ολλανδικής κυβέρνησης (14). προσκεκλημένοι «2.000 συμμετέχοντες από 100 χώρες με 80 κυβερνητικούς εκπροσώπους», «καθώς και εκπρόσωποι ιδρυμάτων γνώσης, δεξαμενών σκέψης, βιομηχανίας και οργανώσεων της κοινωνίας των πολιτών»· ένα σφιχτό χρονοδιάγραμμα που είδε την αλληλεπίδραση εταιρειών (IBM και Palantir), πανεπιστημίων, κέντρων μελετών και ενώσεων (15), με «τέσσερις συνεδρίες υψηλού επιπέδου, περίπου τριάντα πέντε διαδραστικές συνεδρίες, είκοσι επιδείξεις τεχνητής νοημοσύνης, ένα ακαδημαϊκό φόρουμ, έναν κόμβο καινοτομίας και έναν φοιτητικό κόμβο». Πενήντα επτά συμμετέχοντα κράτη (16) υπέγραψαν το τελικό έγγραφο (17), το Call to Action. Ένα ενδιαφέρον κείμενο για να κατανοήσουμε την κατεύθυνση που θα μπορούσε να πάρει η διεθνής ρύθμιση του LAW.
Ο διακηρυγμένος στόχος δεν είναι να απαγορευτεί ή να τεθούν όρια στη χρήση της τεχνητής νοημοσύνης σε οπλικά συστήματα, αλλά να «προωθηθεί η υπεύθυνη χρήση της τεχνητής νοημοσύνης στον στρατό», ό,τι κι αν σημαίνει αυτό. Πολύ γενικά, αναφέρονται η «πιθανή αναξιοπιστία των συστημάτων τεχνητής νοημοσύνης, το ζήτημα της ανθρώπινης συμμετοχής, η έλλειψη σαφήνειας σχετικά με την ευθύνη και τις πιθανές ακούσιες συνέπειες και ο κίνδυνος ακούσιας κλιμάκωσης στο φάσμα των ενόπλων δυνάμεων». «επαναλαμβάνεται η σημασία της διασφάλισης επαρκών εγγυήσεων και ανθρώπινου ελέγχου επί της χρήσης συστημάτων τεχνητής νοημοσύνης, λαμβανομένων υπόψη των ανθρώπινων περιορισμών λόγω περιορισμών χρόνου και χωρητικότητας»· και αναγνωρίζεται ότι «το στρατιωτικό προσωπικό που χρησιμοποιεί τεχνητή νοημοσύνη θα πρέπει να κατανοεί επαρκώς τα χαρακτηριστικά των συστημάτων τεχνητής νοημοσύνης, τις πιθανές συνέπειες της χρήσης αυτών των συστημάτων, συμπεριλαμβανομένων των συνεπειών που προκύπτουν από τυχόν περιορισμούς, όπως πιθανές στρεβλώσεις στα δεδομένα, απαιτώντας έτσι έρευνα, εκπαίδευση και κατάρτιση σχετικά με τον τρόπο αλληλεπίδρασης με τον χρήστη και τη στήριξη σε συστήματα τεχνητής νοημοσύνης, ώστε να αποφεύγονται ανεπιθύμητες ενέργειες». Αυτό το τελευταίο σημείο, πάνω απ' όλα, είναι σαφώς μη ρεαλιστικό, εκτός εάν οι στρατιωτικοί μετατραπούν σε τεχνικούς υπολογιστών· Και ακόμα κι αν πετύχαιναν, το πρόβλημα θα παρέμενε.
Λύκοι, χάσκι και χιόνι
Είναι πλέον γνωστό ότι όταν μιλάμε για τεχνητή νοημοσύνη μιλάμε για μεγάλα δεδομένα, τόσο από την πλευρά της εκπαίδευσης όσο και από την πλευρά των αποτελεσμάτων. Ευρέως ήδη εφαρμοσμένη στη στρατιωτική σφαίρα είναι η ημιαυτόνομη τεχνητή νοημοσύνη, ικανή να επεξεργάζεται και να ερμηνεύει μεγάλους όγκους δεδομένων και, ως εκ τούτου, εισάγεται στη γραμμή διοίκησης μαζί με τον ανθρώπινο χειριστή με δεδηλωμένο στόχο τη λήψη αποφάσεων ταχύτερων, ακριβέστερων και πιο αποτελεσματικών. Εδώ, το λογισμικό χρησιμοποιεί επίγνωση της κατάστασης, έγκαιρη προειδοποίηση και ανάλυση υποστήριξης αποφάσεων (DSS), οι οποίες πραγματοποιούνται μέσω ανάλυσης μεγάλων δεδομένων, συγχώνευσης πληροφοριών), αναγνώριση συμβάντων/αλληλουχιών (αναγνώριση EVEn t/pat tern) και μη υπολογιστικές προσεγγίσεις που βοηθούν στη διαχείριση αβεβαιοτήτων, όπως απροσδόκητες επιθέσεις και άγνωστες απειλές. Είναι όλες αυτές οι τεχνικές πτυχές που πρέπει να γνωρίζει και να κατανοεί το στρατιωτικό προσωπικό, σύμφωνα με την πρόσκληση δράσης REAIM 2023. Μια πιθανότητα που έχει ήδη απορριφθεί από έρευνα που δημοσιεύθηκε το 2016.
Στη μελέτη "Why Should I Trust You?": Explained the Predictions of Any Classifier (18), τρεις ερευνητές από το Πανεπιστήμιο Cornell έφεραν ως παράδειγμα ένα τεχνητό σύστημα όρασης υπολογιστή ικανό να διακρίνει, χωρίς σφάλματα, τους λύκους από τα σκυλιά Husky: φαινομενικά τέλεια, «έξυπνα». Το πρόβλημα, όπως αποκαλύφθηκε αργότερα, είναι ότι το λογισμικό AI λειτούργησε απλά ανιχνεύοντας χιόνι στις εικόνες, καθώς οι περισσότερες από τις φωτογραφίες λύκων στις οποίες εκπαιδεύτηκε είχαν ληφθεί σε μια πιο άγρια, χιονισμένη περιοχή. Ως εκ τούτου, η ανάλυση ήγειρε δύο ζητήματα – σίγουρα δεν επιλύθηκαν τα επόμενα χρόνια, αν μη τι άλλο επιδεινώθηκαν, όπως φαίνεται από τα προβλήματα ψευδών πληροφοριών και χειραγώγησης που βρέθηκαν σε παραγωγικά μοντέλα μεγάλων γλωσσών τεχνητής νοημοσύνης, όπως το chatGPT (19).
Το πρώτο. Πώς μπορούμε να εμπιστευτούμε τα μοντέλα μηχανικής μάθησης, τα οποία είναι απαραίτητα για την ανάπτυξη της τεχνητής νοημοσύνης, όταν δεν είναι γνωστό σε ποια δεδομένα εργάζονται και πώς λειτουργούν; Επειδή τεχνικά είναι δυνατό να κατασκευαστεί ένα αυτόνομο όπλο του οποίου οι ενέργειες μπορούν να προβλεφθούν όταν αντιμετωπίζουν συνθήκες πανομοιότυπες με εκείνες στις οποίες έχει εκπαιδευτεί η τεχνητή νοημοσύνη, αλλά το πρόβλημα είναι ότι η πραγματικότητα δεν αναπαράγεται ποτέ η ίδια.
Το δεύτερο. Τα σημερινά συστήματα τεχνητής νοημοσύνης είναι τόσο προηγμένα που μπορούν να επεξεργαστούν εκατομμύρια παραμέτρους και αυτό τα καθιστά ακατανόητα για τον ανθρώπινο εγκέφαλο: τίποτα δεν είναι τόσο απλό όσο οι λύκοι, τα χάσκι και το χιόνι. Και ακόμα κι αν ένας στρατός μπορούσε να αναλύσει τα εισερχόμενα δεδομένα και τα αποτελέσματα που παράγονται, δεν θα μπορούσε ποτέ να καταλάβει τη διαδικασία που μετατρέπει τα πρώτα σε δεύτερα.
Επομένως, ενώ η διεθνής συζήτηση για τα θανατηφόρα αυτόνομα όπλα αρχίζει, ο «ανθρώπινος έλεγχος» είναι στην πραγματικότητα ήδη ανύπαρκτος στα ημιαυτόνομα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται ευρέως σήμερα – και διεθνώς αποδεκτά – δεδομένου ότι ο χειριστής δίνει την εντολή να «πυροβολήσει» με βάση πληροφορίες που λαμβάνονται από λογισμικό τεχνητής νοημοσύνης του οποίου την εκπαίδευση, τη διαδικασία επεξεργασίας δεδομένων και τη λειτουργία δεν γνωρίζει, ούτε θα μπορέσει ποτέ να κατανοήσει.
Το δεύτερο κατώφλι μετάλλαξης
Στο Conviviality, ο Ivan Illich στοχάζεται πάνω στην τεχνολογία, τα εργαλεία και την καπιταλιστική βιομηχανική κοινωνία που είναι αφιερωμένη στην άπειρη «πρόοδο» – που μεταφράζεται σε μαζική παραγωγή και κατανάλωση – και προσδιορίζει «δύο όρια μετάλλαξης»: «Πρώτον, η νέα γνώση εφαρμόζεται στη λύση ενός σαφώς καθορισμένου προβλήματος και η αύξηση της αποτελεσματικότητας που επιτυγχάνεται μετράται με επιστημονικά κριτήρια. Αλλά, σε μια δεύτερη φάση, η πρόοδος που επιτυγχάνεται γίνεται ένα μέσο εκμετάλλευσης ολόκληρου του κοινωνικού σώματος, θέτοντάς το στην υπηρεσία των αξιών που μια εξειδικευμένη ελίτ, ο μόνος εγγυητής της δικής της αξίας, καθιερώνει και αναθεωρεί χωρίς ανάπαυλα». Είναι σε αυτό το σημείο που «μια ανθρώπινη δραστηριότητα που πραγματοποιείται μέσω εργαλείων υπερβαίνει ένα ορισμένο όριο που ορίζεται από τη συγκεκριμένη κλίμακα της» και, όταν συμβαίνει, αυτή η δραστηριότητα «στρέφεται πρώτα ενάντια στον σκοπό της, στη συνέχεια απειλεί να καταστρέψει ολόκληρο το κοινωνικό σώμα». Ο Illich δίνει μερικά παραδείγματα – υγεία, μεταφορές, εκπαίδευση ... – σήμερα η ανάλυση μπορεί επίσης να εφαρμοστεί στον τομέα των νέων τεχνολογιών και της τεχνητής νοημοσύνης. «Η δύναμη του οργάνου πρέπει να είναι περιορισμένη», έγραψε ο Illich το 1972, και εδώ το ερώτημα γίνεται διπλό: όχι μόνο πού έχει τεθεί το όριο, αλλά ποιος πρέπει να το θέσει.
Σε μια κοινωνία που ανταποκρίνεται στις καπιταλιστικές λογικές, η τεχνητή νοημοσύνη και η ανάπτυξή της γίνονται εμπόρευμα: σε συστημικό επίπεδο, επομένως, το πού τίθεται το όριο είναι ένα ερώτημα που δεν τίθεται καν, εκτός από τις φαρισαϊκές δηλώσεις υπεύθυνης χρήσης. Από chatbots μέχρι εξοπλισμούς, η εφαρμογή του είναι ήδη χωρίς σύνορα και παράγει, όπως κάθε εργαλείο που διασχίζει το δεύτερο κατώφλι, «ρυθμιζόμενη ομοιομορφία, εξάρτηση, καταπίεση και ανικανότητα».
Ποιος πρέπει να θέσει το όριο; Πολιτικοί, τεχνικοί, μελετητές, ακόμη και εκπρόσωποι εταιρειών που αναπτύσσουν τεχνητή νοημοσύνη, το συζητούν σε διεθνή φόρουμ. Είναι ένα εξειδικευμένο θέμα, λένε, το φροντίζουμε, δεν είναι προσιτό στους απλούς πολίτες. «Τρεφόμενη από τον μύθο της επιστήμης, η κοινωνία εγκαταλείπει στους ειδικούς ακόμη και τη φροντίδα να θέσουν τα όρια της ανάπτυξης», γράφει ο Illich. «Μια τέτοια εκχώρηση εξουσίας καταστρέφει ολόκληρη την πολιτική λειτουργία. Ο λόγος, ως μέτρο όλων των πραγμάτων, αντικαθιστά την υπακοή σε ένα μύθο». Αλλά, πάνω απ 'όλα, «ο εμπειρογνώμονας δεν εκπροσωπεί τον πολίτη. Είναι μέρος μιας ελίτ της οποίας η εξουσία βασίζεται στην αποκλειστική κατοχή μη μεταδοτικής γνώσης. Ωστόσο, αυτή η γνώση, στην πραγματικότητα, δεν του δίνει καμία ιδιαίτερη ικανότητα να καθορίζει τα όρια της ισορροπίας της ζωής. Ο εμπειρογνώμονας δεν θα μπορέσει ποτέ να πει πού βρίσκεται το κατώφλι της ανθρώπινης ανοχής: είναι το άτομο που το καθορίζει, στην κοινότητα. και αυτό το δικαίωμά του είναι αναφαίρετο». Είμαστε εμείς οι πολίτες, ως κοινότητα, που πρέπει να αποφασίσουμε τα εργαλεία που θα χρησιμοποιηθούν και τα όριά τους, και να κατανοήσουμε, σύμφωνα με τα λόγια του Illich, ότι «ένα ανεξέλεγκτο εργαλείο αντιπροσωπεύει μια μη βιώσιμη απειλή». Δεν είναι μόνο ένα εργαλείο που μας κυριαρχεί, επειδή δεν το κατέχουμε – ως άνθρωποι, δεν θα μπορέσουμε ποτέ να γνωρίσουμε και να κατανοήσουμε την εκπαίδευση, τη διαδικασία επεξεργασίας δεδομένων και τη λειτουργία των αλγορίθμων τεχνητής νοημοσύνης – είναι ένα εργαλείο που μας διαμορφώνει μέσω της δομής του, όπως αντικατοπτρίζει επίσης ο Renato Curcio στο τελευταίο του βιβλίο, αναλύοντας την έννοια της «υπερβολικής συνεπαγωγής» (20). «Μέσω αυτού», γράφει ο Illich, «είναι ένας άλλος διαφορετικός από εμένα που καθορίζει το αίτημά μου, περιορίζει το περιθώριο ελέγχου μου και κυβερνά το νόημα της ζωής μου»: ένας άλλος που δεν ταυτίζεται μόνο με τις εταιρείες τεχνολογίας και όπλων, αλλά, σε μια ευρύτερη άποψη, με την ίδια την καπιταλιστική λογική. που δεν δίστασε ποτέ να εκτιμήσει ακόμη και τον θάνατο. Αυτό είναι το μέλλον που θέλουμε;
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου