ΕΥΔΑΙΜΟΝ ΤΟ ΕΛΕΥΘΕΡΟΝ,ΤΟ Δ ΕΛΕΥΘΕΡΟΝ ΤΟ ΕΥΨΥΧΟΝ ΚΡΙΝΟΜΕΝ...…

[Το μπλόγκ δημιουργήθηκε εξ αρχής,γιά να εξυπηρετεί,την ελεύθερη διακίνηση ιδεών και την ελευθερία του λόγου...υπό το κράτος αυτού επιλέγω με σεβασμό για τους αναγνώστες μου ,άρθρα που καλύπτουν κάθε διάθεση και τομέα έρευνας...άρθρα που κυκλοφορούν ελεύθερα στο διαδίκτυο κι αντιπροσωπεύουν κάθε άποψη και με τά οποία δεν συμφωνώ απαραίτητα.....Τά σχόλια είναι ελεύθερα...διαγράφονται μόνο τά υβριστικά και οσα υπερβαίνουν τά όρια κοσμιότητας και σεβασμού..Η ευθύνη των σχολίων (αστική και ποινική) βαρύνει τους σχολιαστές..]




Τρίτη 19 Δεκεμβρίου 2023

Τεχνητή νοημοσύνη και πόλεμος: Το μεγάλο στοίχημα του αμερικανικού Πενταγώνου

 



Πώς η ενσωμάτωση της τεχνητής νοημοσύνης στην άμυνα των ΗΠΑ εγείρει νέα πρακτικά και ηθικά ζητήματα

ΕπιμέλειαΜαργαρίτα Βεργολιά

Στη συνάντηση στο παλιό αρχοντικό στο Νο4 της οδού Χάμιλτον Πλέις, έδρα της Βασιλικής Αεροναυτικής Εταιρείας στο Λονδίνο, οι παριστάμενοι έμειναν με το στόμα ανοιχτό ακούγοντας την ιστορία που είχε να τους πει ο Αμερικανός αντισμήναρχος Τάκερ Χάμιλτον για την ραγδαία εξέλιξη της τεχνητής νοημοσύνης (ΑΙ).

Περιέγραψε μια δυστοπική προσομοίωση, στην οποία ένα μη επανδρωμένο αεροσκάφος με ΑΙ είχε εντολή να αναγνωρίσει και να εξαλείψει θέσεις εχθρικής αεράμυνας.

Όταν ο χειριστής του άρχισε να παρεμβαίνει σε αυτόν τον στόχο, ανέφερε, το drone κατέστρεψε το σύστημα επικοινωνιών και τον σκότωσε, προκειμένου να μπορέσει να φέρει σε πέρας την αποστολή του.

Το ακροατήριό του -αξιωματούχοι, ακαδημαϊκοί και εργολάβοι στον αμυντικό τομέα- όχι μόνο πίστεψε τον αντισμήναρχο Χάμιλτον, αλλά η ιστορία έκανε τον περασμένο Μάιο τον γύρο όλου του του κόσμου.

Σε μια εποχή αυξανόμενης δημόσιας ανησυχίας για το θέμα, δεν ήταν δύσκολο να γίνει πιστευτή.

Πολλώ μάλλον όταν είχε ειπωθεί από τα χείλη ενός ανώτερου στελέχους της Πολεμικής Αεροπορίας των ΗΠΑ, υπεύθυνου για τις δοκιμές και επιχειρήσεις τεχνητής νοημοσύνης.

Όμως ο αντισμήναρχος Τάκερ Χάμιλτον διευκρίνισε όψιμα ότι η ιστορία ήταν κατασκευασμένη. Η προσομοίωση αυτή δεν είχε γίνει ποτέ, υποστήριξε.

Τα όσα είπε ήταν ένα πείραμα σκέψης και μια προειδοποίηση για τα πιθανά μελλούμενα.

Τα συστήματα τεχνητής νοημοσύνης γίνονται όλο και πιο ισχυρά και, όπως λένε πολλοί επικριτές, όλο και πιο δύσκολα ελέγξιμα.

Παρά τα αναπάντητα ερωτήματα, καθώς και τα νομικά και ηθικά ζητήματα που εκκρεμούν γύρω από τη χρήση της ΑΙ, ο ισχυρότερος στρατός στη Γη, αυτός των ΗΠΑ, «ποντάρει» πολλά στην τεχνητή νοημοσύνη.

Το αμερικανικό υπουργείο Άμυνας έχει ζητήσει 1,8 δισεκατομμύρια δολάρια για την τεχνητή νοημοσύνη και τη μηχανική μάθηση το 2024.

Κούρσα υπεροχής

«Οι ΗΠΑ έχουν δηλώσει ένα πολύ ενεργό ενδιαφέρον για την ενσωμάτωση της τεχνητής νοημοσύνης σε όλες τις πολεμικές λειτουργίες», παρατηρεί ο Μπενιαμίν Μπουντρό, συγγραφέας έκθεσης για τις στρατιωτικές εφαρμογές την ΑΙ και ερευνητής πολιτικής στην RAND Corporation: την ισχυρότερη δεξαμενή σκέψης στις ΗΠΑ και κατά πολλούς «εγκέφαλο» του Πενταγώνου και του βαθέως αμερικανικού κράτους.

Στο ίδιο μονοπάτι βαδίζουν κι άλλες χώρες φυσικά, συμπεριλαμβανομένης της Κίνας, που επενδύουν επίσης σημαντικά στη στρατιωτική τεχνητή νοημοσύνη.

Όμως ο αμερικανικός στρατός έχει γίνει ιδιαίτερα ανυπόμονος ως προς «τα έργα που θα πρέπει να χρηματοδοτηθούν», ανέφερε σε email στον ιστότοπο Undark ο Σιν Σμιθ, επικεφαλής μηχανικός στη BlueHalo, μια αμυντική εταιρεία που πουλάει τεχνητή νοημοσύνη και αυτόνομα συστήματα.

Το 2020 η DARPA -η αρμόδια υπηρεσία του αμερικανικού υπουργείου Άμυνας για την ανάπτυξη νέων τεχνολογιών για στρατιωτική χρήση- χρηματοδότησε ένα πρόγραμμα με έναν πιλότο τεχνητής νοημοσύνης.

Αναμετρήθηκε σε πέντε προσομοιώσεις αερομαχιών με έναν κανονικό πιλότο της Πολεμικής Αεροπορίας. Το σκορ ήταν 5-0 υπέρ της ΑΙ.

Μέρος του στόχου του προγράμματος, σύμφωνα με την DARPA, ήταν να κάνει τους πιλότους να εμπιστευτούν και να σεβαστούν τα ρομπότ και να θέσει τις βάσεις για περισσότερη συνεργασία μεταξύ  ανθρώπου-μηχανών στους αιθέρες.

Σήμερα, οι εφαρμογές της τεχνητής νοημοσύνης στις υπηρεσίες του αμερικανικού Πενταγώνου έχουν σαφώς επεκταθεί.

Περιλαμβάνουν καθημερινές λειτουργίες, όπως η χρήση του ChatGPT.

Όμως το μέλλον, γράφει το Undark, επιφυλάσσει υψηλότερα και πιο εντυπωσιακά διακυβεύματα.

Σε αυτά συγκαταλέγονται τα θανατηφόρα αυτόνομα οπλικά συστήματα και πλήρης ενσωμάτωση της ΑΙ σε άρματα μάχης και σε μη επανδρωμένα αεροσκάφη.

Σε εξέλιξη είναι επίσης οι έρευνες για το πρόγραμμα JADC2, το οποίο στοχεύει στη συγκέντρωση και ομαδοποίηση δεδομένων από όλες τις Ένοπλες Δυνάμεις των ΗΠΑ.

Ένα ενοποιημένο σύστημα, που θα μπορούσε ωστόσο να είναι πιο ευάλωτο, όπως π.χ. σε κυβερνοεπιθέσεις.

Αυτά, ενώ ο διεθνής ανταγωνισμός για τη στρατιωτική χρήση της τεχνητής νοημοσύνης εντείνεται…

Αναζητώντας «δίχτυ ασφαλείας»

Ελλείψει εν τω μεταξύ ρυθμιστικού πλαισίου, ο Αμερικανός πρόεδρος Μπάιντεν υπέγραψε διάταγμα στα τέλη Οκτωβρίου, ζητώντας την ανάπτυξη ενός Mνημονίου Eθνικής Aσφάλειας.

«Θα διασφαλίζει ότι ο στρατός και η κοινότητα πληροφοριών των ΗΠΑ θα χρησιμοποιούν την ΑΙ με ασφάλεια, ηθική και αποτελεσματικότητα στις αποστολές τους», αναφέρεται στο κείμενο.

Επίσης, «θα κατευθύνει δράσεις για την αντιμετώπιση της στρατιωτικής χρήσης της ΑΙ από τους αντιπάλους».

Όμως «γνωρίζουμε ότι αυτά τα συστήματα τεχνητής νοημοσύνης είναι ευάλωτα και αναξιόπιστα», τονίζει ο Μπουρντό.

Επιπλέον «δεν έχουμε πάντα καλές προβλέψεις για το ποια αποτελέσματα θα προκύψουν στην πραγματικότητα, όταν βρίσκονται σε πολύπλοκα περιβάλλοντα λειτουργίας».

Προς επίρρωση, πρόσφατη δημοσκόπηση του Ινστιτούτου Πολιτικής Τεχνητής Νοημοσύνης δείχνει ότι το 63% των Αμερικανών πιστεύει ότι «η ρύθμιση θα πρέπει να στοχεύει στην ενεργή αποτροπή της υπερνοημοσύνης της ΑΙ».

Εκφράζονται εύλογοι φόβοι για λανθασμένες πληροφορίες ή κακόβουλη τεχνητή νοημοσύνη.

«Ο μετριασμός του κινδύνου εξαφάνισης από την ΑΙ πρέπει να αποτελέσει παγκόσμια προτεραιότητα, μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος», υπογραμμίζουν χαρακτηριστικά σε πρόσφατη κοινή δήλωση επιστήμονες και στελέχη του τεχνολογικού κλάδου.

Περίπου 34.000 έχουν μέχρι στιγμής συνυπογράψει, εν τω μεταξύ, την ανοιχτή επιστολή, που δημοσιοποιήθηκε τον περασμένο Μάρτιο, με αίτημα την «Παύση των γιγαντιαίων πειραμάτων Τεχνητής Νοημοσύνης».

Η κίνηση χαρακτηρίζεται στο κείμενο απαραίτητη για να διαπιστωθεί αν τα αποτελέσματα αυτών των πειραμάτων είναι θετικά και να γίνουν διαχειρίσιμοι τυχόν κίνδυνοι με την ανάπτυξη και εφαρμογή «από κοινού ενός συνόλου πρωτοκόλλων ασφαλείας για τον σχεδιασμό και την ανάπτυξη προηγμένης τεχνητής νοημοσύνης, που θα ελέγχονται αυστηρά και θα επιβλέπονται από ανεξάρτητους εξωτερικούς εμπειρογνώμονες».

Όμως αυτή η παύση δεν έχει γίνει μέχρι τώρα. Ούτε και προβλέπεται…

Αβέβαιο μέλλον

Στο μεσοδιάστημα, τα ηθικά διλήμματα πολλαπλασιάζονται ως προς την εφαρμογή της τεχνητής νοημοσύνης στην εθνική ασφάλεια.

Αφορούν στην ορθή χρήση της. Στη διαφάνεια στη «σκέψη» της ΑΙ. Στον βαθμό επίτευξης αντικειμενικότητας ή αντίθετα στη μεροληψία των αλγορίθμων, και δη φυλετικών.

Βάσει αυτής εκφράζονται εξάλλου φόβοι ακόμη και για μη ορθό οπτικό εντοπισμό «φιλικών δυνάμεων».

Υπάρχουν μέχρι και νομικά ζητήματα.

«Όταν ένας στρατιώτης σκοτώνει έναν ένοπλο σε μια στρατιωτική σύγκρουση, θεωρείται απώλεια, όχι δολοφονία, σύμφωνα με το Δίκαιο των Ενόπλων Συγκρούσεων», επισημαίνει ενδεικτικά η δημοσιογράφος-συγγραφέας Σάρα Σκόουλς στο Undark.

Όμως το τοπίο γίνεται θολό με τη χρήση τεχνητής νοημοσύνης στα μέτωπα του πολέμου.

Σε αυτό το πλαίσιο και βάσει συστάσεων από το Συμβούλιο Αμυντικής Καινοτομίας -έναν ανεξάρτητο συμβουλευτικό οργανισμό του Πενταγώνου- το υπουργείο Άμυνας των ΗΠΑ κυκλοφόρησε το 2020 αρχές ηθικής της ΑΙ.

Μεταξύ αυτών αναφέρει ότι στα συστήματα τεχνητής νοημοσύνης πρέπει να υπάρχει πρόσβαση σε «διαφανείς και ελέγξιμες μεθοδολογίες, πηγές δεδομένων, διαδικασία σχεδιασμού και τεκμηρίωση».

Να είναι επίσης «ανιχνεύσιμα» και διαχειρίσιμα από το στρατιωτικό προσωπικό, που θα μπορεί να τα απενεργοποιεί, εφόσον χρειαστεί.

Προσώρας ωστόσο πρόκειται για γενικές κατευθυντήριες γραμμές στα λόγια.

Αν και οι στρατιωτικοί εργολάβοι πρέπει να συμμορφώνονται με γενικές πολιτικές και πρακτικές, απουσιάζει ένα συγκεκριμένο πλαίσιο, συμπεριλαμβανομένης μιας συμφωνίας για το πώς πρέπει να χρησιμοποιείται η ΑΙ στον πόλεμο.

Όπως ο αμερικανικός στρατός, έτσι και το ΝΑΤΟ έχει απλώς εκδώσει οδηγίες, υπό τη μορφή «Αρχών υπεύθυνης χρήσης της τεχνητής νοημοσύνης στην άμυνα».

Θέτει ζητήματα νομιμότητας, αξιοπιστίας, ελέγχου, λογοδοσίας και μετριασμού των προκαταλήψεων «ως επίπεδο αναφοράς για τους Συμμάχους, καθώς η χρήση της τεχνητής νοημοσύνης στο πλαίσιο της άμυνας και της ασφάλειας».

Όμως αυτό δεν εξαλείφει τον κίνδυνο παράκαμψης διασφαλίσεων στην πορεία, πολλώ μάλλον όταν μη φιλικά έθνη ανεβάζουν τον πήχη του ανταγωνισμού…

https://www.in.gr/

Δεν υπάρχουν σχόλια: