Νέα

Οι Ηνωμένες Πολιτείες λανσάρουν το "Manhattan Project 2.0", θα μπει η τεχνητή νοημοσύνη στη στιγμή του Oppenheimer; 6 δισεκατομμύρια έχουν πεταχτεί σε drones, 800 από αυτά έχουν ήδη

2024-07-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Νέα Έκθεση Σοφίας

Επιμέλεια: Αινείας τόσο νυσταγμένος

[Εισαγωγή στη Νέα Σοφία] Έρχεται το Manhattan Project 2.0; Μέχρι στιγμής, ο στρατός των ΗΠΑ έχει περισσότερα από 800 ενεργά έργα τεχνητής νοημοσύνης και έχει υποβάλει αίτηση για χρηματοδότηση 1,8 δισεκατομμυρίων δολαρίων για την τεχνητή νοημοσύνη μόνο σε 24 χρόνια. Τα επόμενα πέντε χρόνια, οι Ηνωμένες Πολιτείες θα διαθέσουν επίσης 6 δισεκατομμύρια δολάρια για την έρευνα και την ανάπτυξη μη επανδρωμένων συνεργατικών μαχητικών αεροσκαφών. Τώρα, η τεχνητή νοημοσύνη φαίνεται να έχει εισέλθει στη στιγμή του Oppenheimer.

Η τεχνητή νοημοσύνη έχει μπει στη στιγμή του Oppenheimer.

Τώρα, τα όπλα τεχνητής νοημοσύνης χρησιμοποιούνται συνεχώς για στρατιωτικούς σκοπούς και οι σχετικές βιομηχανίες ανθούν.

Ο αγώνας εξοπλισμών πολλών δισεκατομμυρίων δολαρίων στην τεχνητή νοημοσύνη έχει προσελκύσει γίγαντες της Silicon Valley και χώρες σε όλο τον κόσμο.

Οι αυξανόμενες συγκρούσεις σε όλο τον κόσμο είναι επιταχυντές και πεδία δοκιμών για πόλεμο με τεχνητή νοημοσύνη. Οι στρατοί διαφόρων χωρών έχουν μεγάλο ενδιαφέρον για την τεχνητή νοημοσύνη και επί του παρόντος υπάρχει έλλειψη εποπτείας σε αυτόν τον τομέα.


Ο στρατός των ΗΠΑ έχει ήδη περισσότερα από 800 ενεργά έργα τεχνητής νοημοσύνης μόνο το 2024, έχει υποβάλει αίτηση για χρηματοδότηση ύψους 1,8 δισεκατομμυρίων δολαρίων στον προϋπολογισμό για την τεχνητή νοημοσύνη.

Η τεχνητή νοημοσύνη που ριζώνει σε στρατούς και κυβερνήσεις σε όλο τον κόσμο είναι πιθανό να αλλάξει ριζικά την κοινωνία, να αλλάξει την τεχνολογία και να αλλάξει τον πόλεμο.

Η διαφήμιση drone γίνεται πραγματικότητα

Μια ομάδα στρατιωτών δέχεται πυρά από ρουκέτες κατά τη διάρκεια αστικών μαχών από κοντινή απόσταση.

Ένας από αυτούς τηλεφώνησε μέσω του ασύρματου και σύντομα πέταξε ένας στόλος μικρών αυτόνομων drones εξοπλισμένων με εκρηκτικά.

Αυτά τα drones αυτοκτονίας πετούν μέσα σε κτίρια και αρχίζουν να ψάχνουν για εχθρούς Μόλις βρουν έναν στόχο, εκρήγνυνται κατόπιν εντολής.

Η παραπάνω εικόνα προέρχεται από μια διαφήμιση της εταιρείας όπλων Elbit για την προώθηση του τρόπου με τον οποίο τα drones AI μπορούν να «μεγιστοποιήσουν τη φονικότητα και τον ρυθμό μάχης».


Τώρα, η τεχνολογία που αναπτύχθηκε από την Elbit εισέρχεται όλο και περισσότερο στον πραγματικό κόσμο.

«Με την πάροδο του χρόνου, μπορεί να δούμε τους ανθρώπους να εκχωρούν περισσότερη κρίση στις μηχανές», δήλωσε ο Paul Scharre, εκτελεστικός αντιπρόεδρος και διευθυντής έρευνας στο κέντρο σκέψης New American Security.

«Αν κοιτάξουμε πίσω σε 15 ή 20 χρόνια, θα συνειδητοποιήσουμε ότι έχουμε περάσει ένα πολύ σημαντικό κατώφλι».


Το 2023, ένα μη επανδρωμένο αεροσκάφος ενσωματωμένο σε τεχνητή νοημοσύνη εντοπίζει εκρηκτικούς μηχανισμούς

Οι Ηνωμένες Πολιτείες ξοδεύουν 1 δισεκατομμύριο δολάρια για το "Replicator Project"

Αν και η ανάπτυξη της τεχνητής νοημοσύνης έχει δει μόνο μια αύξηση των επενδύσεων τα τελευταία χρόνια, η ανάπτυξη αυτόνομων οπλικών συστημάτων στον πόλεμο μπορεί να εντοπιστεί δεκαετίες πίσω.

Φυσικά, αυτές οι εξελίξεις σπάνια εμφανίζονται σε δημόσιες συζητήσεις, αλλά αποτελούν αντικείμενο μελέτης από έναν μικρό αριθμό μελετητών και στρατιωτικών στρατηγικών.

Αλλά τώρα, η προσοχή του κοινού στην τεχνητή νοημοσύνη αυξάνεται. Το αν τα όπλα είναι πραγματικά "αυτόνομα" έχει γίνει επίσης ένα θέμα που συζητείται έντονα.

Σύμφωνα με ειδικούς και ερευνητές, μπορούμε να κατανοήσουμε την «αυτονομία» ως ένα φάσμα και όχι ως μια απλή δυαδική έννοια.

Αλλά γενικά συμφωνούν ότι οι μηχανές είναι πλέον σε θέση να λαμβάνουν περισσότερες αποφάσεις χωρίς ανθρώπινη συνδρομή από ποτέ.


Και τα χρήματα πέφτουν σε εταιρείες και κυβερνητικούς οργανισμούς, υποσχόμενοι ότι η τεχνητή νοημοσύνη μπορεί να κάνει τον πόλεμο πιο έξυπνο, φθηνότερο και ταχύτερο.

Το Πεντάγωνο σχεδιάζει να δαπανήσει 1 δισεκατομμύριο δολάρια για το «Πρόγραμμα Replicator» μέχρι το 2025. Στόχος αυτού του προγράμματος είναι η ανάπτυξη μεγάλου αριθμού μη επανδρωμένων drones μάχης και η χρήση τεχνητής νοημοσύνης για την αναζήτηση απειλών.

Τα επόμενα πέντε χρόνια, η Πολεμική Αεροπορία των ΗΠΑ σχεδιάζει να διαθέσει περίπου 6 δισεκατομμύρια δολάρια για την έρευνα και την ανάπτυξη μη επανδρωμένων συνεργατικών μαχητικών αεροσκαφών για την κατασκευή ενός στόλου 1.000 μαχητικών αεροσκαφών τεχνητής νοημοσύνης που θα μπορούν να πετούν αυτόνομα.

Τα τελευταία χρόνια, το Υπουργείο Άμυνας των ΗΠΑ έχει επίσης συγκεντρώσει εκατοντάδες εκατομμύρια δολάρια για να χρηματοδοτήσει ένα μυστικό πρόγραμμα τεχνητής νοημοσύνης που ονομάζεται Project Maven, το οποίο εστιάζει σε τεχνολογίες όπως η αυτόματη αναγνώριση στόχων και η επιτήρηση.


Οι Βρετανοί στρατιώτες χρησιμοποιούν τεχνητή νοημοσύνη κατά τη διάρκεια ασκήσεων

Οι εταιρείες τεχνολογίας υπογράφουν τεράστια συμβόλαια

Ταυτόχρονα, η αυξανόμενη ζήτηση για τεχνητή νοημοσύνη και αυτονομία στον στρατό βοήθησε τις εταιρείες τεχνολογίας και τους εμπόρους όπλων να κερδίσουν τεράστιες παραγγελίες.

Η Anduril, μια εταιρεία που αναπτύσσει αυτόνομα επιθετικά drones, μη επανδρωμένα αεροσκάφη μάχης και υποβρύχια οχήματα, συγκεντρώνει έναν νέο γύρο επιχειρηματικών κεφαλαίων με αναμενόμενη αποτίμηση 12,5 δισεκατομμυρίων δολαρίων.


Ο ιδρυτής της Anduril, Palmer Luckey, είναι ένας 31χρονος δισεκατομμυριούχος που φέτος υπέγραψε συμβόλαιο με το Πεντάγωνο για την κατασκευή ενός προγράμματος μη επανδρωμένων μαχητικών αεροσκαφών.

Ο δισεκατομμυριούχος της Silicon Valley, Peter Thiel, ίδρυσε επίσης την Palantir, μια εταιρεία τεχνολογίας και επιτήρησης. Έχει ήδη συμμετάσχει σε έργα τεχνητής νοημοσύνης, όπως το «πρώτο όχημα που ορίζεται από την τεχνητή νοημοσύνη» του Στρατού των ΗΠΑ.


Τον Μάιο, το Πεντάγωνο ανακοίνωσε ότι είχε αναθέσει στην Palantir σύμβαση 480 εκατομμυρίων δολαρίων για τεχνολογία AI που βοηθά στον εντοπισμό εχθρικών στόχων.

Επί του παρόντος, η τεχνολογία του Palantir έχει χρησιμοποιηθεί σε πολλές στρατιωτικές επιχειρήσεις.


Palantir Συμμετείχε στο "Πρώτο Όχημα που καθορίζεται από AI" του στρατού των ΗΠΑ

Το Anduril και το Palantir, που πήραν το όνομά τους από το Holy Sword και τη Philosopher's Stone στον «Άρχοντα των Δαχτυλιδιών» αντίστοιχα, είναι μόνο ένα μικρό μέρος του διεθνούς χρυσού πολέμου της AI.


Η Helsing συγκέντρωσε σχεδόν 500 εκατομμύρια δολάρια σε χρηματοδότηση για το αμυντικό της λογισμικό τεχνητής νοημοσύνης και εκτιμήθηκε σε 5,4 δισεκατομμύρια δολάρια αυτόν τον μήνα.

Εν τω μεταξύ, η Elbit Systems αποκάλυψε σε μια οικονομική κατάθεση τον Μάρτιο ότι είχε υπογράψει σύμβαση πυρομαχικών 760 εκατομμυρίων δολαρίων το 2023. Και, τον περασμένο χρόνο, τα έσοδα έφτασαν τα 6 δισεκατομμύρια δολάρια.


Η Helsing συγκεντρώνει σχεδόν 500 εκατομμύρια δολάρια για το αμυντικό της λογισμικό τεχνητής νοημοσύνης, αξίας 5,4 δισεκατομμυρίων δολαρίων αυτόν τον μήνα

Οι μεγάλες εταιρείες τεχνολογίας είναι επίσης πιο δεκτικές στην αμυντική βιομηχανία και τη χρήση της τεχνητής νοημοσύνης από ό,τι τα προηγούμενα χρόνια.

Το 2018, οι υπάλληλοι της Google διαμαρτυρήθηκαν για τη συμμετοχή της εταιρείας στο στρατιωτικό Project Maven, υποστηρίζοντας ότι παραβίαζε ηθικές και ηθικές ευθύνες. Εκείνη την εποχή, υπό πίεση, η Google διέκοψε τη συνεργασία της με το έργο.

Ωστόσο, η Google έκτοτε κατέληξε σε συμφωνία αξίας 1,2 δισεκατομμυρίων δολαρίων με την κυβέρνηση μιας συγκεκριμένης χώρας για να της παρέχει υπηρεσίες υπολογιστικού νέφους και δυνατότητες τεχνητής νοημοσύνης.

Φέτος, η Google απέλυσε δεκάδες υπαλλήλους καθώς ορισμένοι υπάλληλοι διαμαρτυρήθηκαν για στρατιωτικές συμβάσεις. Ο Διευθύνων Σύμβουλος Pichai είπε ωμά στους υπαλλήλους: "Αυτή είναι μια επιχείρηση".


Παρόμοιες διαμαρτυρίες εργαζομένων σημειώθηκαν στην Amazon το 2022 και πάλι, η εταιρεία δεν άλλαξε την πολιτική της.

διπλό μαύρο κουτί

Οι ερευνητές προειδοποιούν ότι καθώς τεράστια χρηματικά ποσά ρέουν στον τομέα της αμυντικής τεχνολογίας, πολλές εταιρείες και τεχνολογίες λειτουργούν με ελάχιστη διαφάνεια και υπευθυνότητα.

Όταν ένα προϊόν αποτύχει απροσδόκητα, τα αποτελέσματα μπορεί να είναι μοιραία, αλλά αυτοί οι έμποροι όπλων συνήθως δεν ευθύνονται για αυτό.

Επιπλέον, η μεροληψία μυστικότητας του μηχανισμού εθνικής ασφάλειας των ΗΠΑ σημαίνει επίσης ότι οι εταιρείες και οι κυβερνήσεις δεν έχουν καμία υποχρέωση να αποκαλύπτουν λεπτομέρειες σχετικά με τον τρόπο λειτουργίας αυτών των συστημάτων.

Όταν η κυβέρνηση παίρνει τη μυστική, αποκλειστική τεχνολογία τεχνητής νοημοσύνης και την τοποθετεί στον κρυφό κόσμο της εθνικής ασφάλειας, δημιουργεί αυτό που ο καθηγητής Νομικής του Πανεπιστημίου της Βιρτζίνια, Άσλεϊ Ντικς αποκαλεί «διπλό μαύρο κουτί».

Σε αυτήν την περίπτωση, είναι δύσκολο για το κοινό να γνωρίζει εάν αυτά τα συστήματα λειτουργούν σωστά ή ηθικά. Και, γενικά, αυτό αφήνει πολλά περιθώρια για λάθη.

«Έχω δει πολλή διαφημιστική εκστρατεία γύρω από την τεχνητή νοημοσύνη στον επιχειρηματικό κόσμο και η λέξη «AI» χρησιμοποιείται κατάχρηση παντού», είπε ο Scharre του Κέντρου Αμερικανικής Ασφάλειας, «Μόλις σκάψετε βαθύτερα, θα το βρείτε μπορεί να μην είναι τόσο περίπλοκο όσο διαφημίζεται».


Ακτιβιστές διαμαρτύρονται μπροστά από την Πύλη του Βρανδεμβούργου στο Βερολίνο, Γερμανία, απαιτώντας «να σταματήσουν τα ρομπότ δολοφόνοι»

άτομα σε κύκλωμα

Ενώ οι εταιρείες και οι εθνικοί στρατοί είναι απρόθυμοι να αποκαλύψουν τις συγκεκριμένες επιχειρησιακές λεπτομέρειες των συστημάτων τους, εμπλέκονται σε μεγάλη συζήτηση σχετικά με την ηθική ευθύνη και τη ρύθμιση των συστημάτων τεχνητής νοημοσύνης.

Για παράδειγμα, οι διπλωμάτες και οι έμποροι όπλων γενικά πιστεύουν ότι πρέπει πάντα να υπάρχει «ανθρώπινη συμμετοχή» στη διαδικασία λήψης αποφάσεων, αντί να ελέγχονται πλήρως από μηχανές.

Ωστόσο, υπάρχει μικρή συναίνεση σχετικά με τον τρόπο εφαρμογής της ανθρώπινης επίβλεψης.

«Όλοι μπορούν να συμφωνήσουν σχετικά με την ιδέα, αλλά ταυτόχρονα ο καθένας έχει διαφορετική ιδέα για το τι σημαίνει στην πράξη», είπε η Rebecca Crootof, καθηγήτρια νομικής και ειδικός σε αυτόνομους πολέμους στο Πανεπιστήμιο του Ρίτσμοντ και η πρώτη επισκέπτρια μελετήτρια της DARPA.

«Όσον αφορά την ουσιαστική καθοδήγηση τεχνικών αποφάσεων σχεδιασμού, αυτή η ιδέα δεν είναι τόσο χρήσιμη».


Διαδηλωτές συγκεντρώνονται έξω από το εργοστάσιο της Elbit Systems στο Λέστερ του Ηνωμένου Βασιλείου

Επιπλέον, η πολυπλοκότητα της ανθρώπινης ψυχολογίας και της λογοδοσίας καθιστούν τις συζητήσεις υψηλού επιπέδου για τα «άτομα στο βρόχο» ακόμη πιο ενοχλητικές.

Ένα παράδειγμα που αναφέρουν συχνά οι ερευνητές είναι τα αυτόνομα αυτοκίνητα, όπου οι άνθρωποι πρέπει να ανακτήσουν τον έλεγχο του οχήματος όταν είναι απαραίτητο για να επιτύχουν «ανθρώπινη συμμετοχή».

Αλλά αν ένα αυτοοδηγούμενο αυτοκίνητο κάνει ένα λάθος ή κάνει έναν άνθρωπο να πάρει μια λάθος απόφαση, είναι δίκαιο να κατηγορήσουμε τον οδηγό;

Για να γίνουμε πιο συγκεκριμένοι, αν ένα αυτοοδηγούμενο αυτοκίνητο παραδώσει τον έλεγχο σε έναν άνθρωπο στα πρώτα δευτερόλεπτα ενός ατυχήματος, ποιος ευθύνεται;

Ο Scharre από το Center for American Safety επεσήμανε ένα ενδιαφέρον πράγμα: Μερικές φορές βάζουμε ανθρώπους στο πιλοτήριο για να βρούμε κάποιον να αναλάβει την ευθύνη όταν κάτι πάει στραβά.

Υπάρχουν διαφορετικές απόψεις σχετικά με τον τρόπο επίβλεψης

Σε μια διάσκεψη στη Βιέννη στα τέλη Απριλίου του τρέχοντος έτους, διεθνείς οργανισμοί και διπλωμάτες από 143 χώρες συγκεντρώθηκαν για να συζητήσουν ρυθμιστικά ζητήματα για τη χρήση τεχνητής νοημοσύνης και αυτόνομων όπλων στον πόλεμο.

Για πολλά χρόνια, το Συμβούλιο Ασφαλείας του ΟΗΕ απέτυχε να καταλήξει σε καμία συνολική συνθήκη για αυτό το θέμα.

Σε σύγκριση με την πλήρη απαγόρευση των αυτόνομων όπλων, η έκκληση του Αυστριακού Υπουργού Εξωτερικών Alexander Schallenberg είναι πολύ πιο ήπια - «Τουλάχιστον πρέπει να πάρουμε την πιο μακροπρόθεσμη και σημαντική απόφαση - ποιος ζει και ποιος πεθαίνει είναι ακόμα στα χέρια των ανθρώπων, όχι των μηχανών. ".


Ο Διεθνής Ερυθρός Σταυρός και τα Stop Killer Robots ζητούν την απαγόρευση ορισμένων τύπων αυτόνομων οπλικών συστημάτων για περισσότερα από δέκα χρόνια.

Η Catherine Connolly, διευθύντρια της Stop Killer Robots, δήλωσε: «Βλέπουμε να επενδύονται πολλά χρήματα σε τεχνολογίες όπως τα αυτόνομα όπλα και τα συστήματα στόχευσης τεχνητής νοημοσύνης, κάτι που είναι πολύ ανησυχητικό».

Σήμερα, η κατάσταση είναι όλο και πιο επείγουσα.

Οι υποστηρικτές του ελέγχου των όπλων αναγνωρίζουν επίσης ότι ο χρόνος τελειώνει για να παλέψουμε για ρύθμιση.

Η Mary Wareham, αναπληρώτρια διευθύντρια του τμήματος κρίσεων, συγκρούσεων και εξοπλισμών της οργάνωσης, είπε: «Κάποτε ζητούσαμε την προληπτική απαγόρευση των πλήρως αυτόνομων οπλικών συστημάτων και τώρα δεν χρησιμοποιούμε πλέον τη λέξη «προληπτικά» επειδή είμαστε πολύ μακριά από την αυτόνομη όπλα πολύ κοντά».

Η έκκληση για ενίσχυση της εποπτείας έχει αντιταχθεί από τις Ηνωμένες Πολιτείες και άλλες χώρες καθώς και από εμπόρους όπλων.

Ο ιδρυτής της Anduril, Luckey, έχει δεσμευτεί αόριστα να διατηρήσει την «ανθρώπινη συμμετοχή» στην τεχνολογία της εταιρείας, αλλά έχει μιλήσει κατά των κανονισμών και των απαγορεύσεων για αυτόνομα όπλα.

Ο διευθύνων σύμβουλος της Palantir, Alex Karp, έχει αναφέρει πολλές φορές ότι έχουμε φτάσει σε μια στιγμή Oppenheimer.


Ένα drone ενσωματωμένο σε τεχνητή νοημοσύνη καθαρίζει νάρκες

Οι ειδικοί λένε ότι αυτή η έλλειψη εποπτείας δεν είναι απλώς ένα φαινόμενο μοναδικό στα αυτόνομα όπλα, αλλά ένα κοινό πρόβλημα που αντιμετωπίζει το διεθνές νομικό σύστημα.

Αλλά πολλοί ανησυχούν ότι μόλις αναπτυχθούν και ενσωματωθούν αυτές οι τεχνολογίες στο στρατό, θα επιμείνουν και θα γίνουν πιο δύσκολο να ρυθμιστούν.

«Από τη στιγμή που ένα όπλο χρησιμοποιείται στον στρατό, είναι πιο δύσκολο να το εγκαταλείψεις γιατί έχουν εξαρτηθεί από αυτό», δήλωσε ο Σαρ από το κέντρο σκέψης του Κέντρου για την Αμερικανική Ασφάλεια. «Αυτό δεν είναι πλέον μόνο μια οικονομική επένδυση».

Εάν τα αυτόνομα όπλα και η τεχνητή νοημοσύνη αναπτυχθούν όπως άλλες στρατιωτικές τεχνολογίες, η χρήση τους πιθανότατα θα πέσει και στις εγχώριες υπηρεσίες επιβολής του νόμου και στις συνοριακές υπηρεσίες περιπολίας, εδραιώνοντας περαιτέρω την τεχνολογία.

«Πολλές φορές, η τεχνολογία που χρησιμοποιείται στον πόλεμο καταλήγει στο σπίτι», είπε ο Connolly.

Βιβλιογραφικές αναφορές:

https://www.theguardian.com/technology/article/2024/jul/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield