nouvelles

Les Etats-Unis lancent le « Manhattan Project 2.0 », l’IA entrera-t-elle dans son moment Oppenheimer ? 6 milliards ont été lancés sur des drones, dont 800 déjà

2024-07-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nouveau rapport de sagesse

Editeur : Énée si endormi

[Introduction à la nouvelle sagesse] Le projet Manhattan 2.0 arrive-t-il ? À l’heure actuelle, l’armée américaine mène plus de 800 projets d’IA actifs et a demandé 1,8 milliard de dollars de financement pour l’IA en seulement 24 ans. Au cours des cinq prochaines années, les États-Unis alloueront également 6 milliards de dollars à la recherche et au développement d’avions de combat collaboratifs sans pilote. Aujourd’hui, l’IA semble être entrée dans son moment Oppenheimer.

L’intelligence artificielle est entrée dans son moment Oppenheimer.

Aujourd’hui, les armes IA sont constamment utilisées à des fins militaires et les industries associées sont en plein essor.

La course aux armements de plusieurs milliards de dollars dans le domaine de l’IA a attiré les géants de la Silicon Valley et les pays du monde entier.

Les conflits croissants dans le monde sont à la fois des accélérateurs et des terrains d’essai pour la guerre par l’IA. Les armées de divers pays s’intéressent beaucoup à l’IA et il existe actuellement un manque de supervision dans ce domaine.


L’armée américaine a déjà plus de 800 projets d’IA actifs rien qu’en 2024, elle a demandé un financement d’une valeur de 1,8 milliard de dollars dans le budget de l’IA.

L’IA qui s’implante dans les armées et les gouvernements du monde entier est susceptible de changer fondamentalement la société, la technologie et la guerre.

La publicité sur les drones devient réalité

Un groupe de soldats est sous le feu des roquettes lors de combats urbains à courte portée.

L’un d’eux a passé un appel par radio et bientôt une flotte de petits drones autonomes équipés d’explosifs est arrivée.

Ces drones suicides volent dans les bâtiments et commencent à rechercher les ennemis une fois qu'ils ont trouvé une cible, ils explosent sur commande.

L'image ci-dessus provient d'une publicité de la société d'armement Elbit visant à promouvoir la manière dont les drones IA peuvent « maximiser la létalité et le rythme du combat ».


Aujourd’hui, la technologie développée par Elbit s’implante de plus en plus dans le monde réel.

"Au fil du temps, nous pourrions voir les humains céder davantage de jugement aux machines", a déclaré Paul Scharre, vice-président exécutif et directeur de recherche au groupe de réflexion Center for a New American Security.

"Si nous regardons en arrière dans 15 ou 20 ans, nous réaliserons que nous avons franchi un seuil très important."


En 2023, un drone intégré à l’IA détectera les engins explosifs

Les États-Unis dépensent 1 milliard de dollars pour le « Projet Replicator »

Même si le développement de l’IA n’a connu une augmentation des investissements que ces dernières années, le développement de systèmes d’armes autonomes de guerre remonte à plusieurs décennies.

Bien entendu, ces évolutions apparaissent rarement dans les débats publics, mais font l’objet d’études par un petit nombre d’universitaires et de stratèges militaires.

Mais aujourd’hui, l’attention du public envers l’IA s’accroît. La question de savoir si les armes sont véritablement « autonomes » est également devenue un sujet très controversé.

Selon les experts et les chercheurs, on peut comprendre « l’autonomie » comme un spectre plutôt que comme un simple concept binaire.

Mais ils s’accordent généralement sur le fait que les machines sont désormais capables de prendre plus de décisions sans intervention humaine que jamais auparavant.


Et l’argent afflue dans les entreprises et les agences gouvernementales, promettant que l’IA peut rendre la guerre plus intelligente, moins coûteuse et plus rapide.

Le Pentagone prévoit de dépenser 1 milliard de dollars pour son « programme Replicator » d’ici 2025. L'objectif de ce programme est de développer un grand nombre de drones de combat sans pilote et d'utiliser l'IA pour traquer les menaces.

Au cours des cinq prochaines années, l’US Air Force prévoit d’allouer environ 6 milliards de dollars à la recherche et au développement d’avions de combat collaboratifs sans pilote afin de construire une flotte de 1 000 avions de combat IA capables de voler de manière autonome.

Ces dernières années, le ministère américain de la Défense a également levé des centaines de millions de dollars pour financer un programme secret d’intelligence artificielle appelé Projet Maven, axé sur des technologies telles que la reconnaissance automatique de cibles et la surveillance.


Les soldats britanniques utilisent l'IA lors des exercices

Les entreprises technologiques signent d’énormes contrats

Dans le même temps, la demande croissante d’IA et d’autonomie dans l’armée a aidé les entreprises technologiques et les marchands d’armes à remporter d’énormes commandes.

Anduril, une société développant des drones d'attaque autonomes, des avions de combat sans pilote et des véhicules sous-marins, lève une nouvelle ronde de capital-risque avec une valorisation attendue de 12,5 milliards de dollars.


Le fondateur d'Anduril, Palmer Luckey, est un milliardaire de 31 ans qui a signé cette année un contrat avec le Pentagone pour construire un programme d'avions de combat sans pilote.

Le milliardaire de la Silicon Valley, Peter Thiel, a également fondé Palantir, une société de technologie et de surveillance. Elle a déjà participé à des projets d’IA tels que le « premier véhicule défini par l’intelligence artificielle » de l’armée américaine.


En mai, le Pentagone a annoncé avoir attribué à Palantir un contrat de 480 millions de dollars pour une technologie d’IA permettant d’identifier les cibles ennemies.

Actuellement, la technologie de Palantir a été utilisée dans plusieurs opérations militaires.


Palantir impliqué dans le « premier véhicule défini par l'IA » de l'armée américaine

Anduril et Palantir, nommés respectivement d'après l'épée sacrée et la pierre philosophale dans "Le Seigneur des Anneaux", ne sont qu'une petite partie de la ruée vers l'or de la guerre internationale de l'IA.


Helsing a levé près de 500 millions de dollars pour financer son logiciel de défense IA et a été évalué à 5,4 milliards de dollars ce mois-ci.

Pendant ce temps, Elbit Systems a révélé dans un dossier financier en mars qu'elle avait signé un contrat de munitions de 760 millions de dollars en 2023. Et l’année dernière, les revenus ont atteint 6 milliards de dollars.


Helsing lève près de 500 millions de dollars pour son logiciel de défense contre l'IA, évalué à 5,4 milliards de dollars ce mois-ci

Les grandes entreprises technologiques sont également plus réceptives à l’industrie de la défense et à son utilisation de l’IA que les années précédentes.

En 2018, des employés de Google ont protesté contre l'implication de l'entreprise dans le projet militaire Maven, arguant que cela violait ses responsabilités éthiques et morales. A cette époque, sous la pression, Google a mis fin à sa coopération avec le projet.

Cependant, Google a depuis conclu un accord d'une valeur de 1,2 milliard de dollars avec le gouvernement d'un certain pays pour lui fournir des services de cloud computing et des capacités d'IA.

Cette année, Google a licencié des dizaines d’employés, certains d’entre eux protestant contre des contrats militaires. Le PDG Pichai a dit sans ambages aux employés : « C'est une entreprise ».


Des manifestations similaires d’employés ont eu lieu chez Amazon en 2022, et encore une fois, l’entreprise n’a pas modifié sa politique.

double boîte noire

Les chercheurs préviennent qu’à mesure que d’énormes sommes d’argent affluent dans le secteur des technologies de défense, de nombreuses entreprises et technologies fonctionnent avec un minimum de transparence et de responsabilité.

Lorsqu'un produit tombe en panne de manière inattendue, les conséquences peuvent être fatales, mais ces marchands d'armes n'en sont généralement pas responsables.

De plus, le penchant pour le secret de l’appareil de sécurité nationale américain signifie également que les entreprises et les gouvernements ne sont pas tenus de divulguer les détails du fonctionnement de ces systèmes.

Lorsque le gouvernement s’empare d’une technologie d’IA secrète et exclusive et la place dans le monde caché de la sécurité nationale, il crée ce que Ashley Deeks, professeur de droit à l’Université de Virginie, appelle une « double boîte noire ».

Dans ce cas, il est difficile pour le public de savoir si ces systèmes fonctionnent correctement ou de manière éthique. Et d’une manière générale, cela laisse une grande marge d’erreur.

"J'ai vu beaucoup de battage médiatique autour de l'IA dans le monde des affaires, et le mot "IA" est utilisé à mauvais escient partout", a déclaré Scharre du groupe de réflexion Center for American Security. "Une fois que vous creuserez plus profondément, vous découvrirez cela. ce n'est peut-être pas aussi complexe qu'annoncé.


Des militants manifestent devant la porte de Brandebourg à Berlin, en Allemagne, pour exiger « l'arrêt des robots tueurs ».

les gens en circuit

Même si les entreprises et les armées nationales hésitent à divulguer les détails opérationnels spécifiques de leurs systèmes, elles s’engagent dans de nombreux débats sur la responsabilité éthique et la réglementation des systèmes d’IA.

Par exemple, les diplomates et les marchands d'armes estiment généralement qu'il devrait toujours y avoir une « participation humaine » au processus de prise de décision, plutôt que d'être entièrement contrôlé par des machines.

Cependant, il existe peu de consensus sur la manière de mettre en œuvre la supervision humaine.

"Tout le monde peut être d'accord sur le concept, mais en même temps, tout le monde a une idée différente de ce que cela signifie dans la pratique", a déclaré Rebecca Crootof, professeur de droit et experte en guerre autonome à l'Université de Richmond et première chercheuse invitée de la DARPA.

"En termes d'orientation réelle des décisions de conception technique, ce concept n'est pas très utile."


Des manifestants se rassemblent devant l’usine Elbit Systems à Leicester, au Royaume-Uni.

En outre, les complexités de la psychologie humaine et de la responsabilité rendent les discussions de haut niveau sur les « personnes impliquées » encore plus difficiles.

Un exemple souvent cité par les chercheurs est celui des voitures autonomes, dans lesquelles les humains doivent reprendre le contrôle du véhicule lorsque cela est nécessaire pour parvenir à une « participation humaine ».

Mais si une voiture autonome commet une erreur ou amène un humain à prendre une mauvaise décision, est-il juste de blâmer le conducteur ?

Pour être plus précis, si une voiture autonome confie le contrôle à un humain dans les premières secondes d’un accident, qui est responsable ?

Scharre, du groupe de réflexion Center for American Safety, a souligné une chose intéressante : nous mettons parfois des humains dans le cockpit afin de trouver quelqu'un qui assume la responsabilité en cas de problème. C'est ce qu'on appelle la « zone tampon morale ».

Il existe différentes opinions sur la manière de superviser

Lors d'une conférence à Vienne fin avril de cette année, des organisations internationales et des diplomates de 143 pays se sont réunis pour discuter des questions réglementaires liées à l'utilisation de l'intelligence artificielle et des armes autonomes dans la guerre.

Pendant de nombreuses années, le Conseil de sécurité de l’ONU n’est parvenu à parvenir à aucun traité global sur cette question.

Comparé à une interdiction complète des armes autonomes, l'appel du ministre autrichien des Affaires étrangères Alexander Schallenberg est beaucoup plus doux : « Nous devrions au moins prendre la décision la plus importante et la plus importante : qui vit et qui meurt est toujours entre les mains des humains et non des machines. " .


La Croix-Rouge internationale et Stop Killer Robots réclament depuis plus de dix ans l’interdiction de certains types de systèmes d’armes autonomes.

Catherine Connolly, directrice de Stop Killer Robots, a déclaré : « Nous constatons que beaucoup d'argent est investi dans des technologies telles que les armes autonomes et les systèmes de ciblage par l'IA, ce qui est très inquiétant. »

Aujourd’hui, la situation est de plus en plus urgente.

Les partisans du contrôle des armements reconnaissent également que le temps presse pour lutter en faveur d’une réglementation.

Mary Wareham, directrice adjointe du département crises, conflits et armement de l'organisation, a déclaré : « Nous avions autrefois appelé à une interdiction préventive des systèmes d'armes entièrement autonomes, et maintenant nous n'utilisons plus le mot « préventif » parce que nous sommes si loin des systèmes d'armes autonomes. armes. Très proche.

L’appel en faveur d’un renforcement de la surveillance s’est heurté à l’opposition des États-Unis et d’autres pays ainsi que des marchands d’armes.

Le fondateur d'Anduril, Luckey, s'est vaguement engagé à maintenir « l'implication humaine » dans la technologie de l'entreprise, mais s'est prononcé contre la réglementation et l'interdiction des armes autonomes.

Le PDG de Palantir, Alex Karp, a mentionné à plusieurs reprises que nous avions atteint un moment Oppenheimer.


Un drone intégré à l'IA démine

Les experts affirment que ce manque de surveillance n’est pas seulement un phénomène propre aux armes autonomes, mais aussi un problème commun auquel est confronté le système juridique international.

Mais beaucoup craignent qu’une fois ces technologies développées et intégrées dans l’armée, elles perdurent et deviennent plus difficiles à réglementer.

"Une fois qu'une arme est utilisée par l'armée, il est plus difficile d'y renoncer car ils en deviennent dépendants", a déclaré Scharre du groupe de réflexion Center for American Security. "Il ne s'agit plus seulement d'un investissement financier."

Si les armes autonomes et l’IA se développent comme d’autres technologies militaires, leur utilisation se répercutera probablement également sur les agences nationales chargées de l’application des lois et des patrouilles frontalières, renforçant ainsi davantage la technologie.

"Souvent, la technologie utilisée pendant la guerre finit chez nous", a déclaré Connolly.

Les références:

https://www.theguardian.com/technology/article/2024/jul/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield