noticias

Estados Unidos lanza el "Proyecto Manhattan 2.0", ¿entrará la IA en su momento Oppenheimer? Se han lanzado 6 mil millones a drones, 800 de ellos ya

2024-07-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nuevo informe de sabiduría

Editor: Eneas tiene mucho sueño

[Introducción a la Nueva Sabiduría] ¿Se acerca el Proyecto Manhattan 2.0? Hasta ahora, el ejército estadounidense tiene más de 800 proyectos activos de IA y ha solicitado 1.800 millones de dólares en financiación para IA sólo en 24 años. Durante los próximos cinco años, Estados Unidos también asignará 6 mil millones de dólares a la investigación y el desarrollo de aviones de combate colaborativos no tripulados. Ahora, la IA parece haber entrado en su momento Oppenheimer.

La inteligencia artificial ha entrado en su momento Oppenheimer.

Ahora, las armas de IA se utilizan constantemente con fines militares y las industrias relacionadas están en auge.

La carrera armamentista multimillonaria en IA ha atraído a gigantes de Silicon Valley y a países de todo el mundo.

Los crecientes conflictos en todo el mundo son a la vez aceleradores y campos de pruebas para la guerra con IA. Los ejércitos de varios países tienen un gran interés en la IA y actualmente existe una falta de supervisión en este campo.


El ejército estadounidense ya tiene más de 800 proyectos de IA activos. Sólo en 2024, ha solicitado financiación por valor de 1.800 millones de dólares en el presupuesto para IA.

Es probable que la IA que se arraigue en los ejércitos y gobiernos de todo el mundo cambie fundamentalmente la sociedad, cambie la tecnología y cambie la guerra.

La publicidad con drones se hace realidad

Un grupo de soldados es atacado con cohetes durante un combate urbano a corta distancia.

Uno de ellos hizo una llamada por radio y pronto llegó una flota de pequeños drones autónomos equipados con explosivos.

Estos drones suicidas vuelan hacia los edificios y comienzan a buscar enemigos. Una vez que encuentran un objetivo, detonan cuando se les ordena.

La imagen de arriba es de un anuncio de la empresa de armas Elbit para promover cómo los drones con IA pueden "maximizar la letalidad y el ritmo de combate".


Ahora, la tecnología desarrollada por Elbit se ha introducido cada vez más en el mundo real.

"Con el tiempo, es posible que veamos a los humanos ceder más juicio a las máquinas", dijo Paul Scharre, vicepresidente ejecutivo y director de investigación del centro de estudios Center for a New American Security.

"Si miramos hacia atrás dentro de 15 o 20 años, nos daremos cuenta de que hemos cruzado un umbral muy importante".


En 2023, un dron con IA integrada detectará artefactos explosivos

Estados Unidos gasta mil millones de dólares en el "Proyecto Replicador"

Aunque el desarrollo de la IA sólo ha experimentado un aumento de la inversión en los últimos años, el desarrollo de sistemas de armas autónomos en la guerra se remonta a décadas atrás.

Por supuesto, estos acontecimientos rara vez aparecen en los debates públicos, pero son objeto de estudio por parte de un pequeño número de académicos y estrategas militares.

Pero ahora, la atención pública a la IA está aumentando. También se ha debatido acaloradamente si las armas son verdaderamente "autónomas".

Según expertos e investigadores, podemos entender la "autonomía" como un espectro y no como un simple concepto binario.

Pero en general están de acuerdo en que las máquinas ahora son capaces de tomar más decisiones que nunca sin la intervención humana.


Y el dinero está fluyendo hacia empresas y agencias gubernamentales, prometiendo que la IA puede hacer que la guerra sea más inteligente, más barata y más rápida.

El Pentágono planea gastar mil millones de dólares en su "Programa Replicador" para 2025. El objetivo de este programa es desarrollar una gran cantidad de drones de combate no tripulados y utilizar la IA para buscar amenazas.

Durante los próximos cinco años, la Fuerza Aérea de EE. UU. planea asignar aproximadamente 6 mil millones de dólares a la investigación y el desarrollo de aviones de combate colaborativos no tripulados para construir una flota de 1.000 aviones de combate con IA que puedan volar de forma autónoma.

En los últimos años, el Departamento de Defensa de Estados Unidos también ha recaudado cientos de millones de dólares para financiar un programa secreto de inteligencia artificial llamado Proyecto Maven, que se centra en tecnologías como el reconocimiento automático de objetivos y la vigilancia.


Los soldados británicos utilizan IA durante los ejercicios

Empresas tecnológicas firman enormes contratos

Al mismo tiempo, la creciente demanda de inteligencia artificial y autonomía en el ejército ha ayudado a las empresas de tecnología y a los traficantes de armas a obtener grandes pedidos.

Anduril, una empresa que desarrolla drones de ataque autónomos, aviones de combate no tripulados y vehículos submarinos, está recaudando una nueva ronda de capital de riesgo con una valoración esperada de 12.500 millones de dólares.


El fundador de Anduril, Palmer Luckey, es un multimillonario de 31 años que este año firmó un contrato con el Pentágono para construir un programa de aviones de combate no tripulados.

El multimillonario de Silicon Valley, Peter Thiel, también fundó Palantir, una empresa de tecnología y vigilancia. Ya ha participado en proyectos de IA como el “primer vehículo definido por inteligencia artificial” del ejército de EE. UU.


En mayo, el Pentágono anunció que había otorgado a Palantir un contrato de 480 millones de dólares para tecnología de inteligencia artificial que ayuda a identificar objetivos enemigos.

Actualmente, la tecnología de Palantir se ha utilizado en varias operaciones militares.


Palantir participa en el "primer vehículo definido por IA" del ejército de EE. UU.

Anduril y Palantir, llamados así por la Espada Sagrada y la Piedra Filosofal en "El Señor de los Anillos", respectivamente, son sólo una pequeña parte de la fiebre del oro de la guerra internacional de IA.


Helsing ha recaudado casi 500 millones de dólares en financiación para su software de defensa de IA y este mes fue valorado en 5.400 millones de dólares.

Mientras tanto, Elbit Systems reveló en un documento financiero de marzo que había firmado un contrato de municiones por valor de 760 millones de dólares en 2023. Y, el año pasado, los ingresos alcanzaron los 6.000 millones de dólares.


Helsing recauda casi 500 millones de dólares para su software de defensa con IA, valorado en 5.400 millones de dólares este mes

Las grandes empresas tecnológicas también son más receptivas que en años anteriores a la industria de defensa y su uso de la IA.

En 2018, los empleados de Google protestaron por la participación de la empresa en el Proyecto Maven del ejército, argumentando que violaba responsabilidades éticas y morales. En ese momento, bajo presión, Google rompió su cooperación con el proyecto.

Sin embargo, desde entonces Google ha llegado a un acuerdo por valor de 1.200 millones de dólares con el gobierno de un determinado país para proporcionarle servicios de computación en la nube y capacidades de inteligencia artificial.

Este año, Google despidió a decenas de empleados mientras algunos de ellos protestaban contra los contratos militares. El director ejecutivo Pichai dijo sin rodeos a los empleados: "Esto es un negocio".


En 2022 se produjeron protestas similares de los empleados en Amazon y, una vez más, la empresa no cambió su política.

doble caja negra

Los investigadores advierten que a medida que enormes cantidades de dinero fluyen hacia el sector de la tecnología de defensa, muchas empresas y tecnologías operan con mínima transparencia y responsabilidad.

Una vez que un producto falla inesperadamente, los resultados pueden ser fatales, pero estos traficantes de armas generalmente no son responsables de esto.

Además, el sesgo secretista del aparato de seguridad nacional de Estados Unidos también significa que las empresas y los gobiernos no tienen la obligación de revelar los detalles de cómo funcionan estos sistemas.

Cuando el gobierno toma tecnología de inteligencia artificial secreta y patentada y la coloca en el mundo oculto de la seguridad nacional, crea lo que Ashley Deeks, profesora de derecho de la Universidad de Virginia, llama una “doble caja negra”.

En este caso, es difícil para el público saber si estos sistemas funcionan de manera correcta o ética. Y, en términos generales, eso deja mucho margen de error.

"He visto mucho revuelo en torno a la IA en el mundo de los negocios, y la palabra 'IA' se está utilizando mal en todas partes", dijo Scharre del grupo de expertos del Centro para la Seguridad Estadounidense. "Una vez que profundices, encontrarás eso. Puede que no sea tan complejo como se anuncia".


Activistas protestan frente a la Puerta de Brandenburgo en Berlín, Alemania, exigiendo "detener a los robots asesinos"

personas en circuito

Si bien las empresas y los ejércitos nacionales se muestran reacios a revelar los detalles operativos específicos de sus sistemas, sí participan en muchos debates sobre la responsabilidad ética y la regulación de los sistemas de IA.

Por ejemplo, los diplomáticos y traficantes de armas generalmente creen que siempre debería haber "participación humana" en el proceso de toma de decisiones, en lugar de estar completamente controlado por máquinas.

Sin embargo, hay poco consenso sobre cómo implementar la supervisión humana.

"Todos pueden estar de acuerdo sobre el concepto, pero al mismo tiempo todos tienen una idea diferente de lo que significa en la práctica", dijo Rebecca Crootof, profesora de derecho y experta en guerra autónoma en la Universidad de Richmond y primera académica visitante de DARPA.

"En términos de guiar las decisiones de diseño técnico, este concepto no es tan útil".


Los manifestantes se reúnen frente a la fábrica de Elbit Systems en Leicester, Reino Unido

Además, las complejidades de la psicología humana y la rendición de cuentas hacen que las discusiones de alto nivel sobre las “personas al tanto” sean aún más problemáticas.

Un ejemplo citado a menudo por los investigadores son los coches autónomos, en los que los humanos deben recuperar el control del vehículo cuando es necesario para lograr la "participación humana".

Pero si un vehículo autónomo comete un error o hace que un humano tome una decisión equivocada, ¿es justo culpar al conductor?

Para ser más específicos, si un vehículo autónomo cede el control a un humano en los primeros segundos de un accidente, ¿quién es el responsable?

Scharre, del grupo de expertos Center for American Safety, señaló algo interesante: a veces ponemos a humanos en la cabina del piloto para que podamos encontrar a alguien que asuma la responsabilidad cuando algo sale mal. Esta es la llamada "zona de amortiguación moral".

Hay diferentes opiniones sobre cómo supervisar

En una conferencia celebrada en Viena a finales de abril de este año, organizaciones internacionales y diplomáticos de 143 países se reunieron para discutir cuestiones regulatorias para el uso de inteligencia artificial y armas autónomas en la guerra.

Durante muchos años, el Consejo de Seguridad de la ONU no logró alcanzar ningún tratado integral sobre esta cuestión.

En comparación con una prohibición total de las armas autónomas, el llamamiento del Ministro de Asuntos Exteriores austriaco, Alexander Schallenberg, es mucho más suave: "Al menos deberíamos tomar la decisión más importante y de mayor alcance: quién vive y quién muere sigue estando en manos de los humanos, no de las máquinas. " .


La Cruz Roja Internacional y Stop Killer Robots llevan más de diez años pidiendo la prohibición de determinados tipos de sistemas de armas autónomos.

Catherine Connolly, directora de Stop Killer Robots, afirmó: "Estamos viendo que se invierte mucho dinero en tecnologías como armas autónomas y sistemas de puntería mediante IA, lo cual es muy preocupante".

Hoy, la situación es cada vez más urgente.

Los defensores del control de armas también reconocen que se está acabando el tiempo para luchar por la regulación.

Mary Wareham, subdirectora del departamento de crisis, conflictos y armamento de la organización, dijo: "Una vez pedimos una prohibición preventiva de los sistemas de armas totalmente autónomos, y ahora ya no usamos la palabra 'preventivo' porque estamos muy lejos de los sistemas de armas autónomos". armas muy cerca."

Estados Unidos y otros países, así como los traficantes de armas, se han opuesto al llamado a fortalecer la supervisión.

El fundador de Anduril, Luckey, se ha comprometido vagamente a mantener la "participación humana" en la tecnología de la empresa, pero se ha pronunciado en contra de la regulación y la prohibición de las armas autónomas.

El director ejecutivo de Palantir, Alex Karp, ha mencionado muchas veces que hemos llegado a un momento Oppenheimer.


Un dron con inteligencia artificial está limpiando minas

Los expertos dicen que esta falta de supervisión no es sólo un fenómeno exclusivo de las armas autónomas, sino un problema común que enfrenta el sistema legal internacional.

Pero a muchos les preocupa que una vez que estas tecnologías se desarrollen e integren en el ejército, persistirán y serán más difíciles de regular.

"Una vez que un arma es utilizada en el ejército, es más difícil abandonarla porque se vuelven dependientes de ella", dijo Scharre, del centro de estudios Center for American Security. "Esto ya no es sólo una inversión financiera".

Si las armas autónomas y la IA se desarrollan como otras tecnologías militares, es probable que su uso también llegue a las autoridades nacionales y a las agencias de patrulla fronteriza, lo que afianzará aún más la tecnología.

"Muchas veces, la tecnología utilizada en la guerra termina en casa", dijo Connolly.

Referencias:

https://www.theguardian.com/technology/article/2024/jul/14/el-momento-de-ais-oppenheimer-las-armas-autonomas-entran-en-el-campo-de-batalla