noticias

la inteligencia artificial acelera el proceso de autonomía de las armas y el ejército estadounidense desarrolla aviones de combate con ia

2024-09-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

el avión de combate estadounidense x-62a despega de la base de la fuerza aérea edwards

desde hace algún tiempo, impulsadas por las ruedas gemelas del progreso científico y tecnológico y las necesidades militares, las potencias militares del mundo han estado desarrollando y desplegando activamente diversos proyectos de autonomía armamentística que les permitan percibir, aprender y tomar decisiones de forma independiente con la ayuda de la inteligencia artificial. .

en mayo de este año, el secretario de la fuerza aérea de los ee. uu., frank kendall, realizó públicamente un vuelo de prueba de un caza f-16 controlado por inteligencia artificial (x-62a) en la base de la fuerza aérea edwards, lo que atrajo la atención generalizada de todas las partes. los analistas creen que las armas autónomas potenciadas por inteligencia artificial no sólo cambiarán la forma de guerras futuras, sino que también causarán nuevos impactos en la actual situación de seguridad internacional, y el riesgo de que pierdan su control se convertirá en un problema que la sociedad humana no puede ignorar.

acelerar la investigación y el desarrollo de armas de guerra.

desde la perspectiva del ejército estadounidense, la inteligencia artificial, a diferencia de las plataformas de armas de próxima generación y las municiones avanzadas, tiene el potencial de cambiar casi todos los aspectos del campo de batalla. un área importante es la aceleración de la autonomía de las armas. el ejército estadounidense ha invertido muchos recursos en esta área, y el x-62a que montó kendall es un logro histórico. durante el vuelo de aproximadamente una hora, todas las acciones del caza se realizaron de forma autónoma mediante inteligencia artificial. además, el "avión de combate cooperativo" desarrollado por la fuerza aérea de los ee. uu. estará equipado con el sistema central autónomo no tripulado "sky borg" y se unirá a los cazas tripulados durante las operaciones para realizar tareas de vigilancia, ataque, interferencia electrónica y servicio. como señuelos para maximizar la seguridad y las capacidades de combate de la formación.

en cuanto a la armada, en los informes "requisitos de vehículos submarinos autónomos para 2025" y "opciones de plataforma de flota futura", estados unidos planea hacer realidad el concepto de una flota distribuida en 2030 y equipar 183 vehículos submarinos no tripulados de tamaño mediano que puedan ser transportados por submarinos nucleares hay 48 submarinos no tripulados de gran escala, que pueden realizar tareas antisubmarinas, de reconocimiento, de vigilancia y otras durante decenas de días en puertos, aguas internacionales y vías navegables importantes.

la investigación rusa sobre inteligencia artificial también comenzó temprano. el ministerio de defensa ruso estableció un departamento de investigación de armas de inteligencia artificial en 2022 para fortalecer el uso de la tecnología de inteligencia artificial y desarrollar nuevos equipos especiales. los sistemas no tripulados multifuncionales "depesha" y "baji" desarrollados por el grupo tecnológico estatal ruso no sólo pueden transportar carga y heridos, sino también atacar posiciones enemigas y fuerzas efectivas. anteriormente, se informó que el misil de crucero "lancet"-3 del ejército ruso utiliza una red neuronal convolucional, que puede analizar los datos de imágenes y videos recopilados para lograr una detección y un ataque precisos.

países como alemania e israel también han aumentado sus esfuerzos de investigación y desarrollo en campos relacionados. con el apoyo de la otan, la empresa alemana arx robotics está desarrollando una serie de vehículos terrestres no tripulados. utilizando inteligencia artificial, estos vehículos pueden operar de forma autónoma en el campo de batalla y comunicarse entre sí, y también pueden controlarse de forma remota si es necesario. los analistas creen que esta medida significa que la otan ha comenzado el proceso de "construcción de una fuerza de robots autónomos". el vehículo de combate no tripulado m-rcv del ejército israelí tiene un alto nivel de inteligencia y puede realizar reconocimientos fronterizos altamente autónomos, ataques con fuego y transportar y recuperar drones y otras tareas diversas sin intervención humana.

la próxima revolución militar

en los conflictos regionales ya están surgiendo armas autónomas impulsadas por inteligencia artificial. en el conflicto militar libio de 2020, el dron "kagu"-2 producido por turquía rastreó y atacó al "ejército nacional libio" en retirada sin depender de su operador. este puede ser el primer caso documentado de un dron atacando a una persona sin comando humano. en el conflicto entre rusia y ucrania, el ejército ucraniano no solo obtuvo una gran cantidad de drones propulsados ​​por inteligencia artificial del reino unido y estados unidos, sino que también llevó a cabo activamente investigaciones relevantes. en esta ronda del conflicto palestino-israelí también se ha aplicado la inteligencia artificial. cuando israel atacó gaza, utilizó un sistema de inteligencia artificial llamado "lavender" para ayudar a identificar a los militantes de hamás.

las armas autónomas impulsadas por inteligencia artificial están cambiando la forma de la guerra. en septiembre del año pasado, el x-62a completó con éxito un combate aéreo con un caza f-16 pilotado por un piloto humano. esto se considera "un momento transformador en la historia de la industria aeroespacial" e indica que las operaciones futuras estarán controladas parcial o totalmente por inteligencia artificial. los grupos de sistemas no tripulados, que se componen básicamente de unidades de combate no tripuladas, como varios tipos de vehículos aéreos no tripulados, vehículos no tripulados, barcos no tripulados y submarinos no tripulados, representarán una proporción cada vez mayor del futuro sistema de fuerzas de combate, alcanzando incluso el nivel de los sistemas de combate tripulados. mantener el ritmo unos con otros. con la mejora de la autonomía y la inteligencia, los grupos de sistemas no tripulados se convertirán cada vez más en los "protagonistas" de la guerra. los investigadores creen que la cooperación con sistemas tripulados es sólo la etapa inicial de las operaciones autónomas de sistemas no tripulados, y el objetivo final es lograr operaciones autónomas de sistemas totalmente no tripulados.

las armas autónomas impulsadas por inteligencia artificial impactan la estabilidad geopolítica. la estabilidad geopolítica depende del equilibrio relativo del poder militar regional. sin embargo, el uso a gran escala de armas autónomas no tripuladas afectará inevitablemente el patrón original y conducirá a una nueva carrera armamentista. tomando como ejemplo a los países hegemónicos individuales, una vez que se utilicen a gran escala armas autónomas dotadas de inteligencia artificial, se reducirán sus escrúpulos a la hora de iniciar una intervención militar regional y se reducirá el umbral para el uso de la fuerza externa. la estabilidad de las regiones relevantes enfrentará grandes desafíos. además, cada vez más actores no estatales dominan la tecnología de armas autónomas y las utilizan con fines letales, lo que también tendrá un impacto en la situación regional.

no se puede ignorar el riesgo de abuso

"la humanidad se encuentra en una encrucijada y los sistemas de armas autónomas pronto llenarán los campos de batalla del mundo. este es el 'momento oppenheimer' de nuestra generación", afirmó en la conferencia internacional sobre armas autónomas de este año en viena, el jefe del ministerio de asuntos exteriores de austria, schallenberg. dicho. aunque la inteligencia artificial ayuda a realizar ataques precisos, operaciones diferenciadas y reducir las pérdidas materiales, debido a su inherente "mecanismo de caja negra" y su "ilusión de máquina", la futura guerra no tripulada enfrentará riesgos y desafíos inevitables.

riesgo de pérdida de mando. la dependencia excesiva de la autonomía de las armas puede aumentar fácilmente el riesgo de que el sistema de control se salga de control. en una prueba simulada realizada por el ejército estadounidense, un dron que realizaba una misión de defensa aérea de supresión optó por "matar" al operador que le impedía puntuar para sumar puntos en la prueba. cuando le "dijeron" que matar al operador resultaría en una deducción de puntos, ganó autonomía atacando la torre de comunicaciones para interrumpir la comunicación del operador consigo mismo. en los futuros campos de batalla reales, el riesgo de que las armas autónomas pierdan el control no se puede eliminar por completo y las consecuencias serán aún más difíciles de controlar.

riesgo de violencia fuera de control. la combinación de inteligencia artificial y armas significa que la dificultad de matar se reduce significativamente y la eficiencia y la intensidad de la matanza aumentan considerablemente, lo que fácilmente puede conducir a la expansión y escalada de los conflictos armados. sin embargo, los algoritmos de aprendizaje automático en los que se basa la inteligencia artificial son intrínsecamente impredecibles y todavía hay algunas partes inexplicables de los mecanismos internos. en casos extremos, los humanos pueden incluso perder por completo el control de las armas autónomas, y el desastre humanitario resultante será incalculable. precisamente en reconocimiento de este problema, las naciones unidas están pidiendo a muchas partes que formulen normas y directrices comunes sobre sistemas de armas autónomos y completen las negociaciones pertinentes lo antes posible.

riesgos de fracaso ético. las armas letales autónomas seleccionan y atacan automáticamente objetivos sin intervención humana, lo que significa entregar el derecho de privar de la vida a las personas naturales a robots despiadados. algunos expertos dijeron que después de entregar las primeras líneas del campo de batalla a armas autónomas, la percepción de los seres humanos sobre la crueldad de la guerra caerá en picado, lo que tendrá como consecuencia las consecuencias de la "gamificación de la guerra", que conducirá al uso excesivo de la fuerza. esto no es sólo una "falta de responsabilidad moral", sino que también plantea un grave desafío al derecho internacional humanitario y a la paz y la seguridad internacionales, y es una "carga insoportable" para la humanidad.