notícias

fórum xiangshan de pequim | como tornar boas as tecnologias emergentes? a cooperação internacional deve ser reforçada para desenvolver conjuntamente normas de segurança

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

no campo de batalha do conflito russo-ucraniano, um drone suicida ucraniano pairava sobre as posições militares russas. a câmera do drone estava apontada para as trincheiras e escaneada continuamente. quando a atividade humana foi detectada, a inteligência artificial rapidamente a identificou e depois mergulhou. cometer ataque suicida.
a câmera voltou-se para o céu acima das posições militares ucranianas no campo de batalha russo-ucraniano. uma aeronave de reconhecimento não tripulada russa conduziu o reconhecimento sobre as posições militares ucranianas. depois de descobrir tanques e veículos blindados, o pessoal da retaguarda rapidamente passou esta informação para o controle do. míssil de cruzeiro "lancet", o míssil de cruzeiro "lancet" voa até as proximidades da posição onde o alvo é encontrado. o míssil de cruzeiro também é equipado com um sistema de inteligência artificial, que pode identificar rapidamente tanques e veículos blindados e transportá-los. realizar ataques bloqueados ao alvo, mesmo que encontre interferência. também é capaz de ataques autônomos.
o texto acima são imagens de combate de drones e mísseis de cruzeiro lançados pelos exércitos russo e ucraniano. o desempenho atraente da tecnologia de inteligência artificial (ia) no conflito russo-ucraniano atraiu grande atenção e também promoverá grandemente a aplicação desta. tecnologia no campo militar. com o rápido desenvolvimento de tecnologias emergentes, como a inteligência artificial, como garantir a aplicação segura destas tecnologias tornou-se o foco de vários países durante este fórum xiangshan de pequim.
no dia 12 de setembro, foi organizada uma sessão especial para entrevistas de alto nível no fórum para discutir a segurança da inteligência artificial. no dia 13 de setembro, a sexta reunião do grupo do fórum, "tecnologias emergentes para o bem", foi dedicada a intercâmbios e discussões sobre como tecnologias emergentes, como a inteligência artificial e a biologia sintética, podem ser utilizadas para o bem.
a tecnologia de inteligência artificial entra no campo de batalha
em 2021, o ex-secretário de estado dos eua, kissinger, publicou o livro “a era da inteligência artificial e o futuro da humanidade”, expondo a sua visão sobre o desenvolvimento e o impacto da inteligência artificial. o livro propõe que a inteligência artificial remodelará a segurança global e a ordem mundial e fornece ideias e avisos sobre a ascensão da inteligência artificial. kissinger acredita que as armas de inteligência artificial têm três características que as armas nucleares não têm: estão concentradas em grandes empresas e o setor privado é mais facilmente copiado e, portanto, facilmente dominado por organizações não governamentais e os pequenos países também têm a oportunidade; para dominá-lo.
no segundo ano após a publicação do livro, eclodiu o conflito rússia-ucrânia. à medida que o conflito avançava, cada vez mais armas equipadas com tecnologia de inteligência artificial eram colocadas no campo de batalha: drones, veículos de combate não tripulados, barcos não tripulados e mísseis de cruzeiro. a tecnologia de inteligência artificial também está envolvida no reconhecimento de imagens de satélite, na tomada de decisão assistida, nas contramedidas eletrónicas e de rede, etc.
meng xiangqing, professor da universidade de defesa nacional, destacou em entrevista ao the paper (www.thepaper.cn) que a primeira guerra mundial é considerada o início da guerra mecanizada, a guerra do golfo é considerada o início da informação guerra, e o conflito rússia-ucrânia é considerado a cortina se abriu para a guerra inteligente embora a atual tecnologia de inteligência artificial capacite apenas ligeiramente as armas e as operações e não tenha um grande impacto na guerra, ela já anunciou essa tendência.
atualmente, no conflito rússia-ucrânia, cada vez mais armas alimentadas por inteligência artificial aparecem no campo de batalha. em março deste ano, o ministério da defesa britânico anunciou que iria aumentar o número de drones que ajudam a ucrânia de 4.000 para 10.000, milhares dos quais são drones equipados com tecnologia de inteligência artificial para apoiar as suas operações no campo de batalha. estes drones transportarão sensores e sistemas de armas avançados, terão um elevado grau de autonomia e inteligência e poderão realizar uma variedade de tarefas, tais como reconhecimento, ataque e defesa em ambientes complexos.
em janeiro de 2023, um artigo intitulado “como o algoritmo quebrou o equilíbrio da guerra rússia-ucrânia?” ”o relatório revelou a história interna da cooperação das empresas de alta tecnologia dos eua com o departamento de defesa dos eua e agências de inteligência e o seu profundo envolvimento no conflito rússia-ucrânia. o relatório mencionou que o software de inteligência artificial fornecido por empresas americanas de alta tecnologia é amplamente utilizado para interpretar imagens de satélite e encontrar alvos valiosos.
segundo relatos, o exército ucraniano também fez uso extensivo de um sistema de informação "meta-constelação" da empresa americana de software civil palantir. através deste sistema, uma variedade de aplicações tecnológicas sofisticadas são integradas para formar uma “cadeia de destruição” que permite à ucrânia e aos seus aliados ver os dados actualmente disponíveis numa área de combate específica. o reconhecimento de alvos de imagens de satélite é um problema importante e complexo. a interpretação manual tradicional enfrenta muitos desafios, e a capacidade da inteligência artificial baseada em aprendizagem profunda pode desempenhar um grande papel na interpretação de imagens de satélite, fornecendo uma nova solução para o plano de reconhecimento de alvos de imagens de satélite.
a rússia também está usando armas com inteligência artificial no campo de batalha do conflito rússia-ucrânia. por exemplo, a inteligência artificial do míssil de cruzeiro "lancet-3" é usada para busca e identificação de alvos e pode localizar e atacar de forma independente. metas pré-determinadas. veículos de combate não tripulados russos também apareceram no campo de batalha, como o veículo não tripulado de remoção de minas mt-1 e o veículo de combate não tripulado "mark".
a fim de se adaptar às guerras futuras, o ministério da defesa russo criou um departamento de pesquisa de armas de inteligência artificial em 2022 para fortalecer o uso de tecnologia de inteligência artificial e desenvolver novos equipamentos especiais.
outro conflito de destaque, o conflito palestino-israelense, também tem muitas armas equipadas com tecnologia de inteligência artificial sendo utilizadas no campo de batalha. segundo relatos, quando israel atacou gaza, usou um sistema de inteligência artificial chamado "lavender" para ajudar a identificar os militantes do hamas. no passado, o departamento de inteligência israelense trabalhava em 10 dias. encontraram e aprovaram 10 metas em 10 dias de trabalho, e agora podem encontrar e aprovar cerca de 100 metas em 10 dias de trabalho.
além disso, a inteligência artificial modifica e gera imagens e vídeos – que também podem ser usados ​​na guerra de informação em tempo de guerra ou na guerra de opinião pública. um artigo intitulado "a inteligência artificial gerativa desempenha um papel surpreendente na guerra de desinformação entre israel e o hamas" no site "wired" dos eua afirmou que a eclosão do conflito palestino-israelense desencadeou uma "desinformação" sem precedentes tide", o "algoritmo nevoeiro de guerra” que coloca as redes sociais em apuros.
o desenvolvimento conjunto de normas de segurança é o caminho a seguir
actualmente, o rápido desenvolvimento de tecnologias emergentes, como a inteligência artificial e a biologia sintética, está a libertar um enorme valor de aplicação, mas também a trazer riscos e desafios imprevisíveis, que estão relacionados com os interesses de toda a humanidade. tornar-se uma preocupação para todos os países.
em uma entrevista de alto nível sobre "segurança de inteligência artificial" no fórum xiangshan de pequim, o dr. chande, pesquisador do instituto de análises de defesa dos eua e ex-secretário adjunto de defesa dos eua, disse que drones controlados por inteligência artificial têm sido usados ​​em no campo de batalha russo-ucraniano, bem como em gaza, os militares de outros países também estão a considerar aplicações relacionadas com a inteligência artificial, mas agora as pessoas também estão a discutir a segurança e a governação da inteligência artificial, que também é uma área que não tem sido discutida. envolvido.
quando se trata da segurança e dos riscos da inteligência artificial, questões como se a inteligência artificial pode tomar decisões autónomas, se é fiável e como gerir os riscos que a inteligência artificial pode trazer têm atraído muita atenção.
a opacidade da “caixa preta” dos algoritmos de inteligência artificial traz riscos de segurança e torna as questões de confiança social cada vez mais complexas. a este respeito, hu ang, um ilustre professor do instituto de tecnologia de produção da universidade de tóquio e um acadêmico estrangeiro da academia japonesa de engenharia, disse que se a "caixa preta" da inteligência artificial é confiável é a questão final. na sua opinião, o cérebro humano é insubstituível “pelo menos num curto período de tempo, será difícil substituir o cérebro humano na tomada de decisões”.
lampros stégioulas, cátedra unesco em inteligência artificial e ciência de dados para o desenvolvimento social e professor de ciência de dados na universidade de ciências aplicadas de haia, na holanda, destacou: “todos os técnicos humanos cometem erros, muito menos as máquinas”. problema? ser capaz de substituir o cérebro humano na tomada de decisões autônoma é uma questão filosófica e também uma questão prática.”
a reference news network informou em julho deste ano que o site american fun science publicou um artigo "erros desastrosos cometidos pela inteligência artificial" em junho. o artigo listava exemplos "catastróficos" de inteligência artificial e lembrava que os riscos da inteligência artificial não podem ser ignorados.
uma investigação da bbc descobriu que as plataformas sociais estão a utilizar a ia para remover vídeos de possíveis crimes de guerra, ações que podem negar às vítimas um recurso legítimo no futuro. as plataformas sociais desempenham um papel fundamental nas guerras e na agitação social, muitas vezes como meio de comunicação para aqueles que estão em risco. a investigação concluiu que, embora o conteúdo gráfico de interesse público pudesse permanecer no site, os vídeos sobre ataques na ucrânia foram rapidamente removidos.
esses exemplos “desastrosos” também aparecem no dia a dia das pessoas. o google images teve que cancelar esse recurso depois que imagens de pessoas negras apareceram durante a busca por gorilas em seu software de ia. outras empresas, incluindo a apple, enfrentaram ações judiciais por alegações semelhantes.
shi chande acredita que as questões de segurança da inteligência artificial envolvem todos os aspectos, incluindo a defesa nacional e a subsistência das pessoas. portanto, sugeriu que os países chegassem a acordos multilaterais para mitigar os riscos de segurança da inteligência artificial.
de acordo com dai qionghai, reitor da escola de ciência e tecnologia da informação da universidade tsinghua e acadêmico da academia chinesa de engenharia, o desenvolvimento da inteligência artificial entrará na via rápida nos próximos três anos. devido à imprevisibilidade do desenvolvimento da inteligência artificial, a ética e a governação relevantes devem estar na vanguarda, e os riscos de segurança das aplicações de inteligência artificial devem ser reduzidos para que possam beneficiar a humanidade.
segundo os especialistas, é particularmente importante reforçar a cooperação internacional no domínio da inteligência artificial, especialmente a cooperação entre os principais países. a formulação conjunta de normas de segurança pode permitir que a inteligência artificial beneficie melhor a humanidade.
no dia 14 de maio deste ano, foi realizada em genebra, na suíça, a primeira reunião do diálogo intergovernamental china-eua sobre inteligência artificial. as duas partes apresentaram os seus respectivos pontos de vista e medidas de governação sobre os riscos da tecnologia de inteligência artificial, bem como as medidas tomadas para promover a inteligência artificial para capacitar o desenvolvimento económico e social. ambas as partes reconheceram que o desenvolvimento da tecnologia de inteligência artificial enfrenta oportunidades e riscos e reiteraram o seu compromisso contínuo na implementação do importante consenso alcançado pelos dois chefes de estado em são francisco.
na opinião de shi chande, a china e os estados unidos devem garantir que a comunicação possa continuar. "no domínio das novas tecnologias, os dois lados estão gradualmente a atingir um certo grau de paridade ou equilíbrio, o que pode levar a conversas mais francas e aprofundadas entre os dois lados. devemos garantir que eles continuem a trabalhar arduamente para manter a comunicação ." shizande disse.
o repórter do jornal xie ruiqiang
(este artigo é do the paper. para mais informações originais, baixe o app “the paper”)
relatório/comentários