notícias

Depois de encher o querosene, coloque óleo de cozinha? A IA pode dizer a diferença! Acadêmicos e especialistas enfatizam que a segurança da inteligência artificial deve ter “pessoas informadas”

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Resumo:A inteligência artificial e a sociedade humana têm, na verdade, uma relação simbiótica, incluindo relações auxiliares, interação humano-computador, relações humanas e competitivas.


Segundo relatos, o navio-tanque encheu-o com querosene, não o limpou e depois encheu-o com óleo de cozinha. Uma operação tão “extensa” desafiou as preocupações do público com a segurança alimentar. O “AI Eye” baseado em inteligência artificial pode ser capaz de supervisionar tais violações em tempo hábil.

"Usando câmeras existentes e recém-adicionadas em postos de gasolina e usando o modo de análise de vídeo em nuvem para identificar comportamentos durante o processo de descarga, reabastecimento, descarga, enchimento de gás, descarga e adição de líquido, alarme, estatísticas e análise de ações anormais para estabelecer inteligência Plataforma de posto de gasolina.” No dia 2, a 12ª Conferência de Segurança da Internet Shanghai AI Summit, realizada no Parque de Inovação China-Israel no distrito de Putuo, revelou que ao implantar a plataforma de análise inteligente de vídeo de IA nos recursos de nuvem da China Telecom e implementá-la em energia empresas, 300 análises de IA de comportamentos na área de descarga de petróleo usando fluxos de vídeo rodoviários permitem a identificação de caminhões-tanque, identificação de extintores de incêndio, detecção de produtos petrolíferos e detecção de oleodutos.


Parque de Inovação China-Israel (Xangai).

[Fraude deepfake de IA aumenta em 3.000%]

Na verdade, grandes modelos de IA estão a capacitar a governação social em grandes quantidades, ajudando a resolver os problemas de subsistência das pessoas e a melhorar a sensação de segurança das pessoas. Wei Wenbo, vice-gerente geral do departamento de negócios de produção da China Telecom Artificial Intelligence Technology Co., Ltd., deu exemplos, como supervisão de catering inteligente para garantir "cozinhas iluminadas e fogões luminosos", segurança nas ruas e vilas para cuidar dos idosos e evitar afogamentos e supervisão inteligente da colocação de lixo e estacionamento de veículos elétricos. Com a padronização, até mesmo andar de bicicleta elétrica sem usar capacete pode “distinguir e diferenciar claramente”.

No entanto, a própria IA também inevitavelmente apresenta problemas de segurança. Da mudança de rosto da IA ​​à mudança de voz da IA, o "Relatório de Segurança de Inteligência Artificial de 2024" afirma que a IA não apenas amplifica as ameaças existentes à segurança da rede, mas também introduz novas ameaças, desencadeando um aumento exponencial nos incidentes de segurança da rede. Em 2023, as fraudes de falsificação profunda baseadas em IA aumentarão 3.000% e o número de e-mails de phishing baseados em IA aumentará 1.000%.

Liu Quan, acadêmico estrangeiro da Academia Russa de Ciências Naturais e engenheiro-chefe adjunto do Instituto de Pesquisa CCID, citou uma pesquisa realizada entre líderes da indústria de TI em grandes modelos como o ChatGPT, que mostrou que 71% dos entrevistados acreditavam que a inteligência artificial generativa melhoraria a segurança dos dados das empresas e traria novos riscos. Para evitar a fuga de dados sensíveis, empresas tecnológicas como a Microsoft e a Amazon restringiram ou proibiram os seus funcionários de utilizar ferramentas generativas de inteligência artificial.


Cúpula de IA de Xangai.

["Use moldes para fazer moldes" para garantir a segurança na "Batalha de Centenas de Modelos"]

Geração multimodal, surgimento de grandes modelos. Até agora, só no meu país, o número de modelos grandes que passaram pelo duplo registo atingiu 117. De acordo com estatísticas do "Livro Branco de Pequim sobre a Aplicação Inovadora de Grandes Modelos na Indústria de Inteligência Artificial (2023)", em outubro do ano passado, havia 254 fornecedores de grandes modelos com parâmetros "1 bilhão+" em meu país. Atualmente, estão disponíveis modelos domésticos em grande escala com centenas de bilhões de parâmetros, e o número de neurônios no cérebro humano também é da ordem de 100 bilhões. A IDC prevê que o mercado de grandes modelos de IA da China atingirá 21,1 mil milhões de dólares até 2026.

Quando a inteligência artificial entra num período crítico para implementação em grande escala, estes novos riscos, que vão desde fugas de privacidade, discriminação de algoritmos e preconceitos de dados, também colocam sérios desafios ao desenvolvimento de alta qualidade da inteligência artificial. He Fan, diretor de produtos do 360 Digital Intelligence Group, disse que na era dos grandes modelos, é necessário “usar moldes para modelar” para garantir a segurança, o que significa usar o big data de segurança acumulado nos últimos 20 anos e adicionar conhecimento especializado para treinar grandes modelos de segurança de alto nível.

Chen Xiaohang, vice-gerente geral do Departamento de Rede de Informação da filial de Xangai da China Telecom, também disse ao repórter do Liberation Daily Shangguan News que na "Batalha de Centenas de Modelos", modelos grandes são inerentemente "papel em branco" e exigem "educação" constante e "treinamento", portanto, eles devem controlar a direção da opinião pública na fonte e filtrar informações inúteis no processo para evitar que grandes modelos sejam "mal direcionados".


Conferência de Segurança da Internet do ISC.

[A relação competitiva entre homem e máquina requer “pessoas no circuito”]

Como todos sabemos, a natureza de “caixa negra” dos modelos de IA torna os seus processos de tomada de decisão difíceis de explicar, o que é especialmente crítico em domínios de alto risco, como finanças e cuidados médicos. Tanto os reguladores como os clientes do setor precisam de compreender a base das decisões de modelo para garantir a transparência e a equidade dos seus modelos de pontuação de crédito. Ao mesmo tempo, o próprio modelo de IA pode apresentar vulnerabilidades de segurança. Por exemplo, os hackers podem atacar através de amostras adversárias, fazendo com que o modelo produza resultados incorretos sob entradas aparentemente normais, causando riscos de segurança.

Aos olhos do acadêmico Liu Quan, as características óbvias de "faca de dois gumes" da IA ​​trouxeram muitos benefícios e enormes desafios para a humanidade. A inteligência artificial e a sociedade humana estão, na verdade, em uma relação simbiótica, incluindo relações auxiliares, interação humano-computador, relações humanas e competitivas. É verdade que com o rápido desenvolvimento de uma inteligência artificial fraca para uma inteligência artificial forte, 90% dos empregos tripulados podem ser substituídos pela inteligência artificial como “trabalhos não tripulados”. E os 10% das pessoas no trabalho que não se deitam devem ter enormes quantidades de dados e fortes capacidades de operação de inteligência artificial.

No filme “The Wandering Earth 2”, o robô MOSS expressou o conceito de “Human In Loop” e também teve a ideia de “destruir a humanidade”. Isto ilustra ainda mais que apenas a iteração da inteligência artificial liderada por humanos pode formar um sistema de circuito fechado homem-máquina. Incluindo garantias de segurança de IA, as máquinas não podem prescindir da intervenção humana em nenhum momento. Liu Quan disse que, em essência, a inteligência artificial não pode substituir a maneira como os humanos pensam, nem pode substituir completamente os humanos. Caso contrário, o desenvolvimento da IA ​​poderá perder o seu significado original.