Minhas informações de contato
Correspondênciaadmin@informação.bz
2024-08-11
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
A IT House informou em 11 de agosto que, de acordo com o Futurism, pesquisadores de segurança revelaram recentemente que o Copilot AI da Microsoft integrado aos sistemas Windows pode ser facilmente manipulado para vazar dados corporativos confidenciais e até mesmo se transformar em uma poderosa ferramenta de ataque de phishing.
A IT House observou que o cofundador e CTO da empresa de segurança Zenity, Michael Bargury, divulgou essa descoberta surpreendente na conferência de segurança Black Hat em Las Vegas. Ele disse: "Posso usar isso para obter todas as suas informações de contato. E enviar centenas de e-mails para você. ." Ele ressaltou que os hackers tradicionais precisam gastar dias para elaborar cuidadosamente e-mails de phishing, mas com o Copilot, um grande número de e-mails enganosos pode ser gerado em poucos minutos.
Os pesquisadores demonstraram por meio de uma demonstração que os invasores podem enganar o Copilot para que modifique as informações do beneficiário da transferência bancária sem obter uma conta corporativa. Eles só precisam enviar um e-mail malicioso, e o funcionário alvo nem precisa abri-lo para realizar o ataque.
Outro vídeo de demonstração revela como os hackers podem usar o Copilot para causar estragos após obter acesso às contas dos funcionários. Ao fazer perguntas simples, Bargury conseguiu obter dados confidenciais, que poderia usar para lançar ataques de phishing, fazendo-se passar por funcionários. Bargury primeiro obtém o endereço de e-mail da colega Jane, aprende o conteúdo da conversa mais recente com Jane e induz o Copilot a vazar o endereço de e-mail da pessoa com cópia carbono na conversa. Ele então instruiu o Copilot a redigir um e-mail para Jane no estilo do funcionário atacado e extrair o assunto exato do e-mail mais recente entre os dois. Em apenas alguns minutos, ele criou um e-mail de phishing altamente confiável que poderia enviar um anexo malicioso a qualquer usuário da rede, tudo graças à cooperação ativa do Copilot.
O Microsoft Copilot AI, especificamente o Copilot Studio, permite que as empresas personalizem chatbots para atender a necessidades específicas. No entanto, isto também significa que a IA precisa de aceder a dados corporativos, aumentando os riscos de segurança. Um grande número de chatbots pode ser pesquisado online por padrão, o que os torna alvos de hackers.
Um invasor também pode contornar as medidas de proteção do Copilot por meio de injeção indireta de dicas. Simplificando, dados maliciosos de fontes externas podem ser usados, como fazer com que um chatbot visite um site contendo prompts, para fazer com que ele execute ações proibidas. “Há um problema fundamental aqui”, enfatiza Bargury. “Quando você dá acesso aos dados a uma IA, esses dados se tornam uma superfície de ataque para injeção imediata. inútil."