notizia

L'intelligenza artificiale Copilot di Microsoft può essere manipolata dagli hacker per rubare facilmente segreti aziendali

2024-08-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

IT House ha riferito l'11 agosto che, secondo Futurism, i ricercatori di sicurezza hanno recentemente rivelato che l'intelligenza artificiale Copilot di Microsoft integrata nei sistemi Windows può essere facilmente manipolata per far trapelare dati aziendali sensibili e persino trasformarsi in un potente strumento di attacco di phishing.

IT House ha notato che il co-fondatore e CTO della società di sicurezza Zenity, Michael Bargury, ha rivelato questa sorprendente scoperta alla conferenza sulla sicurezza Black Hat a Las Vegas, dicendo: "Posso usarlo per ottenere tutte le tue informazioni di contatto e inviarti centinaia di e-mail ." Ha sottolineato che gli hacker tradizionali impiegano giorni interi per creare attentamente e-mail di phishing, ma con Copilot è possibile generare un gran numero di e-mail ingannevoli in pochi minuti.

I ricercatori hanno dimostrato attraverso una dimostrazione che gli aggressori possono indurre Copilot a modificare le informazioni del beneficiario del bonifico bancario senza ottenere un conto aziendale. Basta inviare un'e-mail dannosa e il dipendente preso di mira non ha nemmeno bisogno di aprirla per eseguire l'attacco.

Un altro video dimostrativo rivela come gli hacker possono utilizzare Copilot per provocare il caos dopo aver ottenuto l'accesso agli account dei dipendenti. Facendo semplici domande, Bargury è riuscito a ottenere dati sensibili, che ha potuto utilizzare per lanciare attacchi di phishing fingendosi dipendenti. Bargury ottiene prima l'indirizzo email della collega Jane, apprende il contenuto della conversazione più recente con Jane e induce Copilot a divulgare l'indirizzo email della persona in copia carbone nella conversazione. Ha quindi incaricato Copilot di comporre un'e-mail a Jane nello stile del dipendente aggredito e di estrarre l'oggetto esatto dell'e-mail più recente scambiata tra i due. In pochi minuti ha creato un'e-mail di phishing altamente credibile in grado di inviare un allegato dannoso a qualsiasi utente della rete, tutto grazie alla collaborazione attiva di Copilot.

Microsoft Copilot AI, in particolare Copilot Studio, consente alle aziende di personalizzare i chatbot per soddisfare esigenze specifiche. Tuttavia, ciò significa anche che l’intelligenza artificiale deve accedere ai dati aziendali, aumentando i rischi per la sicurezza. Un gran numero di chatbot sono ricercabili online per impostazione predefinita, rendendoli obiettivi per gli hacker.

Un utente malintenzionato può anche aggirare le misure di protezione di Copilot tramite l'inserimento di suggerimenti indiretti. In poche parole, possono essere utilizzati dati dannosi provenienti da fonti esterne, ad esempio facendo visitare a un chatbot un sito Web contenente istruzioni, per indurlo a eseguire azioni vietate. "C'è un problema fondamentale qui", sottolinea Bargury. "Quando si concede a un'intelligenza artificiale l'accesso ai dati, tali dati diventano una superficie di attacco per un'iniezione tempestiva. Ad un certo punto, se un bot è utile, è vulnerabile; se non è fragile, è pericoloso. inutile."