2024-08-11
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
IT House berichtete am 11. August, dass Sicherheitsforscher laut Futurism kürzlich enthüllten, dass die in Windows-Systemen integrierte Copilot-KI von Microsoft leicht manipuliert werden kann, um sensible Unternehmensdaten preiszugeben, und sich sogar in ein leistungsstarkes Phishing-Angriffstool verwandeln kann.
IT House stellte fest, dass der Mitbegründer und CTO des Sicherheitsunternehmens Zenity, Michael Bargury, diese überraschende Entdeckung auf der Black Hat-Sicherheitskonferenz in Las Vegas bekannt gab. Er sagte: „Ich kann damit alle Ihre Kontaktinformationen erhalten und Hunderte von E-Mails für Sie versenden.“ .“ Er wies darauf hin, dass herkömmliche Hacker Tage damit verbringen müssten, Phishing-E-Mails sorgfältig zu erstellen, aber mit Copilot könne in wenigen Minuten eine große Anzahl betrügerischer E-Mails generiert werden.
Forscher haben anhand einer Demonstration gezeigt, dass Angreifer Copilot dazu verleiten können, die Informationen des Banküberweisungsempfängers zu ändern, ohne ein Firmenkonto zu erhalten. Sie müssen lediglich eine bösartige E-Mail senden, und der Zielmitarbeiter muss sie nicht einmal öffnen, um den Angriff auszuführen.
Ein weiteres Demonstrationsvideo zeigt, wie Hacker mithilfe von Copilot Chaos anrichten können, nachdem sie Zugriff auf Mitarbeiterkonten erhalten haben. Durch das Stellen einfacher Fragen konnte Bargury an sensible Daten gelangen, mit denen er Phishing-Angriffe starten konnte, indem er sich als Mitarbeiter ausgab. Bargury erhält zunächst die E-Mail-Adresse der Kollegin Jane, erfährt den Inhalt des letzten Gesprächs mit Jane und veranlasst Copilot, die E-Mail-Adresse der Kopie des Gesprächs preiszugeben. Anschließend wies er Copilot an, eine E-Mail an Jane im Stil des angegriffenen Mitarbeiters zu verfassen und den genauen Betreff der letzten E-Mail zwischen den beiden herauszulesen. Dank der aktiven Mitarbeit von Copilot erstellte er in nur wenigen Minuten eine äußerst glaubwürdige Phishing-E-Mail, die einen schädlichen Anhang an jeden Benutzer im Netzwerk senden konnte.
Mit Microsoft Copilot AI, insbesondere Copilot Studio, können Unternehmen Chatbots an ihre spezifischen Bedürfnisse anpassen. Dies bedeutet jedoch auch, dass KI auf Unternehmensdaten zugreifen muss, was Sicherheitsrisiken erhöht. Viele Chatbots sind standardmäßig online durchsuchbar und somit ein Ziel für Hacker.
Ein Angreifer kann die Schutzmaßnahmen von Copilot auch durch indirekte Hint-Injection umgehen. Vereinfacht gesagt können schädliche Daten aus externen Quellen dazu verwendet werden, verbotene Aktionen auszuführen, beispielsweise wenn ein Chatbot eine Website mit Eingabeaufforderungen besucht. „Hier gibt es ein grundlegendes Problem“, betont Bargury. „Wenn Sie einer KI Zugriff auf Daten gewähren, werden diese Daten zu einer Angriffsfläche für eine sofortige Injektion. Irgendwann ist ein Bot angreifbar, wenn er nützlich ist; wenn er nicht fragil ist, ist er es.“ nutzlos."