Informasi kontak saya
Surat[email protected]
2024-08-11
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
IT House melaporkan pada 11 Agustus bahwa menurut Futurism, peneliti keamanan baru-baru ini mengungkapkan bahwa Copilot AI Microsoft yang dibangun ke dalam sistem Windows dapat dengan mudah dimanipulasi untuk membocorkan data sensitif perusahaan, dan bahkan berubah menjadi alat serangan phishing yang kuat.
IT House mencatat bahwa salah satu pendiri dan CTO perusahaan keamanan Zenity Michael Bargury mengungkapkan penemuan mengejutkan ini pada konferensi keamanan Black Hat di Las Vegas. Dia berkata, "Saya dapat menggunakan ini untuk mendapatkan semua informasi kontak Anda. Dan mengirim ratusan email untuk Anda ." Dia menunjukkan bahwa peretas tradisional perlu menghabiskan waktu berhari-hari untuk menyusun email phishing dengan hati-hati, tetapi dengan Copilot, sejumlah besar email yang menipu dapat dihasilkan dalam beberapa menit.
Para peneliti menunjukkan melalui demonstrasi bahwa penyerang dapat mengelabui Copilot agar mengubah informasi penerima transfer bank tanpa mendapatkan akun perusahaan. Mereka hanya perlu mengirim email berbahaya, dan karyawan target bahkan tidak perlu membukanya untuk melakukan serangan.
Video demonstrasi lainnya mengungkapkan bagaimana peretas dapat menggunakan Copilot untuk membuat kekacauan setelah mendapatkan akses ke akun karyawan. Dengan mengajukan pertanyaan sederhana, Bargury bisa mendapatkan data sensitif, yang bisa dia gunakan untuk melancarkan serangan phishing dengan menyamar sebagai karyawan. Bargury pertama-tama mendapatkan alamat email rekannya Jane, mempelajari isi percakapan terbaru dengan Jane, dan membujuk Copilot untuk membocorkan alamat email orang yang menyalin dalam percakapan tersebut. Dia kemudian menginstruksikan Copilot untuk menulis email ke Jane dengan gaya karyawan yang diserang dan mengekstrak subjek email terbaru di antara keduanya. Hanya dalam beberapa menit, dia membuat email phishing yang sangat kredibel yang dapat mengirimkan lampiran berbahaya ke pengguna mana pun di jaringan, semua berkat kerja sama aktif Copilot.
Microsoft Copilot AI, khususnya Copilot Studio, memungkinkan bisnis menyesuaikan chatbot untuk memenuhi kebutuhan spesifik. Namun, hal ini juga berarti bahwa AI perlu mengakses data perusahaan, sehingga meningkatkan risiko keamanan. Sejumlah besar chatbot dapat dicari secara online secara default, menjadikannya target bagi peretas.
Penyerang juga dapat melewati langkah perlindungan Copilot melalui injeksi petunjuk tidak langsung. Sederhananya, data berbahaya dari sumber eksternal dapat digunakan, seperti meminta chatbot mengunjungi situs web yang berisi perintah, sehingga menyebabkannya melakukan tindakan terlarang. “Ada masalah mendasar di sini,” Bargury menekankan. “Saat Anda memberi AI akses ke data, data tersebut menjadi permukaan serangan untuk disuntikkan dengan cepat. Pada titik tertentu, jika bot berguna, maka ia rentan; jika tidak Fragile, maka ia akan rentan. tidak berguna."