Kelemahan Audit Log Microsoft Copilot Mendedahkan Akses Data Korporat Tanpa Jejak

Pasukan Komuniti BigGo
Kelemahan Audit Log Microsoft Copilot Mendedahkan Akses Data Korporat Tanpa Jejak

Seorang penyelidik keselamatan telah mendedahkan kelemahan yang membimbangkan dalam M365 Copilot Microsoft yang membenarkan pengguna mengakses fail sensitif tanpa meninggalkan sebarang jejak dalam log audit. Isu ini, yang ditemui pada Julai 2024 dan diperbaiki secara senyap oleh Microsoft pada Ogos, telah mencetuskan perdebatan sengit mengenai ketelusan korporat dan risiko pematuhan.

Kelemahan ini mengejutkan mudah untuk dieksploitasi. Pengguna boleh meminta Copilot untuk merumuskan fail tanpa menyediakan pautan, yang akan memintas proses log audit biasa sepenuhnya. Ini bermakna seseorang boleh mengakses dokumen sulit, rekod perubatan, atau data sensitif lain tanpa sebarang rekod muncul dalam log keselamatan syarikat.

Garis Masa Kelemahan Keselamatan:

  • 4 Julai 2024: Kelemahan keselamatan ditemui dan dilaporkan kepada Microsoft
  • 7 Julai 2024: Microsoft menukar status kepada "sedang menguji semula"
  • 10 Julai 2024: Fungsi diubah semasa masih dalam status menguji semula
  • 2 Ogos 2024: Microsoft mengumumkan pembetulan akan dikeluarkan pada 17 Ogos
  • 17 Ogos 2024: Pembetulan penuh dilaksanakan secara automatik kepada Copilot
  • 18 Ogos 2024: Penyelidik dibenarkan untuk mendedahkan secara terbuka

Pematuhan Korporat Berisiko

Komuniti telah membangkitkan kebimbangan serius mengenai implikasi pematuhan bug ini. Organisasi yang tertakluk kepada peraturan HIPAA sangat bergantung pada log audit untuk menjejaki siapa yang mengakses data pesakit dan bila. Begitu juga, syarikat yang berurusan dengan rekod kewangan atau rahsia perdagangan memerlukan jejak audit yang lengkap untuk tujuan undang-undang dan peraturan.

Syarikat tidak akan menggunakan perisian sumber terbuka kerana kebimbangan pelesenan tetapi jika anda mencucinya melalui LLM ia tidak mengapa.

Seni bina teknikal di sebalik kelemahan ini nampaknya berpunca daripada cara Copilot mengakses maklumat. Daripada membaca fail secara langsung, sistem menggunakan kandungan pra-indeks daripada sistem seperti enjin carian. Apabila pengguna meminta rumusan tanpa pautan, sistem audit gagal merekodkan interaksi ini dengan betul.

Sistem Terjejas dan Pematuhan:

  • Pengguna M365 Copilot sebelum 18 Ogos 2024
  • Organisasi yang tertakluk kepada keperluan perlindungan teknikal HIPAA
  • Syarikat yang bergantung pada log audit untuk pematuhan undang-undang
  • Mana-mana entiti terkawal yang memerlukan dokumentasi akses lengkap

Respons Senyap Microsoft

Apa yang paling mengecewakan komuniti keselamatan ialah pengendalian Microsoft terhadap pendedahan ini. Walaupun mengklasifikasikan isu ini sebagai penting, syarikat memutuskan untuk tidak mengeluarkan nombor CVE (Common Vulnerabilities and Exposures) atau memberitahu pelanggan secara terbuka mengenai masalah tersebut. Alasan mereka ialah kerana pembetulan telah digunakan secara automatik kepada Copilot, tiada tindakan manual pelanggan diperlukan.

Pendekatan ini telah menarik kritikan daripada pakar keselamatan yang berhujah bahawa organisasi mempunyai hak untuk mengetahui apabila log audit mereka mungkin tidak lengkap. Penyelidik yang menemui bug tersebut terpaksa menavigasi proses pendedahan yang mengelirukan di mana garis panduan Microsoft sendiri tidak diikuti, dan kemas kini status nampaknya terputus daripada realiti.

Percanggahan Dasar CVE Microsoft:

  • Microsoft menyatakan CVE hanya dikeluarkan apabila pelanggan perlu mengambil tindakan manual
  • Dokumentasi dasar mereka sendiri menunjukkan CVE sepatutnya dikeluarkan untuk kelemahan "penting"
  • Syarikat itu mengklasifikasikan kelemahan ini sebagai "penting" tetapi masih enggan mengeluarkan CVE
  • Tiada pemberitahuan awam diberikan kepada pelanggan yang terjejas

Kebimbangan Keselamatan AI Yang Lebih Luas

Insiden ini telah menyerlahkan kebimbangan yang lebih luas mengenai tergesa-gesa memasukkan alat AI ke dalam persekitaran perusahaan. Ramai dalam komuniti teknologi melihat dorongan semasa untuk mengintegrasikan AI di mana-mana sebagai pramatang, terutamanya memandangkan sifat tidak deterministik model bahasa besar dan kekurangan rangka kerja keselamatan yang betul.

Kelemahan ini menimbulkan persoalan mengenai bagaimana sistem AI sepatutnya mengendalikan operasi istimewa dan sama ada model keselamatan tradisional mencukupi untuk teknologi baharu ini. Sesetengah pakar mencadangkan bahawa sebarang interaksi AI dengan kandungan sensitif harus diasingkan melalui middleware yang boleh mengaudit semua percubaan akses dengan betul.

Memandang ke Hadapan

Walaupun Microsoft telah membaiki isu khusus ini, insiden ini berfungsi sebagai amaran mengenai cabaran keselamatan integrasi AI. Organisasi yang menggunakan Copilot sebelum 18 Ogos 2024, mungkin perlu menganggap log audit mereka dari tempoh tersebut berpotensi tidak lengkap.

Perdebatan berterusan mengenai sama ada Microsoft sepatutnya lebih telus mengenai pembetulan, terutamanya memandangkan komitmen terkini syarikat untuk mengutamakan keselamatan berikutan kritikan daripada agensi keselamatan siber. Buat masa ini, insiden ini kekal sebagai peringatan bahawa penggunaan pantas alat AI boleh mencipta jurang keselamatan yang tidak dijangka yang mungkin tidak kelihatan dengan segera kepada pengguna.

Rujukan: Copilot Broke Your Audit Log, but Microsoft Won't Tell You