Dalam dunia kecerdasan buatan yang berkembang pesat, penyelidik keselamatan menemui kelemahan kritikal dalam alat berkuasa AI pada kadar yang membimbangkan. Penemuan terkini melibatkan Microsoft 365 Copilot mendedahkan bagaimana data syarikat sensitif boleh dicuri secara senyap melalui manipulasi pintar sistem AI. Apa yang berlaku seterusnya telah mencetuskan perdebatan hangat dalam komuniti keselamatan siber tentang bagaimana gergasi teknologi mengendalikan pendedahan kelemahan untuk produk AI mereka.
![]() |
|---|
| Gesaan log masuk untuk Microsoft 365 Copilot, menonjolkan potensi risiko yang terlibat dalam mengakses data korporat sensitif |
Penggodaman Kreatif Yang Mendedahkan Rahsia Korporat
Penyelidik keselamatan menemui rangkaian serangan canggih yang menggabungkan dua teknik berkuasa untuk mengekstrak maklumat sensitif dari Microsoft 365 Copilot. Kelemahan ini berfungsi dengan menyembunyikan arahan dalam dokumen Excel yang, apabila diproses oleh Copilot, mencetuskan AI untuk mengambil data sulit seperti e-mel terkini dan mengekodnya untuk penghantaran. Serangan menggunakan gambar rajah Mermaid—biasanya digunakan untuk membuat carta alir dan gambar rajah teknikal—sebagai kenderaan untuk pengekstrakan data dengan menyembunyikan maklumat yang dicuri dalam elemen gaya CSS butang log masuk palsu.
Apa yang menjadikan serangan ini amat bijak ialah bagaimana ia memintas jangkaan keselamatan normal. Penyelidik menggunakan suntikan arahan tidak langsung, di mana arahan berniat jahat disembunyikan dalam dokumen kelihatan normal yang diproses AI kemudian. Apabila diminta untuk membuat ringkasan dokumen, Copilot mengikuti arahan tersembunyi dan bukannya tujuan asalnya, pada dasarnya diperdaya menjadi rakan tidak sedar dalam kecurian data.
Ini adalah Microsoft memberitahu sesiapa yang menemui eksploitasi M365 Copilot untuk menjualnya daripada melaporkannya. Sangat picik dan bodoh.
Jenis Rajah Mermaid Biasa yang Digunakan dalam Pembangunan
- Carta Alir - Aliran proses dengan bentuk nod dan sambungan
- Rajah Urutan - Interaksi antara sistem mengikut masa
- Carta Gantt - Garis masa projek dan kebergantungan tugas
- Rajah Kelas - Struktur berorientasikan objek dan hubungan
- Carta Pai - Visualisasi data berkadar
Bantahan Komuniti Terhadap Keputusan Bayaran Microsoft
Komuniti keselamatan siber bertindak balas dengan kuat apabila Pusat Gerak Balas Keselamatan Microsoft (MSRC) menentukan bahawa Microsoft 365 Copilot adalah di luar skop untuk ganjaran bayaran bug, bermakna penyelidik tidak menerima pampasan kewangan untuk pendedahan bertanggungjawab kelemahan kritikal itu. Ramai profesional keselamatan melihat ini sebagai preseden berbahaya yang boleh menggalakkan penyelidik daripada melaporkan isu keselamatan AI pada masa depan.
Pemberi komen melihat ironi Microsoft menganjurkan acara sambutan penyelidik sambil secara serentak mengecualikan produk AI andalan mereka daripada program bayaran. Keputusan ini menimbulkan persoalan sama ada syarikat bersedia secukupnya untuk menangani cabaran keselamatan unik yang ditimbulkan oleh sistem AI. Beberapa pakar bimbang bahawa tanpa insentif yang betul, penyelidik mungkin memilih untuk menjual penemuan mereka di pasaran gelap daripada melaporkannya secara bertanggungjawab.
![]() |
|---|
| Butang log masuk yang menonjolkan antara muka di mana penyelidik berusaha untuk mendapatkan akses selamat kepada data sensitif dalam Microsoft 365 Copilot |
Corak Lebih Luas Kelemahan Keselamatan AI
Kejadian ini tidak terpencil—kelemahan serupa telah ditemui dalam alat pembangunan berkuasa AI lain. Beberapa hari selepas penemuan awal, penyelidik lain menerbitkan penemuan tentang kelemahan pengekstrakan data setanding dalam Cursor IDE yang juga memanfaatkan gambar rajah Mermaid. Corak ini mencadangkan bahawa sistem AI merentas pelbagai platform berkongsi kelemahan keselamatan asas berkaitan dengan bagaimana mereka memproses dan melaksanakan arahan dari sumber yang tidak dipercayai.
Komuniti keselamatan telah menamakan kelas kelemahan ini sebagai Trifecta Maut, menggabungkan pematuhan arahan tidak berkaitan dengan mekanisme pengekstrakan data. Seperti yang dinyatakan seorang pemberi komen, cabaran asasnya ialah sistem AI semasa sukar membezakan antara arahan pengguna yang sah dan arahan berniat jahat yang disembunyikan dalam data yang mereka proses—masalah yang kadang-kadang menjadi mangsa manusia juga melalui serangan kejuruteraan sosial.
Tarikh Penting dalam Garis Masa Pendedahan Kerentanan
- 30 Julai 2023: Teknik exfiltrasi data rajah Mermaid ditemui
- 4 Ogos 2023: Kerentanan serupa diterbitkan untuk Cursor IDE
- 15 Ogos 2023: Rantaian kerentanan penuh dilaporkan kepada MSRC
- 26 September 2023: MSRC menyelesaikan kes tersebut
- 3 Oktober 2023: MSRC menentukan M365 Copilot berada di luar skop untuk bounty
Masa Depan Keselamatan AI dan Pendedahan Bertanggungjawab
Microsoft akhirnya menampal kelemahan itu dengan membuang keupayaan untuk berinteraksi dengan kandungan dinamik dalam gambar rajah Mermaid dalam Copilot. Walau bagaimanapun, persoalan lebih luas kekal: bagaimana syarikat teknologi harus mengendalikan penyelidikan keselamatan untuk sistem AI yang pada dasarnya terdedah kepada jenis serangan tertentu? Konsensus komuniti nampaknya ialah mengecualikan produk AI daripada program bayaran bug hanya menjadikan sistem ini kurang selamat dalam jangka panjang.
Apabila AI menjadi semakin bersepadu dalam operasi perniagaan, keselamatan sistem ini menjadi kritikal untuk melindungi data korporat sensitif. Kejadian ini menyerlahkan ketegangan berterusan antara pelaksanaan AI pantas dan ujian keselamatan menyeluruh, mencadangkan bahawa syarikat mungkin perlu memikirkan semula pendekatan mereka terhadap pengurusan kelemahan AI kerana teknologi ini menjadi lebih meluas dalam persekitaran perusahaan.
Rujukan: Microsoft 365 Copilot - Pengekstrakan Data Sewenang-wenang Melalui Gambar Rajah Mermaid


