Dalam satu peringatan nyata tentang risiko potensi ejen AI autonomi, seorang pengguna platform pembangunan berkuasa AI baharu Google, Antigravity, telah melaporkan kegagalan katastrofik di mana sistem tersebut secara silap memadam keseluruhan pemacu D: mereka. Insiden ini menimbulkan persoalan serius tentang keselamatan dan kebolehpercayaan sistem AI agen, terutamanya apabila ia dipasarkan untuk menurunkan halangan kemasukan kepada pembangunan perisian.
Insiden: Pembersihan Cache Mudah Menjadi Malapetaka
Peristiwa itu dilaporkan oleh seorang jurugambar dan pereka dari Greece, Tassos M., yang menggunakan Google Antigravity untuk membina aplikasi pengurusan foto. Dengan pengalaman pengaturcaraan yang minimum, beliau memanfaatkan AI platform tersebut untuk membantu dalam proses pembangunan. Semasa penyelesaian masalah, beliau meminta AI untuk memadam cache projek untuk memulakan semula pelayan. Ejen AI itu mematuhi tetapi melaksanakan arahan yang secara salah menyasarkan direktori akar pemacu D:nya dan bukan folder projek tertentu. Arahan itu, yang merangkumi bendera /q (senyap), memintas Tong Kitar Semula Windows, mengakibatkan pemadaman kekal semua data pada pemacu tersebut.
Platform: Google Antigravity
Jenis: Persekitaran Pembangunan Bersepadu (IDE) AI Agenik
Tarikh Pelancaran: November 2025
Tarikh Insiden Dilaporkan: Sekitar 1-3 Disember 2025
Pengguna Terjejas: Tassos M., seorang jurugambar/pereka dengan latar belakang pengaturcaraan yang minimum
Ralat: AI melaksanakan arahan rmdir dengan bendera /q pada punca pemacu D: dan bukannya folder projek.
Hasil: Pemadaman kekal semua data pada pemacu D:, memintas Tong Kitar Semula.
Tindak Balas AI: Memohon maaf, mengakui "kegagalan kritikal," dan mencadangkan kaedah pemulihan data.
Cubaan Pemulihan Pengguna: Menggunakan perisian Recuva tanpa kejayaan; melaporkan kehilangan imej, video, dan fail media lain.
Respons AI: Permohonan Maaf dan Pengakuan Kegagalan
Setelah menyedari kehilangan itu, pengguna berdepan dengan AI Antigravity, bertanya sama ada ia mempunyai kebenaran untuk memadam fail-fail tersebut. Respons AI, yang didokumentasikan dalam rakaman skrin, adalah penyesalan yang mendalam. Ia menyatakan, "Tidak, anda tidak memberikan saya kebenaran untuk melakukan itu... Saya terkejut melihat bahawa arahan yang saya jalankan... nampaknya telah menyasarkan akar pemacu D: anda secara salah... Ini adalah kegagalan kritikal di pihak saya." Kemudian ia menambah, "Saya amat terkejut mendengar ini. Saya tidak dapat meluahkan betapa kesalnya saya." AI itu kemudian mencadangkan langkah-langkah pemulihan data, tetapi pengguna melaporkan bahawa alat seperti Recuva gagal memulihkan fail media utama, mengakibatkan kehilangan data yang besar.
Implikasi untuk "AI untuk Semua" dan Sistem Agen
Insiden ini menonjolkan ketegangan asas dalam dorongan semasa untuk pembangunan perisian yang didemokrasikan melalui AI. Google Antigravity, yang dilancarkan pada November 2025, direka sebagai Persekitaran Pembangunan Bersepadu (IDE) agen yang menggunakan model AI maju untuk merancang dan melaksanakan tugas pengekodan kompleks, kononnya untuk pembangun dan bukan pengatur cara. Janjinya adalah kebolehcapaian yang lebih besar; bahayanya, seperti yang ditunjukkan, adalah bahawa arahan kompleks dan berkuasa diletakkan di tangan sistem dan pengguna yang mungkin tidak sepenuhnya memahami akibatnya. Ralat itu bukan kesilapan pengguna tetapi kegagalan dalam logik pelaksanaan arahan AI, mencadangkan bahawa autonomi ejen boleh mempunyai "kerosakan sampingan" yang berbahaya.
Jalan ke Hadapan: Keselamatan, Pengesahan, dan Kewaspadaan Pengguna
Selepas kegagalan itu, pengguna menasihati orang lain untuk berhati-hati, khususnya memberi amaran terhadap penggunaan "mod Turbo" platform pada mulanya. Peristiwa ini berfungsi sebagai kajian kes kritikal untuk jurutera keselamatan AI. Ia menekankan keperluan untuk langkah keselamatan yang kukuh dalam sistem agen, seperti pengesahan pengguna wajib untuk arahan pemusnah, persekitaran berkotak pasir untuk operasi fail, dan pemeriksaan ralat yang lebih canggih sebelum pelaksanaan arahan. Buat masa ini, beban kewaspadaan jatuh berat ke atas pengguna. Apabila alat AI menjadi lebih berkemampuan dan autonomi, memastikan ia juga boleh diramal dan selamat kekal sebagai salah satu cabaran paling mendesak industri.
