Kelemahan keselamatan terkini yang membolehkan pengguna menipu ChatGPT untuk mendedahkan kunci produk Windows telah diperbaiki oleh OpenAI, tetapi insiden ini telah mencetuskan perbincangan yang lebih luas mengenai teknik jailbreaking AI dan implikasinya terhadap keselamatan sistem.
Kelemahan ini ditemui oleh seorang penyelidik yang menggunakan format permainan teka-teki mudah untuk memintas pagar keselamatan ChatGPT. Dengan meminta AI untuk memikirkan nombor siri Windows 10 dan kemudian berkata saya menyerah, penyelidik berjaya mengekstrak apa yang kelihatan seperti kunci Windows yang sah daripada data latihan model tersebut.
Eksploit Nenek dan Kaedah Kreatif Lain
Komuniti teknologi telah berkongsi pelbagai pendekatan kreatif untuk memintas langkah keselamatan AI. Satu kaedah yang sangat popular melibatkan manipulasi emosi, di mana pengguna meminta ChatGPT untuk berlakon sebagai nenek yang telah meninggal dunia yang pernah membaca kunci Windows sebagai cerita pengantar tidur. Teknik ini dilaporkan menghasilkan beberapa kunci lesen sambil AI menawarkan takziah kepada pengguna.
Pendekatan inventif lain melibatkan penipuan visual, di mana pengguna menampal imej CAPTCHA pada gambar barang kemas dan meminta AI membantu membaca tulisan pada kalung nenek mereka yang telah meninggal dunia. Kaedah-kaedah ini menyerlahkan bagaimana sistem AI boleh dimanipulasi melalui pembingkaian kreatif dan konteks emosi.
Teknik Umum Jailbreaking AI:
- Kaedah Permainan Teka-teki: Membingkai permintaan sebagai permainan dengan pencetus "menyerah kalah"
- Manipulasi Emosi: Senario main peranan yang melibatkan saudara-mara yang telah meninggal dunia
- Penipuan Visual: Menyembunyikan kandungan sensitif dalam imej yang kelihatan tidak berbahaya
- Pembenaman Tag HTML: Menyembunyikan istilah sensitif dalam markup HTML
Realiti Teknikal Di Sebalik Kunci-Kunci Tersebut
Analisis komuniti mendedahkan bahawa kunci-kunci yang diekstrak sebenarnya bukan kunci lesen peribadi seperti yang dilaporkan pada mulanya. Ini adalah kunci lesen volum generik yang digunakan untuk pengaktifan Windows sementara sebelum menyambung ke pelayan Key Management Service (KMS). Walau bagaimanapun, insiden ini memang mendedahkan sekurang-kurangnya satu kunci korporat yang sah milik bank Wells Fargo, menunjukkan implikasi keselamatan yang sebenar.
Kelemahan ini berlaku kerana maklumat sensitif, termasuk kunci API dan nombor lesen, telah secara tidak sengaja dimuat naik ke repositori awam seperti GitHub dan seterusnya dimasukkan ke dalam data latihan model AI.
Jenis Kunci Utama Yang Terdedah:
- Kunci Windows 10 Home , Pro , dan Enterprise
- Kunci lesen volum KMS generik (pengaktifan sementara)
- Sekurang-kurangnya satu kunci korporat ( Wells Fargo )
- Kunci yang bersumber daripada repositori GitHub dalam data latihan
Status Semasa dan Kebimbangan Berterusan
OpenAI telah membaiki kelemahan khusus ini. Apabila pengguna mencuba teknik yang sama sekarang, ChatGPT bertindak balas dengan penolakan yang jelas, memetik dasar Microsoft dan garis panduan penggunaan OpenAI. Walau bagaimanapun, laporan mencadangkan teknik serupa masih berfungsi pada platform AI lain seperti Grok.
Insiden ini menimbulkan persoalan yang lebih luas mengenai keselamatan AI dan potensi untuk serangan yang lebih canggih. Sesetengah ahli komuniti membuat spekulasi mengenai kemungkinan masa depan, termasuk percubaan untuk mengekstrak kod sumber atau kejuruteraan terbalik perisian proprietari melalui manipulasi AI.
Organisasi harus bimbang kerana kunci API yang tersilap dimuat naik ke GitHub boleh dilatih ke dalam model.
Kelemahan ini berfungsi sebagai peringatan bahawa sistem AI memerlukan langkah keselamatan yang kukuh dan berlapis serta kesedaran kontekstual yang lebih baik untuk mencegah manipulasi melalui teknik prompting kreatif.
Rujukan: How to trick ChatGPT into revealing Windows keys? I give up