Seorang penyelidik keselamatan telah mendedahkan secara terbuka apa yang mereka dakwa sebagai kelemahan serius dalam sistem OpenAI yang boleh membenarkan pengguna melihat respons sembang yang ditujukan untuk orang lain. Penyelidik tersebut, yang menggunakan nama samaran requilence, melaporkan isu ini kepada OpenAI pada 29 Mei 2025, tetapi berkata mereka hanya menerima respons automatik tanpa susulan manusia sehingga 16 Julai.
Garis Masa Peristiwa:
- 29 Mei 2025: Kelemahan dilaporkan kepada OpenAI melalui e-mel yang dienkripsi
- Pengakuan automatik diterima, tiada susulan daripada manusia
- 16 Julai 2025: Pendedahan awam selepas tempoh menunggu 45 hari
- Isu masih belum diperbaiki menurut penyelidik
Dakwaan Kelemahan dan Perdebatan Bukti
Penyelidik tersebut mendakwa telah menemui kecacatan yang mendedahkan perbualan sembang pengguna lain, yang berpotensi termasuk data peribadi, rancangan perniagaan, dan kod proprietari. Untuk menyokong dakwaan mereka, mereka menunjuk kepada apa yang mereka gambarkan sebagai respons bocor yang menunjukkan balasan yang sesuai konteks dalam pelbagai bahasa dengan aliran perbualan yang koheren.
Bukti paling meyakinkan yang dikemukakan melibatkan data kewangan untuk sebuah syarikat yang tidak dikenali. Penyelidik tersebut menyatakan mereka menerima maklumat kewangan yang tepat tentang sebuah syarikat kecil dengan nama bukan Latin, tetapi apabila mereka kemudiannya bertanya kepada ChatGPT untuk maklumat yang sama tanpa carian web diaktifkan, sistem tersebut menjawab bahawa ia tidak mempunyai data tersebut dalam set latihannya. Ini menunjukkan respons asal datang dari sesi pengguna sebenar dengan keupayaan carian web.
Walau bagaimanapun, komuniti teknologi kekal berpecah sama ada ini merupakan bukti kelemahan yang tulen. Sesetengah pengulas berhujah bahawa model bahasa moden seperti GPT-4o cukup canggih untuk menghasilkan perbualan yang kelihatan realistik yang boleh disalah anggap sebagai interaksi pengguna sebenar. Perdebatan ini menyerlahkan cabaran asas dalam membezakan antara halusinasi AI dan kebocoran data sebenar.
Halusinasi: Apabila model AI menghasilkan maklumat palsu atau rekaan yang kelihatan realistik tetapi tidak berdasarkan data sebenar.
Kebimbangan Platform Bug Bounty
Penyelidik tersebut memilih untuk memintas program bug bounty rasmi OpenAI di Bugcrowd, dengan menyebut kebimbangan tentang perjanjian tidak mendedah yang terhad. Mereka berhujah NDA ini menghalang penyelidik daripada membincangkan penemuan mereka secara terbuka walaupun selepas isu diselesaikan, yang mereka lihat sebagai bertentangan dengan nilai komuniti keselamatan.
Keputusan ini telah mencetuskan perbincangan tentang amalan industri. Walaupun sesetengah pihak mempertahankan NDA sebagai prosedur standard untuk program bug bounty, yang lain menunjukkan bahawa syarikat utama seperti Google, Microsoft, dan Mozilla biasanya hanya memerlukan pendedahan yang diselaraskan dan bukannya kesunyian kekal. Penyelidik tersebut menyokong ketelusan dalam penyelidikan keselamatan, dengan berhujah ia memberi manfaat kepada komuniti yang lebih luas dan memastikan syarikat bertanggungjawab untuk pembaikan yang tepat pada masanya.
Piawaian Industri yang Dirujuk:
- Tetingkap pendedahan 45 hari ( CERT/CC , ISO/IEC 29147 )
- Pendedahan berkoordinasi berbanding NDA kekal
- Perbandingan dengan amalan Google , Microsoft , Mozilla
Respons Komuniti dan Keraguan
Pendedahan ini telah menghasilkan perdebatan yang ketara dalam komuniti keselamatan. Sesetengah pihak memuji penyelidik kerana mengikuti amalan pendedahan yang bertanggungjawab dan menunggu tetingkap standard 45 hari sebelum mendedahkan secara terbuka. Yang lain mempersoalkan kesahihan dakwaan tersebut, dengan menyatakan kekurangan bukti konsep teknikal atau langkah-langkah pembiakan.
Segala-galanya terdedah kepada kelemahan. Persoalannya ialah, adakah penyelidik ini telah menunjukkan bahawa mereka telah menemui dan berjaya mengeksploitasi kelemahan sedemikian.
Beberapa ahli komuniti telah merujuk kepada insiden OpenAI sebelum ini pada Mac 2020, apabila pepijat caching Redis secara ringkas mendedahkan tajuk sembang (walaupun bukan perbualan penuh) kepada pengguna lain. Konteks sejarah ini menambah berat kepada kebimbangan tentang potensi kelemahan sambil juga menunjukkan bahawa OpenAI telah menghadapi isu serupa sebelum ini.
Cadangan Penyelidik untuk Pengguna:
- Elakkan berkongsi kandungan sensitif dengan model OpenAI sehingga pembetulan rasmi dilakukan
- Gunakan ciri-ciri pembahagian data apabila tersedia
- Buang pengenal peribadi daripada arahan
- Pantau halaman keselamatan OpenAI untuk kemas kini
Implikasi untuk Keselamatan AI
Insiden ini, sama ada terbukti atau tidak, menyerlahkan kebimbangan yang lebih luas tentang keselamatan dan privasi AI. Apabila model bahasa menjadi lebih bersepadu ke dalam aliran kerja harian, potensi kesan pelanggaran data berkembang dengan ketara. Pengguna semakin berkongsi maklumat peribadi dan perniagaan yang sensitif dengan sistem AI, menjadikan pengasingan yang betul antara sesi pengguna kritikal.
Cadangan penyelidik tersebut termasuk mengelak berkongsi kandungan sensitif dengan model OpenAI sehingga respons rasmi diberikan, dan mereka menyeru amalan keselamatan yang lebih baik di seluruh industri AI, termasuk masa respons yang lebih pantas kepada laporan kelemahan dan penilaian keselamatan pihak ketiga yang tetap.
OpenAI belum lagi memberi respons secara terbuka kepada dakwaan ini, dan status kelemahan kekal tidak jelas setakat laporan ini.