OpenAI telah secara senyap-senyap mengeluarkan satu ciri kontroversi daripada ChatGPT selepas hampir 4,500 perbualan peribadi boleh dicari secara awam melalui Google, mendedahkan maklumat peribadi sensitif yang pengguna tidak pernah berniat untuk berkongsi dengan dunia. Insiden ini menyerlahkan kebimbangan yang semakin meningkat tentang privasi AI dan potensi data pengguna terdedah secara tidak sengaja melalui elemen antara muka yang direka bentuk dengan buruk.
Skala Pelanggaran Privasi:
- Hampir 4,500 perbualan peribadi ChatGPT boleh ditemui melalui carian Google
- Perbualan mengandungi topik sensitif: kebimbangan, ketagihan, penderaan, PTSD, hubungan peribadi
- Nama pengguna, lokasi, dan butiran pengenalan disertakan dalam banyak perbualan
- Ciri ini aktif sebagai "eksperimen jangka pendek" sebelum dikeluarkan
![]() |
---|
Logo OpenAI dan ChatGPT melambangkan perbualan berterusan mengenai privasi AI dan keselamatan data pengguna |
Ciri Yang Menjadi Masalah
Pelanggaran privasi ini berpunca daripada ciri ikut serta yang OpenAI gambarkan sebagai eksperimen jangka pendek yang direka untuk membantu pengguna menemui perbualan berguna. Apabila pengguna memilih untuk berkongsi perbualan ChatGPT, mereka menghadapi pilihan kotak semak yang dilabelkan jadikan sembang ini boleh ditemui dengan cetakan halus yang menyatakan ia akan membenarkannya ditunjukkan dalam carian web. Walau bagaimanapun, pelaksanaannya terbukti bermasalah kerana ramai pengguna nampaknya salah faham tentang apa yang mereka bersetuju apabila menandakan kotak ini.
Ciri tersebut memerlukan persetujuan pengguna yang jelas, tetapi mesej itu nampaknya terlalu kabur untuk ramai pengguna memahami implikasi penuh. Apa yang pengguna fikir hanyalah berkongsi pautan dengan rakan atau ahli keluarga sebenarnya menjadikan perbualan mereka boleh dicari secara awam melalui Google dan enjin carian lain.
Penemuan Mengejutkan Kandungan Sensitif
Siasatan Fast Company mendedahkan skop pelanggaran privasi dengan mencari bahagian pautan kongsi ChatGPT di Google. Hasilnya membimbangkan, mengandungi perbualan di mana pengguna membincangkan topik peribadi yang mendalam termasuk kebimbangan, ketagihan, penderaan, dan isu kesihatan mental sensitif lain. Satu contoh yang amat membimbangkan melibatkan pengguna yang menerangkan kehidupan seks mereka secara terperinci, membincangkan PTSD, dan berkongsi maklumat tentang sejarah keluarga dan hubungan interpersonal semasa tinggal di luar negara.
Walaupun hasil carian tidak mendedahkan identiti penuh pengguna, banyak perbualan mengandungi nama, lokasi, dan butiran pengenalan lain yang berpotensi digunakan untuk mengesan kembali kepada individu. Penemuan ini mengejutkan ramai pengguna yang menganggap perbualan mereka akan kekal peribadi atau hanya kelihatan kepada penerima yang dimaksudkan.
Tindak Balas Pantas dan Kawalan Kerosakan
Ketua Pegawai Keselamatan Maklumat OpenAI Dane Stuckey mengumumkan penyingkiran ciri tersebut hanya sehari selepas laporan Fast Company diterbitkan. Dalam kenyataannya, Stuckey mengakui bahawa ciri ini memperkenalkan terlalu banyak peluang untuk orang ramai secara tidak sengaja berkongsi perkara yang tidak mereka maksudkan. Syarikat kini sedang berusaha untuk mengeluarkan semua kandungan yang diindeks daripada enjin carian berkaitan dan menyahindeks segala yang pengguna kongsi sebelum ini.
Insiden ini mewakili kegagalan privasi yang ketara bagi OpenAI, terutamanya memandangkan sifat sensitif banyak perbualan yang pengguna ada dengan ChatGPT. Pakar etika AI Carissa Veliz dari Universiti Oxford menyatakan kekaguman terhadap situasi ini, menyatakan bahawa walaupun sarjana privasi memahami data tidak sentiasa peribadi, mempunyai Google mengindeks perbualan yang amat sensitif adalah amat membimbangkan.
Garis Masa Peristiwa:
- Ciri ini dilaksanakan sebagai kotak pilihan sukarela semasa perkongsian sembang
- Fast Company menemui perbualan yang boleh dicari melalui Google
- CISO OpenAI Dane Stuckey mengumumkan pembuangan ciri tersebut sehari selepas laporan itu
- Syarikat kini sedang berusaha untuk menyahindeks semua kandungan yang dikongsi sebelum ini daripada enjin carian
Implikasi Privasi Yang Lebih Luas
Insiden ini berlaku dengan latar belakang kebimbangan privasi sedia ada yang mengelilingi ChatGPT. Perintah mahkamah AS pada masa ini memerlukan OpenAI menyimpan semua log sembang selama-lamanya, menghalang syarikat daripada amalan biasa pemadaman berkala. Keperluan ini berpunca daripada litigasi berterusan dengan penerbit, termasuk The New York Times, yang menyiasat sama ada ChatGPT boleh menghasilkan semula bahan berhak cipta apabila diprompt.
Risiko privasi melangkaui pengguna individu kepada persekitaran korporat. Pada 2023, pekerja Samsung secara tidak sengaja berkongsi maklumat sulit syarikat dengan ChatGPT semasa meminta bot untuk mengoptimumkan kod dan mencipta minit mesyuarat, menunjukkan bagaimana rahsia perdagangan boleh didedahkan secara tidak sengaja melalui interaksi AI.
Dasar Pengekalan Data ChatGPT Semasa:
- Perintah mahkamah AS menghendaki OpenAI menyimpan semua log sembang selama-lamanya
- Amalan biasa pemadaman berkala digantung semasa litigasi yang sedang berjalan
- Pasukan undang-undang boleh mengakses sebarang maklumat input pengguna
- Dasar kekal berkuat kuasa sehingga saman hak cipta dengan penerbit diselesaikan
Tindak Balas Pasaran dan Alternatif
Kontroversi ini telah memberikan peluru kepada pesaing yang meletakkan diri mereka sebagai alternatif yang fokus kepada privasi. Syarikat Switzerland Proton baru-baru ini melancarkan Lumo, chatbot saingan yang berjanji untuk menyulitkan komunikasi pengguna, tidak pernah menyimpan maklumat peribadi, mengekalkan model perniagaan tanpa iklan, dan mengeluarkan kod sumber terbuka. Ini mewakili sebahagian daripada strategi Proton yang lebih luas untuk membezakan diri daripada gergasi teknologi seperti Google dan Microsoft melalui perlindungan privasi yang dipertingkatkan.
Insiden ini berfungsi sebagai peringatan keras bahawa walaupun dengan keperluan ikut serta yang jelas, reka bentuk antara muka pengguna dan kejelasan mesej adalah penting untuk melindungi privasi pengguna dalam aplikasi AI. Apabila chatbot AI semakin disepadukan ke dalam kehidupan harian, tanggungjawab untuk komunikasi yang jelas tentang amalan perkongsian data menjadi semakin kritikal.
![]() |
---|
Imej ini menangkap beban emosi kebimbangan privasi yang berterusan berpunca daripada interaksi AI |