Anthropic secara senyap-senyap telah melaksanakan perubahan ketara kepada dasar penggunaan data Claude , beralih daripada sistem ikut serta kepada sistem keluar untuk menggunakan perbualan pelanggan sebagai data latihan. Perubahan ini telah mencetuskan perbincangan meluas dalam komuniti teknologi mengenai lalai privasi dan sifat berkembang perjanjian perkhidmatan AI.
Sebelum ini, Claude beroperasi di bawah pendekatan mengutamakan privasi di mana perbualan pengguna hanya digunakan untuk latihan model apabila pengguna secara jelas memberikan maklum balas melalui penilaian ibu jari ke atas atau ke bawah. Di bawah dasar baharu, semua data sembang pengguna menjadi bahan latihan berpotensi melainkan pengguna secara aktif menavigasi ke tetapan privasi mereka untuk keluar.
Perbandingan Dasar
Aspek | Dasar Terdahulu | Dasar Baharu |
---|---|---|
Tetapan Lalai | Ikut serta sahaja dengan maklum balas eksplisit | Keluar pilihan (lalai kepada latihan) |
Pengekalan Data | Terhad kepada sesi maklum balas | Sehingga 5 tahun untuk pengguna yang ikut serta |
Perlindungan Perusahaan | Dilindungi | Masih dilindungi |
Perlindungan Pengguna | Dilindungi secara lalai | Mesti keluar pilihan secara manual |
Dilema Lalai dan Pengalaman Pengguna
Pelaksanaan perubahan ini telah menjadi titik perbalahan di kalangan pengguna. Walaupun Anthropic menyatakan bahawa pengguna mesti membuat pilihan aktif, ahli komuniti melaporkan mengalami apa yang kelihatan seperti corak gelap dalam antara muka pengguna. Pilihan ikut serta untuk perkongsian data diberikan fokus lalai apabila pengguna diminta, dan sesetengah pengguna melaporkan terlepas pilihan tersebut sepenuhnya disebabkan pop-up yang tidak tepat masa atau mesej yang tidak jelas.
Gesaan menggunakan frasa Anda boleh membantu menambah baik Claude tanpa menyampaikan dengan jelas bahawa menerima bermakna perbualan peribadi menjadi data latihan. Ini telah membawa kepada kebimbangan bahawa ramai pengguna mungkin tanpa sedar bersetuju dengan perkongsian data tanpa memahami sepenuhnya implikasinya.
Layanan Perusahaan berbanding Pengguna
Aspek yang memberitahu perubahan dasar ini ialah aplikasinya yang selektif. Pelanggan perniagaan dan perusahaan kekal dilindungi sepenuhnya daripada perubahan ini - data mereka terus dikecualikan daripada saluran latihan. Perbezaan ini menyerlahkan cadangan nilai berbeza yang Anthropic lihat dalam segmen pelanggannya, dengan pelanggan perusahaan berbayar menerima perlindungan privasi yang lebih kuat daripada pengguna individu.
Kebimbangan Pengekalan Data dan Keselamatan
Di bawah dasar baharu, pengguna yang ikut serta dalam perkongsian data akan mempunyai perbualan mereka disimpan sehingga lima tahun. Tempoh pengekalan yang dipanjangkan ini telah menimbulkan kebimbangan privasi tambahan, terutamanya memandangkan realiti teknikal bagaimana model bahasa berfungsi. Perbincangan komuniti mendedahkan bahawa data latihan berpotensi diekstrak daripada model AI melalui gesaan yang dibuat dengan teliti, menjadikan mana-mana perbualan yang dikongsi berpotensi boleh dipulihkan oleh pengguna lain.
Apa-apa yang dilatih oleh LLM harus dianggap awam kerana LLM mungkin menghasilkannya secara verbatim.
Kelemahan teknikal ini bermakna maklumat sensitif yang dikongsi dengan Claude secara teorinya boleh menjadi boleh diakses oleh pengguna lain, walaupun secara tidak langsung melalui respons model kepada pertanyaan serupa.
Perubahan Tetapan Privasi Utama
- Penggunaan Data Latihan: Kini ditetapkan kepada "diaktifkan" secara lalai untuk pengguna baru dan sedia ada
- Tempoh Pengekalan: Dilanjutkan kepada maksimum 5 tahun untuk pengguna yang kekal memilih untuk mengikut serta
- Skop: Terpakai kepada semua sesi sembang pengguna dan pengekodan yang dimulakan selepas persetujuan
- Pengecualian Perusahaan: Akaun perniagaan dan perusahaan kekal tidak terjejas
- Lokasi Menarik Diri: Menu tetapan privasi (memerlukan navigasi manual)
Implikasi Industri yang Lebih Luas
Peralihan dasar ini mencerminkan tekanan pasaran yang lebih luas yang dihadapi syarikat AI. Landskap persaingan menuntut penambahbaikan model berterusan, yang memerlukan jumlah besar data latihan yang pelbagai. Syarikat yang pada mulanya meletakkan diri mereka sebagai mementingkan privasi secara beransur-ansur mengamalkan amalan standard industri yang mengutamakan pengumpulan data berbanding privasi pengguna.
Perubahan ini juga menunjukkan bagaimana perkhidmatan AI berbeza daripada produk perisian tradisional. Platform ini adalah perkhidmatan yang berkembang di mana syarat asas boleh berubah semasa pengguna terlibat secara aktif, menjadikannya penting bagi pengguna untuk kerap menyemak tetapan privasi dan perjanjian perkhidmatan mereka.
Respons komuniti menunjukkan ini tidak akan menjadi perubahan terakhir sedemikian dalam industri AI, kerana syarikat mengimbangi privasi pengguna dengan keperluan persaingan untuk data latihan bagi menambah baik model mereka.
Rujukan: The Default Trap: Why Anthropic's Data Policy Change Matters