Anthropic telah memperkenalkan perubahan ketara kepada dasar penggunaan data untuk pengguna Claude , membenarkan syarikat tersebut melatih model AI masa depan menggunakan perbualan daripada pelanggan pelan Free, Pro, dan Max. Kemas kini ini telah menjana perbincangan yang besar dalam komuniti teknologi, dengan pengguna membangkitkan kebimbangan mengenai implikasi privasi dan komoditi karya intelek mereka.
Dasar baharu ini memerlukan pengguna membuat pilihan aktif sama ada data mereka boleh digunakan untuk latihan model, tetapi pelaksanaannya telah mendapat kritikan kerana menjadikan ikut serta sebagai pilihan lalai yang jelas. Pengguna mesti membuat keputusan sebelum 28 September 2025, atau mereka tidak akan dapat terus menggunakan Claude .
Garis Masa Dasar
- Pengguna semasa mempunyai masa sehingga 28 September 2025 untuk membuat pilihan mereka
- Perubahan hanya terpakai kepada sesi sembang dan pengekodan yang baharu atau disambung semula
- Sembang tidak aktif sebelum ini tidak akan digunakan untuk latihan
![]() |
---|
Imej ini mewakili pengumuman rasmi daripada Anthropic mengenai kemas kini penting kepada dasar penggunaan data yang mempengaruhi pengguna Claude |
Reka Bentuk Antara Muka Pengguna Yang Mengelirukan Mengecewakan Pengguna
Salah satu aduan yang paling segera tertumpu pada reka bentuk suis togol yang samar-samar dalam panel tetapan Claude . Pengguna melaporkan kesukaran menentukan sama ada mereka telah ikut serta atau tidak dalam perkongsian data disebabkan oleh penunjuk visual yang tidak jelas. Reka bentuk gelangsar tersebut telah dibandingkan secara tidak baik dengan antara muka kotak semak yang lebih mudah yang akan menghapuskan kekeliruan mengenai status tetapan semasa.
Kekeliruan UI ini amat membimbangkan memandangkan ramai pengguna mungkin secara tidak sengaja berkongsi data mereka disebabkan oleh kesamaran antara muka dan bukannya membuat pilihan yang bermaklumat.
Pengekalan Data Yang Dipanjangkan Meningkatkan Taruhan
Mungkin perubahan yang paling ketara ialah pemanjangan pengekalan data daripada 30 hari kepada lima tahun untuk pengguna yang membenarkan data mereka digunakan untuk latihan. Anthropic mewajarkan garis masa yang dipanjangkan ini dengan menjelaskan bahawa kitaran pembangunan AI menjangkau 18 hingga 24 bulan, dan pengekalan data yang lebih lama membantu mencipta model yang lebih konsisten dan pengelas keselamatan yang lebih baik.
Walau bagaimanapun, peningkatan dramatik dalam masa pengekalan ini telah menguatkan kebimbangan privasi, terutamanya apabila digabungkan dengan apa yang kelihatan sebagai tetapan lalai ikut serta.
Perbandingan Pengekalan Data
- Dengan ikut serta latihan: Tempoh pengekalan 5 tahun
- Tanpa ikut serta latihan: Tempoh pengekalan 30 hari (dasar sedia ada)
- Perbualan yang dipadamkan: Tidak digunakan untuk latihan masa depan tanpa mengira tetapan
Komuniti Mempersoalkan Motivasi Untuk Perkongsian Data
Ahli komuniti teknologi berasa hairan mengapa pengguna akan secara sukarela berkongsi data mereka untuk tujuan latihan. Ada yang membuat spekulasi bahawa keletihan privasi umum, serupa dengan keletihan popup kuki, menyebabkan pengguna menerima syarat-syarat ini tanpa pertimbangan yang teliti. Yang lain mencadangkan bahawa hanya pengguna yang bergabung dengan syarikat atau mereka yang berperanan dalam jaminan kualiti akan sengaja ikut serta.
Saya tidak faham mengapa anda akan ikut serta untuk berkongsi data anda. Adakah kerana anda percaya bahawa ia akan membantu meningkatkan model dan anda akan mendapat manfaat daripadanya? Atau sesuatu yang altruistik?
Perbincangan ini mendedahkan kebimbangan yang lebih luas mengenai komoditi karya intelek, dengan sesetengah pengguna membuat persamaan dengan bagaimana syarikat AI sebelum ini telah menggunakan bahan berhak cipta untuk latihan tanpa kebenaran eksplisit.
Skop Terhad Memberikan Sedikit Perlindungan
Perubahan dasar hanya terpakai kepada pelan pengguna dan tidak menjejaskan pelanggan perusahaan yang menggunakan Claude for Work , akses API, atau perkhidmatan kerajaan dan pendidikan. Perbezaan ini menunjukkan Anthropic mengiktiraf jangkaan privasi yang tinggi bagi pengguna perniagaan dan institusi.
Pengguna masih boleh memadamkan perbualan individu untuk menghalang penggunaannya dalam latihan, dan mereka yang mengubah fikiran boleh menarik diri pada bila-bila masa, walaupun data yang dikumpul sebelum ini mungkin masih digunakan dalam proses latihan yang berterusan.
Liputan Perkhidmatan Terjejas oleh dasar baharu:
- Pelan Claude Free, Pro, dan Max
- Claude Code daripada akaun berkaitan
Tidak terjejas oleh dasar baharu:
- Claude for Work (pelan Team dan Enterprise)
- Penggunaan API (termasuk Amazon Bedrock, Google Cloud Vertex AI)
- Claude Gov dan Claude for Education
Kesimpulan
Walaupun Anthropic patut dipuji kerana memerlukan persetujuan pengguna yang eksplisit dan bukannya melaksanakan perubahan secara senyap-senyap, pelaksanaannya telah menimbulkan persoalan sama ada syarikat tersebut benar-benar mengutamakan privasi pengguna atau hanya memenuhi keperluan undang-undang minimum. Gabungan reka bentuk UI yang mengelirukan, tempoh pengekalan yang dipanjangkan, dan lalai ikut serta yang jelas telah menyebabkan ramai pengguna berasa bahawa kepentingan privasi mereka adalah kedua kepada matlamat pengumpulan data syarikat.
Apabila tarikh akhir September 2025 semakin hampir, pengguna perlu mempertimbangkan dengan teliti sama ada faedah potensi model AI yang diperbaiki mengatasi kebimbangan privasi mereka mengenai pengekalan data jangka panjang dan penggunaan latihan.