Anthropic Mengubah Pendirian Privasi: Claude Kini Akan Berlatih Menggunakan Sembang Pengguna Kecuali Jika Memilih Keluar

Pasukan Komuniti BigGo
Anthropic Mengubah Pendirian Privasi: Claude Kini Akan Berlatih Menggunakan Sembang Pengguna Kecuali Jika Memilih Keluar

Anthropic telah mengumumkan perubahan ketara dalam dasar privasinya, mendedahkan bahawa Claude kini akan berlatih menggunakan perbualan pengguna dan sesi pengkodan melainkan pengguna secara aktif memilih keluar sebelum 28 September 2025. Ini menandakan perubahan dramatik daripada komitmen syarikat sebelum ini terhadap privasi pengguna, yang telah menjadi pembeza utama daripada pesaing seperti OpenAI.

Perubahan ini mempengaruhi pengguna pada pelan Claude Free, Pro (20 dolar Amerika Syarikat sebulan), dan Max (200 dolar Amerika Syarikat sebulan), termasuk sesi Claude Code. Walau bagaimanapun, pelanggan perusahaan yang menggunakan Claude for Work, Claude Gov, Claude for Education, dan pengguna API kekal dilindungi di bawah terma komersial berasingan yang mengekalkan piawaian pengendalian data yang lebih ketat.

Pelan dan Harga yang Terjejas:

  • Claude Free: $0 USD/bulan
  • Claude Pro: $20 USD/bulan
  • Claude Max: $200 USD/bulan
  • Sesi Claude Code disertakan dalam semua pelan yang terjejas

Perkhidmatan Terlindung (Tidak Terjejas):

  • Claude for Work (pelan Team dan Enterprise)
  • Claude Gov
  • Claude for Education
  • Penggunaan API (termasuk perkhidmatan pihak ketiga seperti Amazon Bedrock dan Google Cloud Vertex AI)
Tangkapan skrin artikel rasmi bertajuk "Updates to Consumer Terms and Privacy Policy" oleh Anthropic , menonjolkan perubahan dasar privasi yang ketara berkaitan data pengguna
Tangkapan skrin artikel rasmi bertajuk "Updates to Consumer Terms and Privacy Policy" oleh Anthropic , menonjolkan perubahan dasar privasi yang ketara berkaitan data pengguna

Kebimbangan Corak Gelap dan Isu Antara Muka Pengguna

Komuniti telah membangkitkan kebimbangan ketara mengenai cara Anthropic melaksanakan perubahan ini. Pengguna melaporkan elemen antara muka yang mengelirukan, termasuk suis togol yang kelihatan kelabu dalam kedua-dua keadaan diaktifkan dan dilumpuhkan di laman web, menjadikannya sukar untuk menentukan tetapan semasa. Popup pemberitahuan memaparkan butang Terima secara menonjol sambil menyembunyikan togol memilih keluar dalam teks yang lebih kecil di bawah, dengan togol lalai kepada Hidup.

Ramai pengguna menggambarkan secara tidak sengaja bersetuju dengan perkongsian data kerana reka bentuk antara muka yang tidak jelas. Penempatan kawalan privasi dalam kemas kini terma dan syarat telah dikritik sebagai sengaja mengaburkan pilihan penting yang sepatutnya diletakkan di hadapan dan tengah.

Pengekalan Data Lanjutan Menimbulkan Kebimbangan Privasi Tambahan

Selain daripada kebenaran latihan, Anthropic memanjangkan pengekalan data daripada 30 hari kepada lima tahun untuk pengguna yang membenarkan data mereka digunakan untuk latihan model. Tempoh pengekalan lanjutan ini terpakai walaupun kepada pengguna yang kemudiannya mengubah fikiran mereka tentang perkongsian data, kerana perbualan akan kekal dalam sistem Anthropic untuk tempoh lima tahun penuh.

Komuniti telah menyatakan kegusaran khusus mengenai dasar pengekalan ini, menyatakan bahawa lima tahun perbualan peribadi mewakili khazanah yang sangat besar untuk penggodam berpotensi atau permintaan kerajaan. Pengguna yang memilih keluar daripada latihan akan meneruskan dengan tempoh pengekalan 30 hari sedia ada, tetapi ramai merasakan pilihan lima tahun mewujudkan risiko keselamatan yang tidak perlu.

Garis Masa Utama:

  • Sekarang hingga 28 September 2025: Pengguna boleh memilih keluar melalui notifikasi pop-up atau tetapan privasi
  • 28 September 2025: Tarikh akhir untuk membuat pilihan - pengguna mesti memilih untuk terus menggunakan Claude
  • Pengekalan Data: 5 tahun untuk peserta latihan, 30 hari untuk pengguna yang memilih keluar
  • Skop: Hanya terpakai untuk sembang atau sesi pengekodan baharu atau yang disambung semula selepas menerima terma baharu

Kesan Terhadap Penyelidik dan Profesional

Perubahan dasar telah mencetuskan kebimbangan dalam kalangan profesional yang menggunakan Claude untuk kerja sensitif. Penyelidik bimbang tentang idea yang belum diterbitkan dikongsi secara tidak sengaja dengan pengguna lain melalui proses latihan. Penyelidik matematik dan pembangun telah menyatakan kebimbangan khusus mengenai teknik proprietari atau pendekatan novel yang dimasukkan ke dalam model dan berpotensi dicadangkan kepada pesaing.

Senario yang membimbangkan saya ialah Claude mempelajari idea penyelidikan yang belum diterbitkan daripada saya semasa kami berbual dan mengkod. Claude kemudian mencadangkan idea yang sama kepada orang lain, yang secara sah percaya ini kini kerja mereka.

Kebimbangan ini meluas kepada pengguna perniagaan yang mungkin secara tidak sengaja berkongsi rahsia perdagangan atau maklumat proprietari melalui interaksi mereka dengan Claude Code, walaupun percaya perbualan mereka adalah peribadi.

Respons Komuniti dan Hakisan Kepercayaan

Pengumuman itu telah mencetuskan kekecewaan meluas dalam kalangan pengguna yang secara khusus memilih Anthropic berbanding pesaing kerana pendekatan berfokuskan privasinya. Ramai pelanggan lama membatalkan akaun mereka, melihat ini sebagai pelanggaran asas kepercayaan yang melemahkan kedudukan Anthropic sebagai syarikat AI beretika.

Masa perubahan ini, yang datang ketika syarikat AI menghadapi tekanan yang semakin meningkat untuk mencari model perniagaan yang mampan, telah menyebabkan ramai melihat ini sebagai langkah yang tidak dapat dielakkan dalam proses enshittification yang mempengaruhi kebanyakan syarikat teknologi yang dibiayai modal teroka semasa mereka matang.

Pengguna boleh memilih keluar dengan melawat tetapan privasi Claude mereka atau melalui popup pemberitahuan yang muncul apabila membuka aplikasi. Walau bagaimanapun, kerosakan kepada reputasi Anthropic sebagai alternatif yang prihatin terhadap privasi mungkin terbukti lebih sukar untuk dipulihkan daripada menukar suis togol.

Rujukan: Updates to Consumer Terms and Privacy Policy