Anthropic Mengubah Dasar Privasi untuk Melatih Claude Menggunakan Data Pengguna Sementara Kajian Mendedahkan Guru Menggunakan AI untuk Penggredan Automatik

Pasukan Editorial BigGo
Anthropic Mengubah Dasar Privasi untuk Melatih Claude Menggunakan Data Pengguna Sementara Kajian Mendedahkan Guru Menggunakan AI untuk Penggredan Automatik

Anthropic sedang membuat perubahan ketara dalam cara syarikat mengendalikan data pengguna sambil pada masa yang sama mengeluarkan penyelidikan yang mendedahkan trend membimbangkan dalam penggunaan AI pendidikan. Syarikat di sebalik chatbot Claude ini beralih daripada pendekatan terdahulu yang memfokuskan privasi dan kini akan mula melatih model AI mereka menggunakan perbualan pengguna, menandakan perubahan ketara daripada komitmen awal mereka terhadap perlindungan data.

Pembalikan Dasar Privasi Mempengaruhi Semua Pengguna Claude

Anthropic telah mengumumkan bahawa mereka akan mula mengumpul perbualan pengguna untuk melatih versi masa depan Claude , meninggalkan dasar terdahulu mereka untuk tidak menggunakan data pelanggan bagi latihan model. Perubahan ini mewakili anjakan asas dalam pendekatan syarikat terhadap privasi pengguna. Sebelum ini, Anthropic hanya mengumpul data apabila pengguna secara eksplisit melaporkan bahan atau memilih untuk menyertai program latihan.

Dasar baharu ini berkuat kuasa pada 28 September 2025, memberikan pengguna sedia ada tetingkap terhad untuk membuat pilihan mereka. Pengguna baharu akan menghadapi keputusan ikut serta semasa persediaan akaun, manakala pengguna semasa akan melihat popup kebenaran pada log masuk seterusnya. Syarikat telah menetapkan pilihan lalai untuk membenarkan pengumpulan data, bermakna pengguna mesti secara aktif memilih untuk melindungi privasi mereka.

Perubahan Utama Dasar Privasi

  • Dasar Terdahulu: Tiada pengumpulan data pengguna untuk latihan melainkan dilaporkan secara eksplisit atau memilih untuk menyertai
  • Dasar Baharu: Lalai memilih untuk menyertai pengumpulan data bermula 28 September 2025
  • Data Terjejas: Perbualan baharu dan sesi lampau yang dilibatkan semula
  • Kawalan Pengguna: Togol tersedia dalam Tetapan Privasi untuk memilih keluar
  • Perlindungan Data: Proses automatik untuk menyembunyikan maklumat sensitif, tiada jualan kepada pihak ketiga

Penyelidikan Pendidikan Mendedahkan Kebimbangan Penggredan Automatik

Pada masa yang sama, Anthropic telah menerbitkan laporan pendidikan yang menganalisis cara guru menggunakan Claude , mendedahkan corak yang membimbangkan dalam penggunaan AI. Kajian tersebut meneliti 74,000 perbualan daripada akaun pendidikan tinggi semasa Mei dan Jun 2025, mendedahkan bahawa pendidik semakin bergantung pada AI untuk tugas sensitif seperti penilaian pelajar.

Penyelidikan mendapati bahawa walaupun pembangunan kurikulum mewakili 57% penggunaan AI dalam kalangan pendidik, 7% yang membimbangkan menggunakan Claude untuk menilai prestasi pelajar. Yang lebih membimbangkan ialah hampir separuh daripada interaksi penggredan ini—48.9%—melibatkan automasi lengkap berbanding bantuan AI. Ini berlaku walaupun pendidik sendiri menilai AI sebagai paling kurang berkesan untuk tugas penilaian.

Statistik Penggunaan Claude dalam Pendidikan

Kategori Tugas Peratusan Penggunaan Kadar Automasi
Pembangunan Kurikulum 57% Rendah (kerjasama diutamakan)
Penyelidikan Akademik 13% Rendah (kerjasama diutamakan)
Penilaian/Penggredan Pelajar 7% 48.9% (automasi tinggi)
Tugas Pentadbiran Peratusan yang tinggal Automasi tinggi
Meneroka kerumitan dan implikasi AI dalam pendidikan
Meneroka kerumitan dan implikasi AI dalam pendidikan

Fakulti Menyatakan Kebimbangan Etika Mengenai Penggredan AI

Kajian tersebut termasuk penyelidikan kualitatif daripada 22 ahli fakulti Northeastern University yang menyerlahkan isu etika yang ketara dengan penggredan automatik. Seorang profesor menekankan kewajipan moral yang dimiliki pendidik terhadap pelajar mereka, menyatakan bahawa pelajar membayar yuran pengajian untuk kepakaran manusia, bukan penilaian AI.

Anthropic sendiri menyatakan kebimbangan mengenai kadar automasi yang tinggi dalam penggredan, mengakui bahawa pendelegasian tugas pendidikan kritikal sedemikian menimbulkan persoalan serius mengenai kualiti dan keadilan pendidikan. Syarikat tersebut menyatakan bahawa walaupun sejauh mana penilaian yang dijana AI mempengaruhi gred akhir masih tidak jelas, data menunjukkan pergantungan yang besar pada penilaian automatik.

Implikasi Yang Lebih Luas untuk AI dalam Pendidikan

Masa perkembangan ini bertepatan dengan peningkatan persaingan dalam kalangan syarikat AI yang menyasarkan sektor pendidikan. Anthropic baru-baru ini melancarkan Learning Mode untuk Claude , manakala pesaing seperti OpenAI telah memperkenalkan Study Mode. Google telah menjadikan suite AI seharga 20 dolar Amerika per bulan percuma untuk pelajar kolej, menyerlahkan potensi menguntungkan kontrak pendidikan.

Penyelidikan mendedahkan bahawa pendidik lebih bersedia untuk mengautomasikan tugas pentadbiran seperti pengurusan kewangan dan rekod pelajar, sambil memilih kerjasama AI untuk aktiviti kompleks yang memerlukan pemikiran kritikal. Walau bagaimanapun, kadar automasi yang tinggi dalam penggredan menunjukkan sesetengah pendidik mungkin melanggar sempadan etika dalam penggunaan AI mereka.

Metodologi Penyelidikan

  • Sumber Data: 74,000 perbualan Claude tanpa nama daripada akaun institusi pengajian tinggi
  • Tempoh Masa: Mei-Jun 2025
  • Penyelidikan Tambahan: Data tinjauan dan kualitatif daripada 22 fakulti Northeastern University
  • Klasifikasi Tugas: Dipadankan dengan pangkalan data O*NET Jabatan Buruh AS
  • Jenis Akaun: Akaun percuma dan Pro dengan alamat e-mel institusi pengajian tinggi

Kawalan Pengguna dan Pilihan Perlindungan Data

Walaupun terdapat perubahan dasar, Anthropic mengekalkan bahawa pengguna mengekalkan kawalan ke atas data mereka. Syarikat mendakwa menggunakan proses automatik untuk menyembunyikan maklumat sensitif dan menyatakan bahawa mereka tidak menjual data pengguna kepada pihak ketiga. Pengguna yang ingin menarik diri boleh melumpuhkan togol Help improve Claude dalam tetapan privasi mereka.

Untuk pengguna sedia ada yang mungkin secara tidak sengaja bersetuju dengan pengumpulan data, tetapan boleh diubah dengan menavigasi ke Settings > Privacy > Privacy Settings. Walau bagaimanapun, sebarang data yang telah dikumpul tidak boleh diambil semula sebaik sahaja pengguna telah memilih untuk menyertai program latihan.