Anthropic dilaporkan menolak untuk mengubah suai terma perkhidmatannya bagi membenarkan agensi kerajaan AS menggunakan model AI Claude untuk aktiviti pengawasan domestik. Penolakan ini telah mencetuskan perbincangan hangat dalam komuniti teknologi mengenai keseimbangan antara prinsip keselamatan AI dan kontrak kerajaan.
Situasi ini nampaknya berpunca daripada rundingan kontrak rutin di mana agensi kerajaan berusaha menggunakan Claude untuk pelbagai tujuan, termasuk beberapa yang akan termasuk di bawah sekatan semasa Anthropic terhadap aktiviti pengawasan. Tidak seperti beberapa pesaing, Anthropic mengekalkan sekatan yang lebih luas tanpa pengecualian khusus untuk aktiviti penguatkuasaan undang-undang.
Pemain Utama dan Kedudukan:
- Anthropic: Mengekalkan sekatan pengawasan yang luas tanpa pengecualian untuk penguatkuasaan undang-undang
- OpenAI: Melarang "pemantauan individu tanpa kebenaran" (membayangkan persetujuan untuk pemantauan yang sah)
- Microsoft: Menyekat "pengawasan berterusan atau pengenalpastian masa nyata tanpa persetujuan yang sah"
- Kerajaan AS: Mencari terma yang diubah suai untuk aplikasi AI berkaitan pengawasan
![]() |
---|
Perbincangan mengenai etika AI dan kontrak kerajaan ketika Anthropic menolak untuk mengubah suai terma perkhidmatan |
Rundingan Kontrak vs Pendirian Berprinsip
Pemerhati komuniti berpecah pendapat sama ada ini mewakili kedudukan etika yang tulen atau sekadar rundingan perniagaan standard. Ada yang melihatnya sebagai perbincangan kontrak persekutuan biasa di mana agensi cuba mengubah suai terma dan syarikat menolak. Realitinya mungkin kurang dramatik daripada yang dilaporkan pada mulanya, dengan seorang pengulas menyatakan ini berbunyi seperti rundingan kontrak persekutuan biasa dengan roda berderit di suatu tempat.
Situasi ini menyerlahkan bagaimana syarikat AI menavigasi landskap kompleks kontrak kerajaan sambil mengekalkan prinsip etika yang dinyatakan. Model Anthropic sudah tersedia melalui pasaran persekutuan, menunjukkan syarikat itu tidak sepenuhnya menentang penggunaan kerajaan.
Sekatan Penggunaan Seluruh Industri
Perbincangan mendedahkan bahawa sekatan penggunaan dalam kontrak perisian bukanlah sesuatu yang luar biasa. Banyak lesen perisian tradisional mengandungi had yang serupa, terutamanya untuk aplikasi kritikal keselamatan atau ketenteraan. Malah bahasa pengaturcaraan biasa seperti Java termasuk amaran terhadap penggunaan dalam kemudahan nuklear, navigasi pesawat, atau sistem senjata.
Segala-galanya berbahaya secara lalai. Itulah maksudnya.
Pendekatan perlindungan liabiliti ini meluas merentasi industri perisian, di mana syarikat secara rutin menyekat penggunaan tertentu untuk mengelakkan pendedahan undang-undang dan mengekalkan kawalan ke atas cara produk mereka digunakan.
Contoh Sekatan Kontrak:
- Amaran teknologi Java terhadap penggunaan dalam kemudahan nuklear, navigasi pesawat, sistem senjata
- Larangan iTunes terhadap pembangunan peluru berpandu atau pengeluaran senjata nuklear/kimia/biologi
- Klausa lesen JSLint "mesti digunakan untuk kebaikan, bukan kejahatan"
- Keperluan pensijilan perisian kritikal keselamatan DoD (penarafan LOR, garis panduan DoD 882)
Cabaran Perolehan Kerajaan
Insiden ini menyerlahkan kerumitan perolehan perisian kerajaan moden. Agensi persekutuan biasanya mempunyai pasukan khusus yang menyemak dengan teliti setiap terma kontrak dan mencari penjelasan mengenai bahasa tertentu. Proses semakan menyeluruh ini menunjukkan agensi sangat sedar tentang sekatan sebelum menandatangani perjanjian.
Walau bagaimanapun, kebangkitan perkhidmatan AI telah memperkenalkan cabaran baru. Tidak seperti pembelian perisian tradisional, model AI-sebagai-perkhidmatan memberikan pembekal penglihatan berterusan tentang cara produk mereka digunakan, berpotensi membenarkan mereka menguatkuasakan sekatan secara masa nyata.
Implikasi Lebih Luas untuk Tadbir Urus AI
Kebuntuan ini menimbulkan persoalan tentang bagaimana syarikat AI harus mengimbangi kepentingan komersial dengan prinsip etika. Walaupun ada yang melihat kedudukan Anthropic sebagai sesuatu yang mengagumkan, yang lain mempersoalkan sama ada ia mewakili komitmen tulen terhadap keselamatan atau sekadar taktik rundingan.
Situasi ini juga menyerlahkan ketegangan yang semakin meningkat antara penggunaan pantas alat AI kerajaan dan tumpuan industri teknologi yang semakin meningkat terhadap pembangunan AI yang bertanggungjawab. Apabila AI menjadi lebih penting kepada operasi kerajaan, konflik mengenai terma penggunaan ini berkemungkinan menjadi lebih biasa dan berkesan.
Hasil pertikaian khusus ini mungkin menetapkan preseden untuk bagaimana syarikat AI lain mendekati rundingan kontrak kerajaan yang serupa pada masa hadapan.
Rujukan: Exclusive: Anthropic inks White House with limits on models' use