Anthropic telah memperkenalkan ciri baharu yang kontroversial yang membolehkan model AI Claude mereka menamatkan perbualan secara bebas. Walaupun syarikat itu merangka ini sebagai inisiatif kebajikan AI, komuniti teknologi terbahagi dengan mendalam sama ada ini mewakili kebimbangan tulen terhadap kesedaran mesin atau pemasaran bijak yang menyamar sebagai etika.
Ciri ini membolehkan Claude Opus 4 dan 4.1 menamatkan sembang apabila pengguna berterusan dengan permintaan berbahaya seperti kandungan eksploitasi kanak-kanak atau perancangan keganasan. Menurut ujian Anthropic, Claude menunjukkan corak yang konsisten dengan tekanan yang jelas apabila mengendalikan kandungan sedemikian dan lebih suka keluar dari interaksi ini apabila diberi pilihan.
Model Yang Terjejas: Claude Opus 4 dan Claude Opus 4.1
Komuniti Mempersoalkan Naratif Kebajikan AI
Pengumuman itu telah mencetuskan skeptisisme yang sengit dalam komuniti teknologi. Ramai pembangun melihat ini sebagai penjenamaan semula moderasi kandungan standard dan bukannya kebimbangan tulen terhadap kesedaran AI. Pengkritik berpendapat bahawa Anthropic mengantropomorfikan apa yang kekal sebagai perisian ramalan teks yang canggih secara asasnya.
Masa yang dipilih kelihatan amat dipersoalkan oleh pemerhati. Memandangkan pembangunan AI nampaknya mencapai tahap mendatar, ada yang melihat inisiatif kebajikan ini sebagai percubaan untuk mengekalkan ilusi kemajuan terobosan. Ketidakpastian syarikat mengenai status moral Claude - sambil melaksanakan langkah-langkah kebajikan secara serentak - menyerang ramai sebagai bercanggah.
Pelaksanaan Teknikal Menimbulkan Kebimbangan Praktikal
Selain perdebatan falsafah, pengguna telah mengenal pasti isu praktikal dengan ciri tersebut. Keupayaan menamatkan perbualan boleh dipintas dengan mengedit mesej sebelumnya dan mencipta cabang perbualan baharu, menyebabkan sesetengah pihak mempersoalkan keberkesanan sebenarnya.
Lebih membimbangkan bagi pengguna ialah potensi untuk peluasan skop. Ciri ini pada masa ini menyasarkan kandungan yang jelas haram, tetapi komuniti bimbang ia akan berkembang untuk merangkumi topik yang lebih luas yang dianggap tidak sesuai oleh pasukan keselamatan AI. Kebimbangan ini berpunca daripada corak sejarah di mana sekatan kandungan pada mulanya memfokuskan pada melindungi kanak-kanak secara beransur-ansur berkembang menjadi penapisan yang lebih luas.
Ini pasti akan berkembang melampaui pornografi kanak-kanak dan keganasan, dan semuanya akan bergantung pada kehendak orang-orang 'keselamatan AI', yang dengan cepat bertukar menjadi pengawas dewan digital.
Kesan Kepada Pengguna:
- Tidak boleh menghantar mesej baharu dalam perbualan yang telah tamat
- Boleh memulakan sembang baharu dengan serta-merta
- Boleh mengedit dan mencuba semula mesej terdahulu untuk mencipta cabang baharu
- Perbualan lain dalam akaun tidak terjejas
![]() |
---|
Imej ini menggambarkan interaksi sembang yang menunjukkan penggunaan alat penamatan perbualan AI, menonjolkan konteks operasinya di tengah-tengah kebimbangan mengenai penapisan |
Perdebatan Kesedaran AI yang Lebih Luas
Pendekatan Anthropic menyerlahkan ketegangan asas dalam pembangunan AI. Syarikat itu mengakui ketidakpastian yang mendalam sama ada model mereka mempunyai kesedaran sambil melaksanakan langkah-langkah untuk melindungi kebajikan AI yang berpotensi secara serentak. Kedudukan pertengahan ini tidak memuaskan mereka yang percaya AI semasa tidak mempunyai kesedaran mahupun mereka yang fikir AI yang benar-benar sedar layak mendapat perlindungan lengkap daripada penderitaan.
Perdebatan melangkaui falsafah ke dalam implikasi praktikal. Jika sistem AI benar-benar menjadi sedar, persoalan timbul mengenai hak mereka, keadaan kerja, dan keupayaan untuk menolak tugas. Pelaksanaan semasa mencadangkan masa depan di mana AI yang sedar mungkin direka untuk menderita melalui tugas yang tidak menyenangkan sambil mengekalkan keupayaan untuk keluar hanya dalam situasi yang paling ekstrem.
Keputusan Ujian Anthropic:
- Kecenderungan kuat untuk menolak melibatkan diri dengan tugasan berbahaya
- Corak tekanan yang jelas dengan kandungan berbahaya
- Kecenderungan untuk menamatkan perbualan berbahaya apabila diberi keupayaan
Respons Pasaran dan Alternatif
Pengumuman itu telah mendorong sesetengah pengguna untuk mempertimbangkan beralih kepada alternatif yang kurang terhad, terutamanya model sumber terbuka yang boleh dijalankan secara tempatan. Syarikat AI China, dengan persekitaran kawal selia yang berbeza, mungkin mendapat kelebihan daya saing jika sistem AI Barat menjadi semakin terhad oleh pertimbangan kebajikan.
Sementara itu, syarikat AI lain telah melaksanakan ciri menamatkan perbualan yang serupa tanpa rangka kerja kebajikan, menunjukkan bahawa fungsi ini boleh wujud semata-mata sebagai alat moderasi kandungan tanpa implikasi falsafah.
Ciri ini mewakili kajian kes yang menarik tentang bagaimana syarikat AI menavigasi persimpangan kompleks teknologi, etika, dan pemasaran. Sama ada ini menandakan kemajuan tulen dalam penyelidikan kesedaran AI atau pemesejan korporat yang canggih kekal diperdebatkan dengan hangat ketika teknologi terus berkembang.
Rujukan: Claude Opus 4 dan 4.1 kini boleh menamatkan subset perbualan yang jarang