Sokongan Anthropic terhadap rang undang-undang regulasi AI California SB 53 telah mencetuskan perdebatan hangat dalam komuniti teknologi sama ada syarikat tersebut benar-benar mempromosikan keselamatan atau terlibat dalam penguasaan regulasi untuk menghalang persaingan. Rang undang-undang ini memerlukan syarikat AI besar menerbitkan rangka kerja keselamatan, melaporkan insiden, dan menyediakan perlindungan pemberi maklumat - keperluan yang hampir sama dengan apa yang sudah dilakukan oleh Anthropic.
Keperluan Utama SB 53:
- Membangun dan menerbitkan rangka kerja keselamatan untuk pengurusan risiko bencana
- Mengeluarkan laporan ketelusan awam sebelum menggunakan model berkuasa
- Melaporkan insiden keselamatan kritikal kepada negeri dalam tempoh 15 hari
- Menyediakan perlindungan pemberi maklumat untuk pelanggaran keselamatan
- Menghadapi penalti kewangan untuk pelanggaran rangka kerja
- Terpakai kepada model yang dilatih dengan 10^26 FLOPS atau lebih
Keraguan Komuniti Mengenai Penguasaan Regulasi
Komuniti teknologi telah bertindak balas dengan keraguan meluas terhadap sokongan Anthropic untuk perundangan tersebut. Ramai pengulas melihat ini sebagai kes klasik penguasaan regulasi, di mana syarikat yang sudah mantap menyokong regulasi yang memformalkan amalan sedia ada mereka sambil mewujudkan halangan untuk pesaing baru. Kritikan tertumpu pada pemerhatian bahawa apabila syarikat menyokong regulasi yang mereka mesti patuhi, ia sering menandakan peraturan tersebut sama ada tidak membebankan mereka atau secara aktif membantu menghapuskan persaingan.
Walau bagaimanapun, situasi ini tidak sepenuhnya mudah. Sesetengah ahli komuniti menunjukkan bahawa OpenAI dan firma modal teroka Andreessen Horowitz menentang rang undang-undang tersebut, yang merumitkan teori anti-persaingan yang mudah. Perpecahan di kalangan pemain utama ini menunjukkan landskap regulasi mungkin lebih bernuansa daripada koordinasi industri semata-mata.
Pendirian Industri terhadap SB 53:
- Menyokong: Anthropic
- Menentang: OpenAI , Andreessen Horowitz ( A16Z )
- Amalan serupa telah dilaksanakan: Google DeepMind , Microsoft
- Pengecualian diberikan: Syarikat permulaan dan syarikat kecil yang tidak mungkin membangunkan model berkuasa
Kebimbangan Teknikal dan Keupayaan AI Semasa
Sebahagian besar perbincangan tertumpu pada sama ada model AI semasa benar-benar menimbulkan risiko bencana yang bertujuan diatasi oleh SB 53. Pengkritik berhujah bahawa model sedia ada masih jauh daripada mampu menghasilkan insiden kematian besar-besaran atau kerosakan kewangan yang besar, menjadikan rangka kerja regulasi sebagai birokrasi pramatang. Mereka berpendapat bahawa model berkuasa sudah wujud dan boleh berjalan pada perkakasan pengguna tanpa masalah besar.
Generasi model semasa masih jauh daripada mampu menghasilkan sebarang hasil bencana.
Penyokong membalas bahawa model tanpa sekatan dengan kuasa pengkomputeran yang mencukupi boleh mewujudkan masalah yang tidak pernah berlaku sebelum ini, dan regulasi proaktif adalah lebih baik daripada tindak balas reaktif selepas insiden berlaku.
Kesan Landskap Persaingan
Perdebatan ini mendedahkan kebimbangan yang lebih mendalam tentang bagaimana regulasi mungkin membentuk semula industri AI. Ahli komuniti bimbang bahawa kedudukan Anthropic yang berfokuskan keselamatan berfungsi sebagai strategi pemasaran dan parit persaingan. Dengan menetapkan diri mereka sebagai syarikat AI yang selamat sambil secara serentak melatih model canggih, pengkritik berhujah mereka mengambil kedua-dua belah pihak - mendakwa kedudukan moral tinggi sambil mengejar kemajuan teknologi yang sama seperti pesaing.
Ambang 10^26 FLOPS untuk regulasi khususnya menarik kritikan sebagai berpotensi sewenang-wenangnya, dengan kebimbangan bahawa ia boleh terlepas beberapa model berkuasa sambil membebankan yang lain secara tidak perlu. Spesifikasi teknikal ini menjadi penting dalam menentukan syarikat mana yang menghadapi kos pematuhan regulasi.
Implikasi Industri yang Lebih Luas
Kontroversi ini melangkaui hanya satu rang undang-undang kepada persoalan tentang bagaimana industri AI patut ditadbir. Ada yang melihat perkongsian Pentagon terbaru Anthropic sebagai bercanggah dengan retorik keselamatan mereka, melihatnya sebagai bukti bahawa dakwaan keselamatan AI korporat adalah terutamanya pemasaran dan bukannya prinsip tulen. Yang lain berhujah bahawa bekerjasama dengan agensi pertahanan sebenarnya konsisten dengan pembangunan AI yang bertanggungjawab.
Perbincangan ini mencerminkan ketegangan yang lebih luas dalam komuniti teknologi antara mereka yang percaya pembangunan AI memerlukan pengawasan dan mereka yang melihat kebanyakan regulasi yang dicadangkan sebagai halangan pramatang kepada inovasi. Memandangkan keupayaan AI terus berkembang dengan pesat, perdebatan mengenai rangka kerja tadbir urus yang sesuai ini berkemungkinan akan semakin intensif merentasi pelbagai bidang kuasa.
Rujukan: Anthropic is endorsing SB 53