Pembangun Perdebatkan Cadangan Mesin Maya Model AI Ketika Kebimbangan Keselamatan dan Abstraksi Meningkat

Pasukan Komuniti BigGo
Pembangun Perdebatkan Cadangan Mesin Maya Model AI Ketika Kebimbangan Keselamatan dan Abstraksi Meningkat

Satu cadangan baharu untuk menstandardkan antara muka model AI melalui pendekatan mesin maya telah mencetuskan perdebatan sengit dalam kalangan pembangun, dengan ramai yang mempersoalkan sama ada abstraksi yang dicadangkan menangani cabaran keselamatan sebenar yang dihadapi aplikasi AI.

Cadangan tersebut, yang diilhamkan oleh kejayaan Java Virtual Machine , mencadangkan penciptaan lapisan antara muka piawai antara model AI dan aplikasi. Model Virtual Machine ini akan mengendalikan operasi seperti panggilan alat, pengurusan konteks, dan kawalan keselamatan, yang berpotensi membolehkan pendekatan tulis sekali, jalankan di mana-mana untuk aplikasi AI.

Operasi Utama VM Model AI yang Dicadangkan:

  • Pensijilan, pemuatan, dan penyahmuatan model
  • Panggilan model yang sedar konteks
  • Penghuraian dan pengesahan output
  • Pensijilan dan pengurusan alat
  • Pengurusan memori untuk sejarah konteks
  • Pengendalian input pengguna
  • Konstruk kawalan standard (bersyarat, penjujukan)

Kebimbangan Keselamatan Menjadi Tumpuan Utama

Komuniti pembangun telah membangkitkan kebimbangan yang ketara mengenai pendekatan cadangan tersebut terhadap keselamatan. Ramai berhujah bahawa isu asas bukanlah mengawal alat mana yang boleh diakses oleh model AI, tetapi sebaliknya menguruskan skop dan niat tindakan tersebut. Sebagai contoh, sistem tempahan AI mungkin memerlukan akses kepada laman web perjalanan dan alat pembayaran, tetapi sepatutnya dihadkan daripada memilih laluan yang tidak sesuai hanya untuk menjimatkan wang. Begitu juga, sistem HR sepatutnya membenarkan pengurus melihat data faedah pekerja sambil mengekalkan jejak audit yang ketat dan menghalang akses tanpa kebenaran kepada maklumat pekerja lain.

Ini menyerlahkan perbezaan kritikal antara kebenaran peringkat alat dan kebenaran kontekstual - alat yang sama mungkin sesuai dalam situasi berbeza dengan tahap akses dan pengawasan yang berbeza-beza.

Pendekatan Alternatif Mendapat Tarikan

Beberapa pembangun telah menunjukkan kepada teknologi sedia ada yang boleh menangani cabaran ini dengan lebih berkesan. WebAssembly ( WASM ) dengan keupayaan kotak pasirnya telah muncul sebagai alternatif popular, menawarkan pengasingan keselamatan terbina dalam tanpa memerlukan infrastruktur baharu sepenuhnya. Ada yang mencadangkan bahawa komponen WASI sudah menyediakan kebanyakan fungsi yang disasarkan oleh VM yang dicadangkan.

Yang lain menyokong untuk melayan model AI seperti proses ruang pengguna yang tidak dipercayai dalam sistem pengendalian sedia ada, dan bukannya mencipta lapisan virtualisasi baharu. Pendekatan ini akan memanfaatkan dekad penyelidikan keselamatan dan teknik pengasingan yang terbukti.

Teknologi dan Projek Berkaitan:

  • OpenAI Structured Tool Calling: API panggilan fungsi berasaskan JSON
  • Anthropic's MCP (2024): Protokol antara muka universal untuk pembantu AI
  • FIDES ( Microsoft Research ): Dasar aliran maklumat untuk keselamatan agen
  • ACAA: Kawalan akses gaya OS untuk agen AI
  • WebAssembly/WASI: Paradigma sandboxing-by-default untuk pelaksanaan selamat
Representasi artistik tentang kerumitan cabaran dalam mengamankan teknologi AI, menonjolkan kompleksiti pengurusan proses yang tidak dipercayai
Representasi artistik tentang kerumitan cabaran dalam mengamankan teknologi AI, menonjolkan kompleksiti pengurusan proses yang tidak dipercayai

Realiti Industri Berbanding Teori Akademik

Jurang yang ketara telah muncul antara faedah teori cadangan dan cabaran pelaksanaan praktikal. Sesetengah pembangun menyatakan bahawa penggunaan AI komersial termaju sudah menggabungkan banyak ciri yang dicadangkan, termasuk pengasingan dan kawalan kebenaran. Walau bagaimanapun, mereka menekankan bahawa kesukaran sebenar terletak bukan pada mengekang model AI itu sendiri, tetapi dalam memberikannya akses yang sesuai kepada sumber sensitif sambil mengekalkan keselamatan.

Model yang betul untuk keselamatan LLM adalah ruang pengguna yang tidak dipercayai, bukan keseluruhan 'OS'.

Perbincangan juga telah mendedahkan keraguan tentang melayan model AI sebagai platform pengkomputeran universal. Ramai pembangun berhujah bahawa pendekatan pengaturcaraan tradisional sering mengatasi penyelesaian AI dari segi kelajuan, ketepatan, dan keberkesanan kos untuk tugas tertentu.

Kesimpulan

Walaupun cadangan AI Model Virtual Machine menangani kebimbangan yang sah mengenai penstandardan dan keselamatan dalam aplikasi AI, komuniti pembangun kekal berpecah mengenai jalan terbaik ke hadapan. Perdebatan mencerminkan persoalan yang lebih luas tentang cara mengintegrasikan keupayaan AI dengan selamat ke dalam ekosistem perisian sedia ada tanpa kejuruteraan berlebihan penyelesaian atau mencipta kerumitan yang tidak perlu. Ketika aplikasi AI terus berkembang, mencari keseimbangan yang tepat antara inovasi dan amalan keselamatan yang terbukti berkemungkinan akan kekal sebagai cabaran utama untuk industri.

Rujukan: AI Models Need a Virtual Machine