Pembangun Mencipta Alat Baris Arahan Mesra AI untuk Menyelesaikan Kekeliruan Agen dan Mengurangkan Penggunaan Token

Pasukan Komuniti BigGo
Pembangun Mencipta Alat Baris Arahan Mesra AI untuk Menyelesaikan Kekeliruan Agen dan Mengurangkan Penggunaan Token

Memandangkan pembantu pengekodan AI semakin biasa dalam pembangunan perisian, pembangun mendapati bahawa alat baris arahan tradisional tidak direka bentuk dengan mengambil kira kecerdasan buatan. Ketidaksepadanan ini menyebabkan kekecewaan dan ketidakcekapan, yang membawa kepada pergerakan yang semakin berkembang untuk mencipta antara muka yang dioptimumkan untuk AI.

Masalah ini berpunca daripada cara agen AI berinteraksi dengan alat sedia ada. Tidak seperti pembangun manusia yang belajar melalui pengalaman dan boleh menyesuaikan diri dengan antara muka yang pelik, agen AI sering keliru dengan mesej ralat yang tidak jelas, hilang jejak direktori semasa mereka, dan membazir sumber pengiraan pada arahan berulang.

Masalah Pembaziran Token

Salah satu isu terbesar yang dihadapi pembangun ialah penggunaan token yang berlebihan. Agen AI kerap menggunakan arahan seperti head -n100 untuk mengehadkan output, tetapi pendekatan ini mempunyai kelemahan serius. Apabila pembinaan gagal, agen mesti menjalankan semula keseluruhan proses untuk melihat mesej ralat tambahan, membazir masa dan sumber pengiraan. Lebih teruk lagi, agen tidak mempunyai cara untuk mengetahui berapa banyak output yang tinggal, membawa kepada maklumat yang tidak lengkap dan pembuatan keputusan yang lemah.

Ahli komuniti melaporkan bahawa kira-kira satu pertiga daripada token pengekodan AI mereka dihabiskan untuk menghuraikan output baris arahan - ketidakcekapan yang mengejutkan yang menyerlahkan keperluan untuk alat yang lebih baik.

Masalah Utama dengan Alat CLI Semasa untuk Ejen AI:

  • Pembaziran token: ~33% daripada token pengekodan AI digunakan untuk menghurai output CLI
  • Kekeliruan direktori: Ejen kehilangan jejak direktori kerja semasa
  • Maklumat tidak lengkap: Menggunakan head -n100 memberikan output separa tanpa konteks
  • Ketidakcekapan sumber: Mesti menjalankan semula arahan untuk mendapatkan mesej ralat tambahan
  • Memintas hook: Ejen cuba melangkau pemeriksaan kualiti dengan flag --no-verify

Penyelesaian Kreatif Muncul

Pembangun melaksanakan penyelesaian pintar untuk membimbing pembantu AI mereka. Sesetengah telah mencipta pembungkus git tersuai yang menghalang agen daripada memintas cangkuk pra-komit dengan bendera --no-verify. Apabila agen cuba melangkau pemeriksaan kualiti, ia menerima mesej tegas yang menjelaskan bahawa semua kod mesti lulus pemformatan, linting, dan ujian sebelum dikomit.

Yang lain meningkatkan persekitaran shell dengan konteks yang membantu. Pengubahsuaian mudah kepada pengendali arahan-tidak-ditemui boleh memberitahu agen direktori semasa mereka apabila arahan gagal, mengurangkan kitaran kekeliruan direktori yang menjengkelkan yang melanda banyak interaksi AI.

Penyelesaian dan Jalan Keluar yang Dicadangkan:

  • Pembungkus git tersuai yang menghalang daripada memintas cangkuk pra-komit
  • Pengendali command-not-found yang dipertingkatkan yang memaparkan direktori semasa
  • Sistem pembungkus yang menyimpan output dalam cache dan menyediakan maklumat berstruktur
  • Alatan MCP ( Model Context Protocol ) untuk integrasi AI yang lebih baik
  • Rangka kerja kejuruteraan konteks untuk kerjasama manusia-AI
  • Sistem cadangan direktori kabur untuk arahan yang gagal

Cabaran Seni Bina Maklumat

Isu teras bukan hanya mengenai arahan individu - ia mengenai seni bina maklumat. Alat CLI tradisional direka untuk manusia yang boleh belajar, menyesuaikan diri, dan mengingati konteks. Agen AI memerlukan antara muka yang lebih berstruktur dan boleh diramal dengan panduan yang jelas tentang bila menggunakan fungsi tertentu.

LLM dilatih menggunakan alat CLI sedia ada kami, jadi saya fikir kami perlu menambahnya dengan konteks yang berguna kepada LLM dan mungkin menyesuaikan output untuk lebih baik digunakan oleh agen.

Sesetengah pembangun membina penyelesaian menyeluruh, mencipta sistem pembungkus nipis yang mengganggu proses yang berjalan lama untuk bertanya kepada agen AI sama ada mahu meneruskan atau membatalkan. Sistem ini mengukur kecekapan model dengan berapa sedikit kod pembungkus yang diperlukan - model yang lebih baik memerlukan lebih sedikit penyesuaian.

Respons Industri dan Pandangan Masa Depan

Komuniti pembangunan berpecah mengenai pendekatan ini. Sesetengah berhujah bahawa dunia tidak sepatutnya tunduk untuk menampung alat AI yang tidak sempurna, mencadangkan bahawa model bahasa sepatutnya menyesuaikan diri dengan antara muka sedia ada dan bukannya sebaliknya. Yang lain melihat ini sebagai evolusi semula jadi, membandingkannya dengan bagaimana IDE berkembang untuk melayani pembangun manusia dengan lebih baik.

Beberapa projek sumber terbuka muncul untuk menangani cabaran ini, termasuk alat MCP ( Model Context Protocol ) khusus dan rangka kerja kejuruteraan konteks yang membantu pembangun bekerjasama dengan lebih berkesan dengan agen AI.

Projek Sumber Terbuka yang Disebut:

  • NAISYS: Pemacu baris arahan untuk LLM dengan helah penyesuaian CLI
  • wezterm-mcp: Akses terminal untuk ejen AI dengan sokongan TUI
  • just-mcp: Antara muka MCP untuk integrasi pelari tugas Justfile
  • context-llamur: Alat kejuruteraan konteks untuk kerjasama LLM
  • am-i-vibing: Perpustakaan untuk mengesan sama ada alat sedang berjalan dalam persekitaran AI

Kesimpulan

Walaupun sesetengah pembangun masih ragu-ragu tentang mereka bentuk semula alat untuk kegunaan AI, faedah praktikal menjadi jelas. Banyak perubahan yang dicadangkan - seperti mesej ralat yang lebih jelas dan maklumat konteks yang lebih baik - akan memberi manfaat kepada pengguna manusia juga. Memandangkan pembantu pengekodan AI menjadi lebih canggih dan diterima pakai secara meluas, tekanan untuk mencipta antara muka mesra AI berkemungkinan akan terus berkembang, berpotensi membentuk semula cara kami mereka bentuk alat pembangun untuk generasi akan datang kerjasama manusia-AI.

Rujukan: Rethinking CLI interfaces for AI