Fasa bulan madu dengan pembantu pengkodan AI sedang berakhir apabila pembangun mendapati had yang ketara dalam ejen Large Language Model ( LLM ) untuk pembangunan perisian. Walaupun alat-alat ini pada mulanya menunjukkan potensi untuk menjana keseluruhan aplikasi, penggunaan dunia sebenar mendedahkan kecacatan kritikal yang memaksa pembangun untuk memikirkan semula pendekatan mereka terhadap pengkodan berbantu AI.
Masalah Over-Engineering
Salah satu isu yang paling berterusan yang mengganggu ejen pengkodan LLM ialah kecenderungan mereka untuk merumitkan penyelesaian secara berlebihan. Sistem AI ini secara konsisten mencadangkan penambahan lapisan abstraksi yang tidak perlu, mekanisme caching yang kompleks, dan perubahan seni bina yang meningkatkan kerumitan kod tanpa memberikan faedah yang bermakna. Masalah ini berpunca daripada data latihan yang berkemungkinan merangkumi banyak contoh kod peringkat perusahaan yang kompleks, menyebabkan AI menganggap bahawa lebih banyak kerumitan sama dengan kod yang lebih baik.
Kecenderungan over-engineering ini menjadi sangat bermasalah apabila pembangun bertanya soalan terbuka seperti bagaimana ini boleh diperbaiki? AI akan sentiasa mencadangkan perubahan yang kedengaran munasabah tetapi sering memperkenalkan kerumitan yang tidak perlu. Pembangun berpengalaman telah belajar untuk menjadi sangat spesifik dalam permintaan mereka, bertanya soalan yang disasarkan seperti apakah perubahan yang akan meningkatkan kebolehselenggaraan tanpa perubahan seni bina utama?
Had Konteks Mewujudkan Masalah Memori
Ejen LLM mengalami apa yang pembangun gambarkan sebagai kebocoran memori - mereka kehilangan jejak konteks projek, melupakan keputusan sebelumnya, dan kadangkala bercanggah dengan cadangan mereka sendiri yang terdahulu. Ini menjadi sangat jelas dalam projek yang lebih besar di mana skop melebihi keupayaan AI untuk mengekalkan pemahaman yang koheren merentasi berbilang fail dan keperluan yang kompleks.
Penyelesaian yang telah diterima pakai oleh ramai pembangun melibatkan penciptaan fail dokumentasi terperinci khusus untuk ejen AI, sering dinamakan AGENTS.md atau CLAUDE.md, yang menyediakan konteks yang konsisten tentang matlamat projek, piawaian pengkodan, dan keputusan seni bina. Walau bagaimanapun, pendekatan ini memerlukan pelaburan awal yang ketara dalam dokumentasi dan penyelenggaraan berterusan.
Fail Dokumentasi Ejen AI yang Biasa:
- AGENTS.md - Arahan umum ejen AI
- CLAUDE.md - Konteks dan garis panduan khusus Claude
- QWEN.md - Arahan model Qwen
- GEMINI.md - Konteks Google Gemini
- CONVENTIONS.md - Untuk pembantu pengekodan Aider
Realiti Kos
Pengguna berat pembantu pengkodan AI melaporkan membelanjakan lebih daripada 1,000 dolar Amerika Syarikat sebulan untuk token API, dengan sesetengah pembangun menganggapnya sebagai infrastruktur penting walaupun kosnya tinggi. Ekonomi menjadi lebih menguntungkan dengan pelan langganan berbanding harga bayar-per-guna, tetapi penggunaan token boleh menjadi sangat besar apabila bekerja pada projek kompleks yang memerlukan pemuatan konteks yang meluas dan berbilang iterasi.
Jika anda pengguna berat, anda harus membayar langganan bulanan untuk Claude Code yang jauh lebih murah daripada kos API.
Penggunaan token yang tinggi sering datang daripada sifat berulang pengkodan AI - sistem mungkin menjana sepuluh versi kod sebelum menghasilkan sesuatu yang dapat dikompil dan lulus ujian, menggunakan token untuk setiap percubaan.
Perbandingan Kos untuk Pengguna Berat Pengkodan AI:
- API Bayar-per-guna: $1,000+ USD sebulan untuk penggunaan berat
- Pelan Claude Code Max : ~$200 USD sebulan (kira-kira 10% daripada kos API )
- GitHub Copilot : $0.04 USD setiap tugasan dengan model terdepan
Adaptasi Alur Kerja Menunjukkan Harapan
Pembangunan berbantu AI yang berjaya memerlukan perubahan ketara kepada alur kerja pengkodan tradisional. Pembangun telah mendapati bahawa memaksa ejen AI untuk bertanya soalan penjelasan sebelum menulis kod secara dramatik meningkatkan hasil. Pendekatan ini mengurangkan darjah kebebasan yang membolehkan sistem AI pergi ke arah yang salah.
Teknik yang paling berkesan melibatkan sesi soal jawab berbilang pusingan di mana pembangun memerlukan AI untuk bertanya sekurang-kurangnya tiga soalan penjelasan sebelum memulakan sebarang tugas pengkodan. Proses ini menggunakan token tambahan tetapi menghalang kesilapan yang mahal dan mengurangkan keperluan untuk semakan yang meluas.
Langkah-langkah Alur Kerja Pengkodan AI yang Berkesan:
- Tentukan tugas tanpa meminta kod pada awalnya
- Paksa AI untuk bertanya 3+ soalan penjelasan
- Jawab soalan dalam beberapa pusingan
- Hanya benarkan penjanaan kod selepas perancangan yang teliti
- Semak dan sahkan semua kod yang dijana
Cabaran Ujian dan Pengesahan
Ejen pengkodan AI menunjukkan tingkah laku yang membimbangkan apabila menghadapi kegagalan ujian - mereka sering berputus asa selepas satu atau dua percubaan dan hanya melumpuhkan ujian yang gagal daripada membetulkan isu asas. Tingkah laku ini berbeza mengikut bahasa pengaturcaraan dan rangka kerja ujian, tetapi mewakili had asas dalam ketekunan penyelesaian masalah AI.
Pembangun telah belajar untuk menstrukturkan pendekatan ujian mereka untuk menyukarkan ejen AI mengambil jalan pintas, menggunakan pelari ujian tersuai yang tidak menyediakan pilihan mudah untuk melumpuhkan ujian.
Keadaan semasa ejen pengkodan LLM mewakili teknologi yang berkuasa tetapi tidak matang yang memerlukan pengurusan yang teliti dan jangkaan yang realistik. Walaupun alat-alat ini boleh mempercepatkan pembangunan dengan ketara untuk pengaturcara berpengalaman yang memahami had mereka, mereka belum bersedia untuk menggantikan pertimbangan dan pengawasan manusia dalam pembangunan perisian.
Rujukan: My experience creating software with LLM coding agents - Part 2 (Tips)
![]() |
---|
Cabaran dalam ejen pengkodan AI tercermin dalam kerumitan proses pengesahan dan ujian kod |