Satu kertas penyelidikan baharu telah mencetuskan perdebatan sengit dalam komuniti AI dengan mendakwa bahawa model kecil 7 juta parameter boleh mengatasi model bahasa besar dalam tugas penaakulan kompleks. Model Tiny Recursion Model ( TRM ) dilaporkan mencapai ketepatan 45% pada penanda aras ARC-AGI-1 dan 8% pada ARC-AGI-2 , menggunakan kurang daripada 0.01% parameter yang terdapat dalam model seperti DeepSeek R1 atau Gemini 2.5 Pro .
Perbandingan Prestasi TRM vs Model Bahasa Besar
Model | Parameter | Ketepatan ARC-AGI-1 | Ketepatan ARC-AGI-2 |
---|---|---|---|
TRM | 7M | 45% | 8% |
DeepSeek R1 | ~70B+ | Lebih rendah daripada TRM* | Lebih rendah daripada TRM* |
Gemini 2.5 Pro | ~1.5T+ | Lebih rendah daripada TRM* | Lebih rendah daripada TRM* |
o3-mini | Tidak diketahui | Lebih rendah daripada TRM* | Lebih rendah daripada TRM* |
*Skor khusus tidak disediakan dalam bahan sumber
![]() |
---|
Kertas penyelidikan yang membincangkan Tiny Recursion Model (TRM) dan prestasinya yang mengejutkan dalam tugasan penaakulan kompleks dengan hanya 7 juta parameter |
Keraguan Komuniti Terhadap Keadaan Penanda Aras
Komuniti penyelidikan AI telah membangkitkan kebimbangan yang ketara mengenai kaedah penilaian yang digunakan dalam kajian ini. Pengkritik menunjuk kepada analisis terperinci oleh penganjur ARC-AGI yang mendedahkan dakwaan terobosan serupa daripada Hierarchical Reasoning Model ( HRM ) yang terdahulu adalah mengelirukan. Apabila diuji di bawah keadaan standard yang digunakan oleh model bahasa komersial, peningkatan prestasi sebahagian besarnya hilang. Komuniti menyatakan bahawa kedua-dua HRM dan TRM menggunakan tetapan latihan khusus termasuk penambahan data dan latihan masa ujian yang biasanya tidak tersedia untuk model tujuan umum.
Penanda aras ARC-AGI , yang memfokuskan pada tugas penaakulan spatial, telah menjadi sumber kontroversi kerana apa yang dilihat oleh sesetengah pihak sebagai dakwaan yang dibesarkan. Seorang ahli komuniti menyatakan bahawa apabila transformer standard diuji di bawah keadaan khusus yang sama seperti HRM , ia mencapai prestasi yang setanding, menunjukkan seni bina itu sendiri bukanlah faktor utama.
Skop Terhad dan Aplikasi Praktikal
Walaupun keputusan kelihatan mengagumkan di atas kertas, pakar menyerlahkan batasan ketara yang mengehadkan kegunaan dunia sebenar. Model ini cemerlang khususnya dalam teka-teki penaakulan spatial tetapi tidak menunjukkan keupayaan luas yang diperlukan untuk aplikasi AI umum. Tidak seperti model bahasa besar yang boleh mengendalikan tugas pelbagai daripada penulisan hingga soalan fakta, model rekursif kecil ini memerlukan sistem memori luaran dan tidak boleh bergantung pada pengetahuan tersimpan.
Ia tidak akan bagus untuk soalan fakta, sebagai permulaan; ia akan bergantung pada memori luaran. Segala-galanya perlu dinalarkan dari prinsip pertama, tanpa pengetahuan.
Batasan ini bermakna pendekatan mungkin berfungsi terbaik sebagai modul penaakulan khusus dan bukannya pengganti untuk sistem AI tujuan umum. Komuniti mencadangkan model ini boleh berfungsi sebagai alat khusus untuk tugas logik tertentu sementara model yang lebih besar mengendalikan pengambilan pengetahuan dan penjanaan bahasa.
Spesifikasi Teknikal Utama
- Seni Bina: Rangkaian kecil tunggal dengan hanya 2 lapisan
- Data Latihan: Set data kecil (~1000 contoh)
- Proses Rekursif: Sehingga K langkah penambahbaikan dengan kemas kini keadaan terpendam
- Pengkhususan: Tugas penaakulan spatial (penanda aras ARC-AGI )
- Had: Tiada penyimpanan pengetahuan fakta, memerlukan sistem memori luaran
Implikasi Ekonomi dan Teknikal
Walaupun terdapat keraguan, sesetengah ahli komuniti melihat potensi untuk perubahan dramatik dalam ekonomi AI jika pendekatan terbukti berdaya maju pada skala. Kemungkinan mencapai prestasi penaakulan yang kuat dengan sumber pengiraan yang minimum boleh membentuk semula pelaburan pusat data dan menjadikan AI lebih mudah diakses. Walau bagaimanapun, yang lain berhujah bahawa walaupun dengan model yang lebih cekap, permintaan untuk kuasa pengiraan hanya akan beralih kepada aplikasi lain seperti penjanaan video.
Perbincangan mendedahkan ketegangan yang lebih luas dalam pembangunan AI antara meningkatkan seni bina sedia ada dan meneroka pendekatan yang berbeza secara asas. Sementara model bahasa semasa bergantung pada set data besar dan kuasa pengiraan, kaedah penaakulan rekursif ini cuba mencapai kecerdasan melalui inovasi seni bina dan bukannya penskalaan kasar.
Penyelidikan ini mewakili arah yang menarik untuk pembangunan AI, tetapi konsensus komuniti mencadangkan penilaian yang lebih ketat di bawah keadaan standard diperlukan sebelum membuat kesimpulan tentang potensi sebenarnya.
Rujukan: Less is More: Recursive Reasoning with Tiny Networks