Penyelidik AI Berselisih Pendapat Sama Ada Penaakulan Chain-of-Thought Adalah Nyata Atau Sekadar Padanan Corak

Pasukan Komuniti BigGo
Penyelidik AI Berselisih Pendapat Sama Ada Penaakulan Chain-of-Thought Adalah Nyata Atau Sekadar Padanan Corak

Komuniti AI sedang terlibat dalam perdebatan sengit mengenai sama ada penaakulan chain-of-thought dalam model bahasa besar mewakili penaakulan tulen atau padanan corak yang canggih. Perbincangan ini telah meningkat berikutan kertas penyelidikan terkini yang mempersoalkan sifat asas keupayaan penaakulan AI.

Perselisihan Teras: Apakah Yang Dikira Sebagai Penaakulan Sebenar?

Perdebatan ini tertumpu pada soalan asas yang telah memecahbelahkan penyelidik dan pengamal. Kertas penyelidikan terkini dari Universiti Negeri Arizona melatih model kecil berparameter 600,000 pada tugasan transformasi abjad mudah, mendapati bahawa model tersebut bergelut apabila berhadapan dengan operasi di luar data latihannya. Para penyelidik menyimpulkan bahawa penaakulan chain-of-thought mungkin adalah fatamorgana - kelihatan nyata tetapi sebenarnya hanya corak yang dihafal.

Walau bagaimanapun, pengkritik berpendapat kesimpulan ini cacat. Mereka menunjukkan bahawa kajian tersebut menggunakan tugasan yang pada asasnya adalah pengiraan dan bukannya penaakulan. Penaakulan sebenar memerlukan keupayaan untuk mengubah hala tuju, berundur, dan mempertimbangkan pelbagai pendekatan - keupayaan yang tidak diuji oleh transformasi abjad mudah.

Parameter Kajian Arizona State University:

  • Saiz model: ~600,000 parameter (4 lapisan)
  • Jenis tugasan: Operasi transformasi abjad (contohnya, "A B C D [M1]" → "B C D E")
  • Data latihan: Pelbagai jenis operasi dengan contoh rantaian pemikiran
  • Penemuan utama: Prestasi merosot dengan ketara apabila menghadapi gabungan operasi yang tidak pernah dilihat atau perubahan format

Masalah Perbandingan Manusia

Salah satu hujah balas yang paling meyakinkan memfokuskan pada bagaimana penaakulan manusia sebenarnya berfungsi dalam praktik. Pengkritik menyatakan bahawa manusia juga sangat bergantung pada corak yang dipelajari, memasukkan butiran yang tidak berkaitan dalam penaakulan mereka, dan bergelut apabila bekerja di luar bidang kepakaran mereka. Penaakal berprinsip yang ideal yang dibandingkan oleh sesetengah kertas dengan model AI tidak wujud dalam realiti.

LLM membina rantai logik dangkal berdasarkan perkaitan token yang dipelajari, sering gagal dalam tugasan yang menyimpang daripada heuristik akal biasa atau templat yang biasa

Kritikan ini juga terpakai kepada penaakal manusia, menimbulkan persoalan sama ada kita menetapkan standard yang mustahil untuk AI.

Batasan Teknikal Kajian Semasa

Komuniti telah mengenal pasti beberapa isu teknikal dengan kajian penaakulan terkini. Penyelidikan Universiti Negeri Arizona menggunakan model yang sangat kecil yang tidak mempunyai kapasiti untuk penaakulan canggih. Keupayaan penaakulan moden nampaknya adalah sifat yang muncul yang hanya termanifestasi dalam model yang jauh lebih besar.

Selain itu, tugasan yang digunakan dalam banyak kajian tidak memerlukan penaakulan sebenar. Transformasi mudah seperti majukan setiap huruf sebanyak satu adalah tugasan pengiraan dengan laluan betul tunggal, tidak seperti masalah penaakulan tulen yang melibatkan penerokaan pelbagai penyelesaian berpotensi.

Batasan Kajian yang Dikenal Pasti oleh Komuniti:

  • Model terlalu kecil untuk keupayaan penaakulan yang muncul
  • Tugas-tugas adalah berasaskan pengiraan dan bukannya berasaskan penaakulan
  • Tiada perbandingan dengan prestasi penaakulan manusia
  • Kekurangan mekanisme untuk menjejak semula atau mengubah hala tuju
  • Tiada definisi falsafah yang jelas mengenai penaakulan "sebenar" yang diberikan

Perpecahan Falsafah vs Praktik

Perbincangan ini mendedahkan ketegangan yang lebih mendalam antara definisi falsafah penaakulan dan aplikasi praktik. Sesetengah ahli komuniti berhujah untuk memfokuskan pada penaakulan kausal dan bukannya korelasi statistik, manakala yang lain mempersoalkan sama ada perbezaan sedemikian penting jika output berguna.

Perdebatan ini juga menyentuh soalan asas mengenai kesedaran dan kecerdasan yang telah digumuli oleh falsafah selama berabad-abad. Tanpa definisi yang jelas tentang apa yang membentuk penaakulan sebenar, ia menjadi hampir mustahil untuk menjawab secara definitif sama ada sistem AI memiliki keupayaan ini.

Penambahbaikan yang Dicadangkan untuk Penyelidikan Masa Depan:

  • Gunakan model yang lebih besar (1B+ parameter) di mana keupayaan penaakulan muncul
  • Reka bentuk tugasan yang memerlukan pelbagai laluan penyelesaian dan keupayaan jejak balik
  • Sertakan perbandingan garis dasar manusia untuk tugasan penaakulan
  • Fokus kepada masalah yang memerlukan penerokaan alternatif dan bukannya pengiraan laluan tunggal
  • Integrasikan model matematik berdasarkan penyelidikan sains kognitif

Hala Tuju Penyelidikan Masa Depan

Komuniti menyeru pendekatan yang lebih canggih untuk mengkaji penaakulan AI. Cadangan termasuk membangunkan model yang boleh memproses maklumat dari semasa ke semasa dalam ruang laten dan bukannya terhad kepada penjanaan token demi token, dan mencipta penanda aras yang lebih baik yang sebenarnya memerlukan penaakulan dan bukannya pengiraan.

Terdapat juga minat yang semakin meningkat dalam model matematik penaakulan berdasarkan sains kognitif, yang boleh menyediakan rangka kerja yang lebih ketat untuk memahami dan meningkatkan keupayaan penaakulan AI.

Perdebatan ini akhirnya menyerlahkan bagaimana pembangunan AI memaksa kita untuk mempertimbangkan semula andaian asas tentang kecerdasan, penaakulan, dan kesedaran - soalan yang mungkin memerlukan inovasi teknikal dan kejelasan falsafah untuk diselesaikan.

Rujukan: Is chain-of-thought AI reasoning a mirage?