Komuniti kecerdasan buatan sedang terlibat dalam perdebatan sengit berikutan kertas penyelidikan Apple yang mencabar keupayaan penaakulan Large Language Models ( LLMs ). Kertas kajian tersebut, yang mengkaji bagaimana sistem AI ini mengendalikan masalah kompleks seperti teka-teki Tower of Hanoi , telah mencetuskan perbincangan meluas tentang sama ada teknologi AI semasa benar-benar berfikir atau sekadar meniru corak daripada data latihan.
Gary Marcus , seorang penyelidik AI terkemuka dan pengkritik, mempertahankan dapatan Apple terhadap tujuh hujah balas biasa daripada golongan optimis AI . Analisisnya telah menarik sokongan dan kritikan daripada komuniti teknologi, menonjolkan perpecahan mendalam mengenai keupayaan semasa AI dan potensi masa depannya.
Perselisihan Teras: Pemadanan Corak Berbanding Penaakulan Sebenar
Perdebatan utama berkisar tentang sama ada LLMs menunjukkan penaakulan tulen atau pemadanan corak yang canggih. Pengkritik berhujah bahawa sistem ini gagal apabila berhadapan dengan masalah yang benar-benar baru di luar data latihan mereka. Mereka menunjukkan kepada dapatan kajian Apple bahawa model AI bergelut dengan variasi teka-teki yang terkenal, menunjukkan sistem tersebut kekurangan pemahaman asas.
Walau bagaimanapun, pembela teknologi AI semasa berpendapat bahawa kritikan ini terlepas nilai praktikal yang disediakan oleh alat-alat ini. Mereka berhujah bahawa walaupun LLMs bergantung pada pengecaman corak berbanding penaakulan tulen, pendekatan ini masih memberikan hasil berguna dalam banyak aplikasi dunia sebenar.
Penemuan Utama Kertas Kerja Apple:
- LLM menghadapi kesukaran dengan variasi teka-teki Tower of Hanoi
- Prestasi merosot apabila masalah menjadi lebih kompleks
- Sistem nampaknya bergantung pada padanan corak berbanding penaakulan sebenar
- Penyelesaian optimum Tower of Hanoi memerlukan 255 gerakan (dalam had token)
Respons Komuniti Mendedahkan Ketegangan Profesional
Perbincangan telah mendedahkan ketegangan yang mendasari dalam komuniti AI . Sesetengah pembangun dan penyelidik menyatakan kekecewaan dengan apa yang mereka lihat sebagai kritikan berlebihan yang boleh memudaratkan kemajuan dan pembiayaan. Yang lain bimbang bahawa melebih-lebihkan keupayaan AI tanpa mengakui batasan boleh membawa kepada musim sejuk AI yang lain - tempoh pengurangan pelaburan dan minat dalam penyelidikan kecerdasan buatan.
Penyokong kuat AI suka mengadu bahawa pakar AI sebenar terlalu prihatin tentang menyangkal AI semasa daripada memperbaikinya - tetapi hakikatnya ialah menyangkal AI yang buruk ADALAH memperbaiki AI .
Perdebatan juga mencerminkan kebimbangan tentang kemampanan model perniagaan AI semasa, dengan sesetengah ahli komuniti bimbang bahawa jangkaan yang tidak realistik boleh membawa kepada kekecewaan pelabur dan pengurangan akses kepada alat AI .
Perspektif Komuniti:
- Pengkritik: LLM tidak mempunyai penaakulan sebenar, hanya bergantung pada corak data latihan
- Penyokong: Pemadanan corak masih memberikan nilai praktikal
- Sederhana: Pendekatan hibrid neurosimbolik mungkin diperlukan
- Kebimbangan perniagaan: Kitaran gembar-gembur tidak mampan, risiko musim sejuk AI
Batasan Teknikal dan Hala Tuju Masa Depan
Beberapa isu teknikal muncul daripada perbincangan komuniti. Kertas kajian Apple menyerlahkan bahawa sistem AI semasa bergelut dengan tugas algoritma yang memerlukan perkembangan logik langkah demi langkah, walaupun masalah tersebut mempunyai penyelesaian yang telah ditetapkan dengan baik. Batasan ini menjadi lebih ketara apabila masalah berkembang dalam kerumitan atau menyimpang daripada contoh latihan.
Sesetengah ahli komuniti mencadangkan bahawa pendekatan hibrid yang menggabungkan penaakulan simbolik dengan kaedah rangkaian neural semasa mungkin menangani kekurangan ini. Pendekatan neurosimbolik ini berpotensi mengendalikan kedua-dua tugas pengecaman corak dan penaakulan logik dengan lebih berkesan.
Tujuh Hujah Balas Biasa terhadap Kertas Kerja Apple:
- Manusia juga bergelut dengan masalah yang kompleks
- Had token menghalang penyelesaian yang betul
- Serangan ad hominem terhadap pengarang kertas kerja
- Model yang lebih besar mungkin berprestasi lebih baik
- Sistem boleh menyelesaikan teka-teki menggunakan algoritma/kod
- Penemuan kertas kerja bukanlah maklumat baharu
- Generalisasi yang lemah sudah diketahui sebelum ini
Implikasi untuk Pembangunan AI
Kontroversi mencerminkan persoalan yang lebih luas tentang keutamaan pembangunan AI dan dakwaan pemasaran. Walaupun sistem AI semasa menunjukkan keupayaan yang mengagumkan dalam banyak bidang, perdebatan menyerlahkan jurang antara jangkaan awam dan realiti teknikal. Ketidakselarasan ini mempunyai implikasi praktikal untuk perniagaan dan individu yang membuat keputusan tentang penggunaan dan pelaburan AI .
Perbincangan juga mendedahkan cabaran berterusan dalam penilaian dan ujian AI . Menentukan sama ada sistem AI boleh mengendalikan masalah yang benar-benar baru kekal sukar, kerana selalunya tidak jelas sama ada kes ujian wujud dalam data latihan atau bentuk yang serupa.
Perdebatan mengenai kertas penyelidikan Apple menggambarkan masalah pertumbuhan semasa bidang AI . Apabila teknologi ini menjadi lebih berleluasa dalam kehidupan seharian dan operasi perniagaan, memahami keupayaan dan batasan sebenar mereka menjadi semakin penting untuk membuat keputusan termaklum tentang penggunaan dan pembangunan mereka.
Rujukan: Seven replies to the viral Apple reasoning paper - and why they fall short