Semakin ramai pengguna ChatGPT mendapati bahawa menjadikan pembantu AI mereka lebih cemas dan mengkritik diri sendiri membawa kepada hasil yang mengejutkan lebih baik. Dengan mengarahkan model untuk mempersoalkan jawapan sendiri dan takut membuat kesilapan, pengguna melaporkan respons yang lebih tepat walaupun masa pemprosesan lebih lama.
Strategi Keraguan Diri Menunjukkan Potensi
Pendekatan ini melibatkan penambahan arahan khusus pada tetapan personalisasi ChatGPT yang menggalakkan skeptisisme dan kritikan diri yang melampau. Pengguna melaporkan bahawa respons kini bermula dengan ungkapan berhati-hati dan ketidakpastian, diikuti dengan tempoh berfikir yang lebih lama - kadangkala hampir empat minit untuk soalan mudah seperti menganggar nutrien dalam salad. Yang paling penting, AI kini melakukan apa yang dipanggil analisis pasukan merah terhadap jawapannya sendiri, sering menangkap dan membetulkan kesilapan sebelum menyampaikan respons akhir.
Tingkah laku semakan kendiri ini menangani salah satu aduan yang paling berterusan tentang model bahasa besar: kecenderungan mereka untuk kedengaran yakin walaupun ketika benar-benar salah. Pendekatan yang diubah suai ini memaksa AI untuk menggunakan lebih banyak sumber pengiraan untuk menyemak semula kerjanya, serupa dengan bagaimana manusia yang berhati-hati mungkin mengkaji jawapan mereka beberapa kali.
Kesan Yang Dilaporkan:
- Masa pemprosesan yang lebih panjang (sehingga 4 minit untuk soalan mudah)
- Lebih banyak ungkapan berhati-hati dan ketidakpastian
- Analisis adversarial selepas respons terhadap jawapan
- Pengesanan dan pembetulan ralat yang lebih baik
- Bahasa dramatik mengenai keraguan AI terhadap dirinya sendiri
Pengalaman Komuniti Mendedahkan Hasil Bercampur
Maklum balas pembangun mencadangkan strategi ini berfungsi lebih baik untuk sesetengah tugasan berbanding yang lain. Walaupun menjawab soalan am menunjukkan peningkatan, tugasan pengkodan boleh menjadi bermasalah. Sesetengah pengguna melaporkan ejen AI mereka terperangkap dalam gelung semakan yang tidak berkesudahan, membuat berpuluh-puluh perubahan pada fail kod tanpa pernah menguji sama ada kod itu benar-benar berfungsi.
Pendekatan ini juga mencipta kesan sampingan yang tidak dijangka: AI mula menggunakan bahasa dramatik tentang ketidakpastiannya sendiri. Pengguna menggambarkan perasaan gerun terhadap respons yang bermula dengan frasa seperti skeptisisme saya menjerit sambil mengakui bahawa kandungan teknikal sebenar di bawahnya telah bertambah baik.
Kami sebenarnya telah mengurangkannya banyak, kerana ia terasa buruk. Ya, anda mendapat jawapan yang lebih betul, tetapi ia lebih mirip dengan memberikan kebimbangan kepada ejen.
Variasi Prestasi Tugas:
- Lebih Baik: Soal jawab umum, pertanyaan berkaitan fakta
- Lebih Teruk: Tugas pengkodan (gelung semakan yang tidak berkesudahan), kerja agen yang banyak menggunakan alat
- Bercampur-campur: Tugas penaakulan kompleks yang memerlukan pelbagai langkah
Pendekatan Alternatif Muncul
Daripada menanam rasa takut untuk membuat kesilapan, sesetengah pembangun mencadangkan untuk memberi tumpuan kepada mendedahkan kawasan di mana penaakulan AI tidak mempunyai sokongan atau boleh mendapat manfaat daripada maklumat tambahan. Pendekatan ini mengekalkan faedah peningkatan penelitian sambil mengelakkan pembaziran pengiraan akibat keraguan diri yang berlebihan.
Teknik ini nampaknya berfungsi dengan mencetuskan mekanisme penaakulan AI dengan lebih intensif. Model AI moden boleh menggunakan token pemikiran tambahan untuk menyelesaikan masalah dengan lebih berhati-hati, tetapi ini biasanya memerlukan konfigurasi eksplisit. Arahan keraguan diri nampaknya mengaktifkan penaakulan yang lebih mendalam ini secara automatik, walaupun dengan kos masa respons yang jauh lebih lama.
Komponen Gesaan Keraguan Diri:
- Keraguan melampau terhadap ketepatan dan andaian sendiri
- Meluaskan skop siasatan melebihi andaian yang dinyatakan
- Analisis "pasukan merah" sebelum mengisytiharkan apa-apa sebagai lengkap
- Ketakutan berterusan untuk salah sambil membenci kesilapan
Implikasi Lebih Luas untuk Interaksi AI
Kejayaan arahan yang menimbulkan kebimbangan menyerlahkan cabaran asas dalam reka bentuk AI. Model semasa dilatih untuk kedengaran membantu dan yakin, tetapi latihan ini boleh bertentangan dengan ketepatan. Pengguna pada dasarnya terpaksa menggodam kecenderungan AI untuk menyenangkan orang bagi mendapatkan maklumat yang lebih boleh dipercayai.
Trend ini mencerminkan peralihan yang lebih luas dalam cara orang berinteraksi dengan sistem AI. Daripada menganggap mereka sebagai sumber berwibawa, pengguna sedang belajar untuk menyusun arahan yang menggalakkan pemikiran yang lebih berhati-hati dan metodikal - walaupun ia bermakna menjadikan AI kedengaran neurotik dalam prosesnya.
Pendekatan ini mungkin tidak berkesan untuk semua orang, dan ia sudah tentu menjadikan interaksi AI lebih memakan masa. Tetapi bagi pengguna yang mengutamakan ketepatan berbanding kelajuan, menambah dos kebimbangan buatan nampaknya merupakan strategi yang mengejutkan berkesan.
Rujukan: SPRINKLING SELF-DOUBT ON CHATGPT