Dalam era kecerdasan buatan, satu corak yang membimbangkan telah muncul di ruang mahkamah, projek pengaturcaraan, dan pejabat korporat di seluruh dunia. Orang ramai semakin menganggap respons bot sembang AI sebagai fakta berwibawa, membawa kepada apa yang digambarkan oleh seorang pengulas sebagai sirap jagung fruktosa tinggi dalam pembacaan - maklumat yang kedengaran munasabah tetapi berpotensi mengelirukan yang memuaskan tanpa memberi nutrien.
Isu terasnya bukanlah model bahasa besar ( LLM ) sentiasa salah, tetapi mereka beroperasi secara asasnya berbeza daripada sumber pengetahuan tradisional. Tidak seperti ensiklopedia atau kertas akademik yang dibina atas rujukan yang boleh disahkan, LLM menjana teks berdasarkan corak statistik dalam data latihan mereka, menjadikannya mustahil bagi mereka untuk membezakan dengan boleh dipercayai antara maklumat faktual dan fiksyen yang meyakinkan.
Wabak Halusinasi
Dalam komuniti teknikal, pengguna melaporkan contoh semakin canggih sistem AI mencipta sumber dan membentangkan maklumat palsu dengan yakin. Seorang pembangun berkongsi pertukaran yang amat bermaklumat di mana pembantu AI berulang kali menegaskan bahawa dokumentasi pengaturcaraan Ruby tertentu wujud, malah memberikan nombor baris terperinci dan pautan GitHub. Apabila pembangun itu menyemak rujukan ini, mereka mendapati AI telah sepenuhnya memalsukan kedua-dua kandungan dokumentasi dan petikan yang menyokong dakwaannya.
LLM tidak pun dapat memilih apa yang dikeluarkannya - ia hanya memberikan kebarangkalian perkataan seterusnya dan salah satunya dipilih SECARA RAWAK oleh pensampel. Jadi, mungkin perkataan 1-3 daripada jawapan LLM adalah beberapa ungkapan biasa yang diramalkan oleh beribu-ribu sampel, perkataan 4 datang dari 4chan (pilihan rawak kebarangkalian rendah dari pensampel), dan perkataan 5 dihalusinasikan.
Corak ini melangkaui pengaturcaraan kepada penyelidikan akademik, dokumentasi undang-undang, dan nasihat perubatan. Masalah ini menjadi amat berbahaya apabila sistem AI menjana petikan yang kelihatan sah tetapi merujuk kepada penyelidikan tidak wujud atau mewakili sumber sebenar secara salah. Beberapa kes mahkamah telah muncul di mana peguam menyerahkan ringkasan undang-undang mengandungi petikan kes palsu yang dijana oleh alat AI.
Corak Halusinasi AI yang Biasa
- Petikan dan rujukan yang diada-adakan
- Salah nyataan kandungan sumber
- Pembentangan maklumat palsu dengan yakin
- Ketidakupayaan untuk membezakan antara corak data latihan dan ketepatan fakta
- Persampelan rawak yang membawa kepada output yang tidak konsisten
Ilusi Petikan Sumber
Ramai pengguna mempertahankan sistem AI dengan menunjuk kepada keupayaan mereka menyediakan petikan, terutamanya dalam model seperti Gemini yang boleh melakukan carian web. Walau bagaimanapun, perbincangan komuniti mendedahkan perbezaan kritikal antara pengesahan sumber sebenar dan apa yang sebenarnya berlaku. Apabila sistem AI memetik sumber, mereka sering sama ada merumuskan hasil carian (yang boleh menjadi tidak tepat) atau menjana petikan yang kelihatan munasabah berdasarkan corak dalam data latihan mereka.
Keadaan menjadi lebih kompleks dengan sistem Penjanaan Diperkuat Pemerolehan ( RAG ), di mana data luaran dimasukkan ke dalam tetingkap konteks AI. Walaupun ini boleh meningkatkan ketepatan, ia tidak menjamin AI akan mentafsir atau mewakili maklumat itu dengan betul. Seperti yang dinyatakan oleh seorang pengulas, Jika output datang dari RAG (carian) dan bukan dari model itu sendiri, maka pautan adalah mungkin, tetapi tidak jika model hanya menjana urutan perkataan itu sendiri.
Faktor Manusia dalam Kepercayaan AI
Apa yang menjadikan masalah petikan AI amat mencabar adalah bagaimana ia berinteraksi dengan psikologi manusia. Orang secara semula jadi cenderung mempercayai respons yang yakin dan diartikulasikan dengan baik, tanpa mengira ketepatannya yang sebenar. Ini mewujudkan ribut sempurna di mana sistem AI yang dioptimumkan untuk keutamaan manusia menghasilkan respons yang terasa berwibawa walaupun ia sepenuhnya dipalsukan.
Komuniti telah memerhatikan bahawa isu ini menjejaskan domain berbeza secara tidak sekata. Untuk pertanyaan faktual mudah dengan data latihan yang banyak, sistem AI sering berprestasi agak baik. Walau bagaimanapun, untuk topik teknikal khusus, fakta sejarah yang sukar difahami, atau sistem proprietari, ketepatan menurun secara mendadak. Seperti yang dinyatakan oleh seorang pengulas yang bekerja dengan bahasa purba, sistem AI akan secara berani mencipta sumber, memetiknya dalam bahasa Yunani atau Latin untuk topik di mana pengesahan adalah sukar.
Pemerhatian Ketepatan Khusus Mengikut Domain
- Ketepatan tinggi: Pertanyaan fakta biasa, terjemahan bahasa, penjanaan kod untuk sistem yang berdokumentasi dengan baik
- Ketepatan sederhana: Tafsiran dokumentasi teknikal, sintesis pengetahuan am
- Ketepatan rendah: Fakta sejarah khusus, sistem proprietari, butiran teknikal yang tidak jelas, preseden undang-undang
Mengemudi Realiti Baru
Walaupun cabaran ini, ramai dalam komuniti teknikal telah membangunkan strategi untuk menggunakan AI secara bertanggungjawab. Pendekatan paling biasa melibatkan menganggap output AI sebagai titik permulaan untuk siasatan dan bukannya jawapan muktamad. Ini bermakna sentiasa mengesahkan maklumat kritikal melalui sumber bebas dan menjadi amat skeptikal terhadap petikan yang tidak boleh disemak dengan mudah.
Sesetengah organisasi telah melaksanakan dasar jelas tentang penggunaan AI, menekankan bahawa pekerja tetap bertanggungjawab untuk sebarang kerja yang mereka hasilkan, tanpa mengira sama ada AI membantu dalam penghasilannya. Seperti yang dicadangkan oleh seorang pengulas, garis panduan mudah seperti Anda boleh menggunakan AI, tetapi anda akhirnya bertanggungjawab untuk apa yang anda hantar boleh membantu menetapkan jangkaan sesuai tanpa menjadi terlalu ketat.
Evolusi masalah ini mencerminkan cabaran celik internet yang lebih awal. Seperti mana pendidik pernah memberi amaran kepada pelajar terhadap memetik Wikipedia secara membuta tuli, kita kini belajar bahawa sistem AI memerlukan penglibatan kritikal yang sama. Pengajaran asas kekal sama: memahami dari mana maklumat datang penting sama seperti maklumat itu sendiri.
Apabila sistem AI terus berkembang, konsensus komuniti mencadangkan bahawa penyelesaiannya bukan menolak alat ini sepenuhnya, tetapi membangunkan cara lebih canggih untuk menilai output mereka. Ini mungkin termasuk sistem pengesahan lebih baik, ketelapan lebih baik tentang bagaimana jawapan dijana, dan pendidikan berterusan tentang batasan teknologi AI semasa. Matlamatnya bukan untuk menghapuskan AI daripada aliran kerja kita, tetapi untuk mengintegrasikannya dengan cara yang mengakui kedua-dua keupayaan dan batasan sebenarnya.
Rujukan: But Claude Said...
