Satu audit baharu mendedahkan bahawa alat kecerdasan buatan telah menjadi kurang boleh dipercayai dalam membezakan fakta daripada fiksyen sepanjang tahun lalu. Kajian mendapati sistem AI terkemuka kini mengulangi maklumat palsu lebih daripada satu pertiga masa apabila menjawab soalan berkaitan berita, hampir berganda daripada kadar sebelumnya.
Peningkatan dramatik dalam maklumat salah ini berpunca daripada peralihan asas dalam cara sistem AI beroperasi. Apabila alat-alat ini menggunakan carian web masa nyata untuk menyediakan maklumat yang lebih terkini, mereka secara tidak sengaja membuka diri mereka kepada manipulasi oleh pelakon jahat yang mengeksploitasi ekosistem maklumat dalam talian yang tercemar.
Perbandingan Kadar Maklumat Palsu AI
- Ogos 2024: 18% kadar maklumat palsu
- Ogos 2025: 35% kadar maklumat palsu
- Peningkatan: Hampir berganda (peningkatan 94%)
Pertukaran Antara Responsif dan Ketepatan
Usaha untuk menjadikan chatbot AI lebih membantu telah mencipta masalah yang tidak dijangka. Sebelum ini, sistem-sistem ini sering menolak untuk menjawab soalan mengenai peristiwa semasa, dengan menyebut had data atau enggan memberi pendapat mengenai topik sensitif. Walaupun mengecewakan pengguna, pendekatan berhati-hati ini membantu mencegah penyebaran maklumat palsu.
Kini, alat AI dengan bersemangat memberikan jawapan dengan mencari web secara masa nyata. Perubahan ini menghapuskan kadar tidak menjawab sepenuhnya, menurun daripada 31% kepada 0% sepanjang tahun lalu. Walau bagaimanapun, kesediaan baharu untuk menjawab setiap soalan ini datang dengan kos yang tinggi kepada ketepatan.
Isu teras terletak pada cara sistem-sistem ini menilai sumber dalam talian. Alat AI bergelut untuk membezakan antara saluran berita yang boleh dipercayai dan laman web yang tidak boleh dipercayai, menganggap blog penglibatan rendah, siaran media sosial, dan ladang kandungan yang dijana AI sebagai sumber yang sama boleh dipercayai.
Perubahan Kadar Respons AI
- Kadar tidak memberi respons pada Ogos 2024: 31%
- Kadar tidak memberi respons pada Ogos 2025: 0%
- Perubahan: Penghapusan sepenuhnya respons yang ditolak
Eksploitasi oleh Pelakon Berniat Jahat
Pelakon jahat telah cepat belajar untuk memanipulasi sistem ini. Operasi maklumat salah Russia dan rangkaian jahat lain kini sengaja menyemai maklumat palsu merentasi pelbagai platform dalam talian, mengetahui bahawa sistem AI berkemungkinan akan mengambil dan menguatkan dakwaan-dakwaan ini.
Ini mencipta gelung maklum balas berbahaya di mana maklumat palsu dicuci melalui respons AI, berpotensi mencapai berjuta-juta pengguna yang mempercayai sistem-sistem ini untuk memberikan maklumat yang tepat. Masalah menjadi lebih kompleks apabila kandungan yang dijana AI sendiri menjadi sebahagian daripada data latihan untuk sistem AI masa depan.
Organisasi Berita Utama Menyekat Perangkak AI
- BBC (bbc.co.uk/robots.txt)
- CNN (cnn.com/robots.txt)
- NBC News (nbcnews.com/robots.txt)
- Google-Extended ( Gemini ) juga disekat oleh banyak laman web
Keraguan Komuniti dan Kebimbangan Metodologi
Komuniti teknologi telah menimbulkan soalan penting mengenai cara mengukur ketepatan AI dengan betul. Pengkritik menunjukkan bahawa menentukan apa yang merupakan maklumat palsu itu sendiri adalah cabaran yang kompleks, terutamanya untuk peristiwa semasa di mana fakta mungkin masih muncul atau dipertikaikan.
Membezakan fakta daripada kepalsuan sudah tentu bukan tugas asas. Ramai manusia menghadapi masalah dengannya.
Sesetengah pengguna melaporkan pengalaman positif menggunakan AI untuk semakan fakta, terutamanya dengan sistem yang lebih baharu yang menyediakan petikan sumber. Walau bagaimanapun, trend yang lebih luas menunjukkan bahawa apabila alat AI menjadi lebih yakin dalam respons mereka, mereka juga mungkin menjadi lebih yakin dalam kesilapan.
Cabaran Ekosistem Maklumat yang Lebih Luas
Masalah melangkaui sistem AI itu sendiri. Organisasi berita utama telah mula menyekat perangkak AI daripada mengakses kandungan mereka, memaksa sistem-sistem ini bergantung semakin kepada sumber berkualiti rendah. Ini mencipta kitaran ganas di mana alat AI mempunyai akses yang kurang kepada maklumat berwibawa sambil mempunyai akses yang lebih besar kepada kandungan yang tidak boleh dipercayai.
Situasi ini menyerlahkan cabaran asas dalam era kecerdasan buatan: mengimbangkan keinginan untuk sistem yang membantu dan responsif dengan keperluan untuk maklumat yang tepat dan boleh dipercayai. Apabila alat AI menjadi lebih bersepadu dalam cara orang menggunakan berita dan maklumat, menangani isu ketepatan ini menjadi semakin kritikal untuk mengekalkan wacana awam yang berpengetahuan.
Rujukan: AI False Information Rate Nearly Doubles in One Year
