Pembantu Berita AI Gagal Ujian Ketepatan: 45% Respons Mengandungi Ralat Serius

Pasukan Editorial BigGo
Pembantu Berita AI Gagal Ujian Ketepatan: 45% Respons Mengandungi Ralat Serius

Apabila kecerdasan buatan semakin tertanam dalam pengambilan maklumat harian kita, satu realiti yang membimbangkan sedang timbul mengenai kebolehpercayaan kandungan berita yang dijana AI. Kajian komprehensif terkini mendedahkan bahawa hampir separuh daripada semua respons berita AI mengandungi ketidaktepatan yang signifikan, menimbulkan kebimbangan serius tentang kesediaan teknologi ini untuk berfungsi sebagai sumber berita utama bagi berjuta-juta pengguna di seluruh dunia.

Pergantungan kepada teknologi AI untuk penggunaan berita menimbulkan kebimbangan tentang ketepatan dan kebolehpercayaan
Pergantungan kepada teknologi AI untuk penggunaan berita menimbulkan kebimbangan tentang ketepatan dan kebolehpercayaan

Skop Ketidaktepatan Berita AI yang Membimbangkan

Satu kajian utama oleh Kesatuan Penyiaran Eropah yang meneliti lebih 3,000 respons terjana AI merentas 14 bahasa telah menemui corak maklumat salah dan pelaporan tidak lengkap yang membimbangkan. Penyelidikan tersebut, yang menguji pembantu AI popular termasuk ChatGPT, Google Gemini, Microsoft Copilot, Claude, dan Perplexity, mendapati 45% respons mengandungi sekurang-kurangnya satu ralat signifikan, manakala sebanyak 81% menunjukkan beberapa bentuk isu mulai daripada maklumat lapuk sehingga frasa mengelirukan dan sumber bermasalah. Penemuan ini menjadi lebih membimbangkan memandangkan 15% pengguna Gen Z sudah bergantung kepada bot sembang untuk penggunaan berita menurut data Institut Reuters, menonjolkan betapa pantasnya sistem tidak sempurna ini sedang diterima pakai sebagai sumber maklumat utama.

Kadar Ralat Utama dalam Respons Berita AI

  • 45% daripada respons mengandungi sekurang-kurangnya satu ralat yang ketara
  • 81% mempamerkan beberapa bentuk isu (maklumat lapuk, frasa mengelirukan, masalah penyumberan)
  • 31% mempunyai masalah penyumberan yang serius (rujukan palsu, hilang, atau dipetik secara tidak betul)
  • 20% mengandungi ketidaktepatan fakta yang besar

Masalah Sumber dan Fakta Kritikal Muncul

Aspek paling membimbangkan dalam penyelidikan mendedahkan kelemahan asas dalam cara sistem AI mengendalikan pengesahan maklumat dan atribusi. Kira-kira 31% respons telah ditanda untuk masalah sumber serius, termasuk rujukan yang direka, hilang, atau disebut secara tidak betul. Lebih membimbangkan, 20% mengandungi ketidaktepatan fakta utama seperti melaporkan semasa peristiwa semasa secara salah atau mengaitkan petikan kepada tokoh awam secara tidak tepat. Angka dalaman daripada kajian menunjukkan bahawa Google Gemini terutamanya bergelut dengan isu sumber, manakala ChatGPT dan Claude menunjukkan prestasi tidak konsisten bergantung pada versi khusus yang diuji. Kegagalan sumber ini mewujudkan persekitaran berbahaya di mana pengguna mungkin tanpa sedar menyerap maklumat salah yang dibentangkan dengan nada yakin ciri respons AI.

Kepentingan ketelusan penyumberan dalam kandungan yang dijana AI tidak boleh dipandang remeh, kerana banyak respons tidak mempunyai kredibiliti
Kepentingan ketelusan penyumberan dalam kandungan yang dijana AI tidak boleh dipandang remeh, kerana banyak respons tidak mempunyai kredibiliti

Ujian Dunia Sebenar Mendedahkan Batasan Praktikal

Apabila diuji dengan pertanyaan berita sebenar, batasan sistem AI semasa menjadi jelas ketara. Dalam pemeriksaan praktikal bertanya tentang perkembangan terkini mengenai perjanjian siling hutang AS, Claude muncul sebagai pelaku paling boleh dipercayai dengan betul mengenal pasti tempoh masa rundingan terkini dan memberikan maklumat kontekstual tepat. ChatGPT, bagaimanapun, menunjukkan kelemahan kritikal dengan memetik artikel berita dari masa depan—merujuk tarikh dalam 2025 seolah-olah ia semasa—secara serius menjejaskan kredibilitinya. Sementara itu, Google Gemini memperkenalkan kekeliruan dengan menggabungkan isu berasingan tanpa penjelasan jelas, menunjukkan bagaimana sistem AI boleh mencipta naratif mengelirukan walaupun mengandungi elemen maklumat faktual.

Perbandingan Prestasi dalam Ujian Praktikal (Pertanyaan Siling Hutang AS)

  • Claude: Paling tepat - mengenal pasti rangka masa dan konteks dengan betul
  • ChatGPT: Memetik artikel berita dari tarikh masa hadapan, menjejaskan kredibiliti
  • Google Gemini: Mencampurkan isu berasingan tanpa penjelasan yang jelas

Ancaman Membesar kepada Kepercayaan Awam dan Integriti Media

Di luar pengalaman pengguna individu, ketidaktepatan ini menimbulkan ancaman lebih luas kepada wacana awam dan integriti ekosistem media. Penyelidikan selari BBC mendapati bahawa apabila AI menyalahwakili kandungan outlet berita, 42% dewasa akan sama ada menyalahkan kedua-dua AI dan sumber asal atau kurang mempercayai sumber tersebut, mewujudkan beban tidak adil kepada organisasi berita sah. Dinamik ini terutamanya bermasalah apabila penerbit menghadapi cabaran berganda kehilangan trafik kepada antara muka sembang AI sementara pelaporan asal mereka mungkin disalahwakili atau dilucutkan atribusi wajar. Situasi ini mewujudkan ribut sempurna di mana kewartawanan boleh dipercayai menderita sementara ringkasan AI cacat mendapat prominens.

Statistik Kepercayaan Pengguna dan Impak

  • 15% pengguna Gen Z bergantung pada chatbot untuk berita (Reuters Institute)
  • 42% orang dewasa akan menyalahkan sumber berita asal atau kurang mempercayainya jika AI salah nyatakan kandungan
  • Lebih satu pertiga daripada orang dewasa British mempercayai AI untuk merumuskan berita dengan tepat
  • Hampir separuh daripada orang dewasa bawah umur 35 tahun mempercayai rumusan berita AI

Strategi Praktikal untuk Penggunaan Berita AI Lebih Selamat

Bagi pengguna yang terus menggunakan pembantu AI untuk pengumpulan berita, beberapa strategi perlindungan boleh membantu mengurangkan risiko maklumat salah. Menyusun semula prom untuk secara eksplisit meminta sumber terkini, boleh dipercayai dan cap waktu khusus boleh meningkatkan kualiti respons dengan ketara. Meminta pautan kepada outlet berita mapan dan menyemak maklumat merentas pelbagai platform AI membantu mengenal pasti percanggahan yang mungkin menunjukkan ketidaktepatan. Yang paling penting, pengguna harus merawat ringkasan AI sebagai titik permulaan siasatan bukannya jawapan muktamad, sentiasa mengesahkan tuntutan mengejut dengan merujuk artikel asal secara langsung. Amalan ini menjadi semakin penting apabila integrasi AI mendalam merentas pelayar, cermin mata pintar dan teknologi harian lain.

Jalan Ke Hadapan untuk AI dan Integriti Berita

Keadaan semasa berita terjana AI menonjolkan keperluan mendesak untuk ketelusan lebih besar, sistem sumber lebih baik dan pendidikan pengguna lebih canggih. Walaupun teknologi menawarkan kemudahan tidak dapat dinafikan, kadar ralat 45% menunjukkan ia masih belum boleh menggantikan proses pengesahan berita tradisional. Apabila pemaju AI berusaha menangani isu ketepatan asas ini, pengguna mesti mengekalkan skeptisisme sihat dan mengenali bahawa pendekatan paling selamat kepada berita terkini mungkin masih melibatkan memintas ringkasan AI sama sekali memihak kepada merujuk pelaporan asal terus dari sumber berita dipercayai.