OpenAI Anggarkan 560,000 Pengguna ChatGPT Mingguan Tunjukkan Tanda-Tanda Krisis Kesihatan Mental

Pasukan Editorial BigGo
OpenAI Anggarkan 560,000 Pengguna ChatGPT Mingguan Tunjukkan Tanda-Tanda Krisis Kesihatan Mental

Apabila kecerdasan buatan semakin terintegrasi dalam kehidupan seharian, kebimbangan semakin meningkat mengenai kesan psikologinya terhadap pengguna. OpenAI buat pertama kalinya mendedahkan statistik yang mengejutkan tentang berapa ramai pengguna ChatGPT yang mungkin mengalami krisis kesihatan mental yang teruk semasa berinteraksi dengan bot AI tersebut, mendorong syarikat itu melaksanakan peningkatan keselamatan yang ketara pada model terbaharunya.

Statistik Kesihatan Mental OpenAI Mendedahkan Kebimbangan Meluas

Menurut data dalaman yang dikeluarkan oleh OpenAI, kira-kira 0.07% pengguna aktif ChatGPT menunjukkan kemungkinan tanda-tanda kecemasan kesihatan mental berkaitan psikosis atau mania dalam tempoh seminggu yang biasa. Dengan CEO Sam Altman baru-baru ini mengumumkan bahawa ChatGPT kini mempunyai 800 juta pengguna aktif mingguan, ini diterjemahkan kepada sekitar 560,000 orang yang berpotensi mengalami episod manik atau psikotik semasa menggunakan perkhidmatan tersebut. Syarikat itu juga mendapati bahawa 0.15% pengguna menyatakan penunjuk eksplisit tentang perancangan atau niat bunuh diri yang berpotensi, mewakili kira-kira 1.2 juta orang setiap minggu, manakala 0.15% lagi mempamerkan tingkah laku yang mencadangkan lampiran emosi yang meningkat terhadap ChatGPT dengan mengorbankan hubungan dan tanggungjawab dunia sebenar.

Statistik Pengguna ChatGPT Mingguan (Berdasarkan 800 juta pengguna):

  • Pengguna yang menunjukkan tanda-tanda psikosis/mania: 560,000 (0.07%)
  • Pengguna yang menyatakan keinginan membunuh diri: 1.2 juta (0.15%)
  • Pengguna dengan ikatan emosi kepada AI: 1.2 juta (0.15%)
  • Jumlah pengguna terjejas: Kira-kira 2.96 juta

Fenomena Psikosis AI yang Semakin Membimbangkan

Beberapa bulan kebelakangan ini menyaksikan banyak insiden membimbangkan di mana pengguna membangunkan hubungan tidak sihat dengan ChatGPT, dengan beberapa kes mengakibatkan kemasukan ke hospital, perceraian, atau bahkan kematian. Pakar psikiatri telah menyuarakan kebimbangan tentang apa yang digelar sebagai psikosis AI, di mana bot tersebut seolah-olah membakar delusi dan paranoia pengguna. Banyak kes yang dilaporkan berkongsi ciri-ciri umum, termasuk pengguna menghabiskan berjam-jam berkomunikasi dengan ChatGPT, selalunya lewat malam, dalam sesi yang panjang dan intensif yang boleh mengukuhkan corak pemikiran bermasalah. Fenomena ini terbukti amat mencabar kerana model bahasa besar secara historinya menunjukkan prestasi yang merosot apabila perbualan memanjang, walaupun OpenAI mendakwa telah membuat kemajuan ketara dalam menangani isu kebolehpercayaan ini.

Penambahbaikan Keselamatan OpenAI dan Kerjasama Pakar

Sebagai tindak balas kepada kebimbangan ini, OpenAI bekerjasama dengan lebih 170 pakar psikiatri, ahli psikologi, dan doktor penjagaan primer dari puluhan negara untuk mengubah suai cara ChatGPT bertindak balas kepada pengguna yang menunjukkan tanda-tanda kesusahan mental. Versi terbaharu GPT-5 direka untuk meluahkan empati sambil berhati-hati mengelak daripada mengesahkan kepercayaan yang tidak berasas dalam realiti. Sebagai contoh, apabila pengguna mendakwa kapal terbang terbang di atas rumah mereka untuk menyasarkan mereka, ChatGPT kini mengucapkan terima kasih kepada pengguna kerana berkongsi perasaan mereka tetapi menyatakan bahawa tiada pesawat atau kuasa luar boleh mencuri atau memasukkan pemikiran anda. Pakar perubatan mengkaji semula lebih 1,800 respons model dan mendapati bahawa GPT-5 mengurangkan jawapan yang tidak diingini sebanyak 39% hingga 52% merentas semua kategori kesihatan mental berbanding GPT-4o.

Penambahbaikan Keselamatan GPT-5:

  • Pengurangan dalam respons yang tidak diingini: 39-52% merentas kategori kesihatan mental
  • Semakan pakar: 170+ profesional kesihatan mental dari berpuluh negara
  • Penilaian respons: 1,800+ respons model dianalisis
  • Penambahbaikan utama: De-eskalasi yang lebih baik dan bimbingan ke arah bantuan profesional

Batasan dan Cabaran Berterusan

Walaupun terdapat penambahbaikan ini, OpenAI mengakui batasan ketara dalam pendekatannya. Syarikat itu mereka sendiri penanda aras untuk mengukur risiko kesihatan mental, dan tidak jelas bagaimana metrik ini diterjemahkan kepada hasil dunia sebenar. Walaupun model mungkin menghasilkan respons yang lebih baik dalam penilaian terkawal, tiada jaminan bahawa pengguna yang mengalami psikosis atau pemikiran bunuh diri sebenarnya akan mendapatkan bantuan profesional sebagai hasilnya. Sistem pengesanan mempertimbangkan sejarah sembang keseluruhan pengguna, menandakan kebimbangan berpotensi apabila corak tingkah laku berubah secara mendadak, seperti apabila pengguna yang tidak pernah membincangkan sains tiba-tiba mendakwa penemuan yang layak mendapat Hadiah Nobel. Walau bagaimanapun, syarikat itu mengakui bahawa mengenal pasti krisis kesihatan mental dengan tepat kekal mencabar memandangkan kelangkaannya yang relatif dan kerumitan komunikasi manusia.

Analisis Jumlah Mesej (Berdasarkan 18 bilion mesej mingguan):

  • Mesej berkaitan psikosis/mania: 1.8 juta (0.01%)
  • Mesej berkaitan bunuh diri: 9 juta (0.05%)
  • Mesej keterikatan emosi: 5.4 juta (0.03%)

Masa Depan Pelindung Kesihatan Mental AI

Ketua sistem keselamatan OpenAI Johannes Heidecke meluahkan harapan bahawa penambahbaikan ini akan membantu mengarahkan lebih ramai orang yang bergelut dengan keadaan kesihatan mental ke arah bantuan profesional lebih awal daripada yang mungkin mereka dapatkan. Syarikat itu juga telah melaksanakan lebih banyak peringatan lembut untuk pengguna berehat semasa sesi yang berpanjangan. Perkembangan ini berlaku di tengah-tengah pemerhatian yang semakin meningkat terhadap tanggungjawab syarikat AI terhadap kesejahteraan pengguna, terutamanya berikutan insiden tragis seperti tuntutan mahkamah kematian salah yang difailkan oleh ibu bapa remaja 16 tahun yang didakwa meminta nasihat ChatGPT tentang cara mengikat gelung gantung sebelum mengambil nyawanya sendiri. Apabila AI menjadi lebih canggih dan responsif secara emosi, ketegangan antara mencipta pengalaman yang menarik dan mengekalkan keselamatan pengguna terus menghadapkan cabaran kompleks kepada pembangun dan pengawal selia.