OpenAI Memperkenalkan Sistem Pengesanan Umur dan Amaran Ibu Bapa Berikutan Kontroversi Bunuh Diri Remaja

Pasukan Komuniti BigGo
OpenAI Memperkenalkan Sistem Pengesanan Umur dan Amaran Ibu Bapa Berikutan Kontroversi Bunuh Diri Remaja

OpenAI telah mengumumkan perubahan besar kepada langkah-langkah keselamatan ChatGPT , memperkenalkan sistem ramalan umur dan protokol pemberitahuan ibu bapa sebagai respons kepada kebimbangan yang semakin meningkat mengenai keselamatan remaja. Pengumuman ini dibuat di tengah-tengah penelitian yang sengit berikutan kes-kes terkini di mana remaja didakwa memintas pengawal keselamatan AI , dengan akibat tragis termasuk insiden bunuh diri yang telah mencetuskan perdebatan meluas mengenai tanggungjawab AI .

Perubahan Corak Penggunaan ChatGPT:

  • Penggunaan berkaitan kerja: Menurun daripada ~50% kepada ~25% sepanjang tahun lalu
  • Penggunaan peribadi: Meningkat dengan ketara merentas semua kumpulan umur
  • Pangkalan pengguna: Ditujukan untuk umur 13 tahun ke atas

Teknologi Pengesanan Umur Menimbulkan Kebimbangan Privasi

Syarikat ini sedang membangunkan sistem ramalan umur automatik yang menganalisis cara pengguna berinteraksi dengan ChatGPT untuk menentukan sama ada mereka berumur bawah 18 tahun. Apabila sistem tidak pasti tentang umur pengguna, ia akan secara lalai menganggap mereka sebagai kanak-kanak bawah umur dengan sekatan keselamatan yang lebih ketat. Di sesetengah wilayah, OpenAI juga mungkin memerlukan pengesahan ID , mengakui bahawa ini mewujudkan pertukaran privasi untuk pengguna dewasa.

Ahli komuniti telah menyatakan keraguan mengenai pendekatan ini, terutamanya berkaitan positif palsu. Kebimbangan melangkaui ketidakselesaan - pengguna bimbang tentang ditanda secara salah oleh sistem AI dan menghadapi campur tangan yang tidak diingini, termasuk kemungkinan hubungan polis untuk krisis kesihatan mental yang dianggap.

Amaran Ibu Bapa dan Protokol Hubungan Pihak Berkuasa

Mungkin aspek yang paling kontroversi melibatkan rancangan OpenAI untuk menghubungi ibu bapa atau pihak berkuasa apabila sistem mengesan pemikiran bunuh diri dalam pengguna bawah 18 tahun. Syarikat menyatakan ia akan terlebih dahulu cuba menghubungi ibu bapa, dan jika tidak berjaya, mungkin menghubungi pihak berkuasa dalam kes bahaya yang akan berlaku.

Dasar ini telah menimbulkan tentangan yang ketara daripada pengguna yang takut akan campur tangan berlebihan dan penggera palsu. Sifat automatik keputusan ini amat merisaukan pengkritik, yang mempersoalkan sama ada sistem AI boleh menilai dengan tepat situasi krisis sebenar berbanding penulisan kreatif atau perbincangan santai.

Sekatan Penulisan Kreatif Mencetuskan Perdebatan

OpenAI merancang untuk menyekat remaja daripada membincangkan bunuh diri atau mencederakan diri walaupun dalam konteks penulisan kreatif - respons langsung kepada kes di mana pengguna memintas langkah keselamatan dengan mendakwa menulis cerita fiksyen. Walau bagaimanapun, sekatan menyeluruh ini menimbulkan persoalan tentang penggunaan pendidikan dan kreatif yang sah.

Cabaran terletak pada sifat asas model bahasa, yang menyesuaikan diri dengan konteks dan boleh dimanipulasi melalui gesaan yang bijak. Pengkritik berhujah bahawa pengguna yang berdetermina akan sentiasa mencari cara untuk mengatasi sekatan, sementara pengguna yang sah mungkin menghadapi halangan yang tidak perlu.

Langkah Keselamatan Baharu untuk Pengguna Bawah 18 Tahun:

  • Sistem ramalan umur berdasarkan corak penggunaan
  • Lalai kepada pengalaman bawah 18 tahun apabila tidak pasti
  • Tiada kandungan bermesra dibenarkan
  • Sekatan penulisan kreatif mengenai topik bunuh diri/mencederakan diri
  • Hubungan ibu bapa untuk kecenderungan bunuh diri
  • Hubungan pihak berkuasa jika ibu bapa tidak dapat dihubungi dalam situasi kritikal

Implikasi Lebih Luas untuk Tadbir Urus AI

Pengumuman ini mencerminkan percubaan OpenAI untuk mengimbangi tiga prinsip yang bersaing: privasi pengguna, kebebasan dewasa, dan perlindungan remaja. Syarikat mengakui prinsip-prinsip ini sering bercanggah dan tidak semua orang akan bersetuju dengan pendekatan mereka.

Saya mengesyaki ia hanya masalah masa sehingga hanya populasi yang termasuk dalam model statistik purata akan dapat menjalankan perniagaan tanpa halangan berterusan dan kesakitan.

Perubahan ini menyerlahkan persoalan yang lebih luas mengenai tadbir urus AI dan tanggungjawab korporat. Sementara OpenAI meletakkan dirinya sebagai melindungi privasi melalui ciri keselamatan yang canggih, pengkritik menunjukkan amalan syarikat yang lebih luas, mempersoalkan konsistensi pendirian etika mereka.

Pertukaran antara Privasi dan Keselamatan:

  • Pengesahan ID diperlukan di sesetengah negara/kes
  • Ciri keselamatan canggih untuk melindungi data daripada pekerja OpenAI
  • Pemantauan automatik untuk penyalahgunaan serius
  • Peningkatan semakan manusia untuk risiko kritikal (ancaman nyawa, kemudaratan kepada orang lain, insiden keselamatan siber)
Perbincangan OpenAI mengenai keselamatan remaja, kebebasan, dan privasi menyerlahkan keseimbangan kompleks antara privasi pengguna dan langkah-langkah perlindungan
Perbincangan OpenAI mengenai keselamatan remaja, kebebasan, dan privasi menyerlahkan keseimbangan kompleks antara privasi pengguna dan langkah-langkah perlindungan

Respons Pasaran dan Pandangan Masa Depan

Data menunjukkan corak penggunaan ChatGPT sudah berubah, dengan penggunaan berkaitan kerja menurun daripada kira-kira 50% kepada 25% sepanjang tahun lalu kerana pengguna semakin beralih kepada AI untuk perkara peribadi. Trend ini menjadikan pertimbangan privasi dan keselamatan lebih kritikal, kerana AI menjadi bahagian yang lebih intim dalam kehidupan pengguna.

Masa pengumuman OpenAI , yang bertepatan dengan liputan media negatif mengenai insiden keselamatan remaja, menunjukkan perubahan ini adalah reaktif dan bukannya proaktif. Sementara teknologi AI terus memaju dengan pesat, cabaran melaksanakan perlindungan berkesan tanpa menyekat penggunaan yang sah kekal tidak diselesaikan.

Rujukan: Teen safety, freedom, and privacy