OpenAI baru-baru ini mengeluarkan model bahasa sumber terbuka utama pertamanya, gpt-oss-120b dan gpt-oss-20b, menandakan peralihan ketara bagi syarikat yang terkenal dengan menyimpan model paling canggihnya di sebalik pintu tertutup. Walaupun model-model ini menunjukkan prestasi yang mengagumkan pada penanda aras standard, maklum balas awal pengguna mendedahkan corak biasa yang telah melanda model terlatih data sintetik: markah ujian cemerlang tetapi prestasi dunia sebenar yang mengecewakan.
Spesifikasi Model:
- gpt-oss-120b: 120 bilion parameter (5 bilion parameter aktif)
- gpt-oss-20b: 20 bilion parameter
- Lesen: Apache 2.0
- Pendekatan latihan: Data sintetik dan terpilih (serupa dengan siri Microsoft Phi )
Pendekatan Latihan Data Sintetik
Model baharu OpenAI nampaknya mengikuti falsafah yang sama seperti siri Phi Microsoft, yang memfokuskan pada latihan secara eksklusif menggunakan data sintetik berkualiti tinggi dan data terpilih berbanding teks internet mentah. Pendekatan ini memberikan pembangun kawalan penuh ke atas kandungan latihan, membolehkan mereka menjana data yang hampir sepadan dengan tugasan penanda aras. Walau bagaimanapun, metodologi mengajar untuk ujian ini sering menghasilkan model yang cemerlang dalam penilaian terkawal tetapi bergelut dengan sifat dunia sebenar yang berselerak dan tidak dapat diramal.
Perbincangan komuniti mendedahkan bahawa pengguna mendapati model-model tersebut cekap secara teknikal dalam domain khusus seperti sains dan pengekodan, dengan beberapa melaporkan kejayaan pada pertanyaan SQL kompleks yang merumitkan model bersaiz serupa yang lain. Seorang pengguna menyatakan bahawa model 20B dengan betul mengenal pasti hubungan logik halus yang terlepas oleh model yang lebih besar, menunjukkan keupayaan penaakulan tulen dalam tugasan berstruktur.
Hubungan Kakitangan Utama:
- Sebastien Bubeck : Mengetuai pembangunan model Phi Microsoft pada tahun 2024
- Menyertai OpenAI pada akhir tahun 2024
- Berkemungkinan terlibat dalam pembangunan model gpt-oss
- Model Phi terkenal dengan pendekatan latihan data sintetik
Pertukaran Keselamatan
Pilihan untuk menggunakan data latihan sintetik berkemungkinan berpunca daripada kebimbangan keselamatan berbanding pengoptimuman prestasi. Model sumber terbuka menimbulkan risiko unik bagi syarikat besar kerana setelah dikeluarkan, ia tidak boleh dikemas kini atau dikawal. Pengguna boleh menala halus model-model ini untuk sebarang tujuan, dan kes penggunaan paling popular untuk penyesuaian model tempatan secara sejarahnya ialah penjanaan kandungan dewasa.
Dengan berlatih menggunakan data sintetik yang dipilih dengan teliti, OpenAI boleh memastikan model mereka mengandungi latihan penolakan yang meluas dan tidak terdedah kepada kandungan bermasalah. Ini menjadikan model jauh lebih selamat untuk dikeluarkan secara awam, walaupun ia datang dengan kos pengetahuan am dan keupayaan perbualan. Model-model tersebut dilaporkan mempunyai pengetahuan saintifik yang luas tetapi kurang pemahaman tentang budaya popular dan peristiwa semasa.
Sambutan Komuniti dan Jurang Prestasi
Pengguna awal mempunyai perasaan bercampur-campur tentang model baharu ini. Walaupun ada yang memuji keupayaan pengekodan dan penaakulan logik mereka, yang lain mengkritik pangkalan pengetahuan terhad dan respons yang terlalu berhati-hati. Model-model tersebut menunjukkan gejala klasik latihan data sintetik: mereka berprestasi baik pada penanda aras akademik dan tugasan berstruktur tetapi terasa buatan dan terhad dalam perbualan terbuka.
Mereka cekap secara teknikal tetapi kurang banyak pengetahuan luar domain: sebagai contoh, mereka mempunyai pengetahuan am yang luas tentang sains, tetapi tidak tahu banyak tentang budaya popular.
Jurang prestasi ini menyerlahkan cabaran asas dalam pembangunan AI. Syarikat mesti mengimbangkan keupayaan dengan keselamatan, terutamanya apabila mengeluarkan model yang boleh diubah suai oleh pengguna secara bebas. Bagi OpenAI, yang perniagaan utamanya kekal sebagai model sumber tertutup mereka, keluaran terbuka ini lebih berfungsi sebagai kedudukan kompetitif menentang model China berbanding alternatif serius kepada produk utama mereka.
Ciri-ciri Prestasi:
- Prestasi yang kukuh pada penanda aras akademik
- Baik dalam tugasan berstruktur ( SQL , pengkodan, penaakulan logik)
- Lemah dalam budaya popular dan peristiwa semasa
- Pengetahuan luar domain yang terhad
- Respons yang terlalu berhati-hati disebabkan latihan keselamatan
Memandang ke Hadapan
Strategi keluaran menunjukkan bahawa OpenAI melihat model sumber terbuka sebagai bahagian yang perlu tetapi sekunder dalam perniagaan mereka. Tidak seperti Meta, yang memerlukan model terbuka yang kukuh untuk memacu penggunaan ekosistem mereka, OpenAI mampu mengutamakan keselamatan berbanding keupayaan dalam keluaran awam mereka. Sama ada pendekatan ini akan memuaskan komuniti sumber terbuka masih belum dapat dipastikan, tetapi petunjuk awal menunjukkan model-model ini akan menyertai senarai sistem AI yang semakin berkembang yang menarik perhatian dalam demo tetapi mengecewakan dalam penggunaan harian.
Perdebatan mengenai model-model ini juga mencerminkan persoalan yang lebih luas tentang apa yang membentuk sumber terbuka dalam era AI, dengan ahli komuniti berhujah sama ada mengeluarkan berat model tanpa data latihan dan kod benar-benar layak sebagai perisian sumber terbuka.