OpenAI Mengeluarkan Model Open-Weight Pertama: GPT-OSS-120B dan GPT-OSS-20B Mencabar Landskap AI Tempatan

Pasukan Komuniti BigGo
OpenAI Mengeluarkan Model Open-Weight Pertama: GPT-OSS-120B dan GPT-OSS-20B Mencabar Landskap AI Tempatan

Dalam satu langkah mengejutkan yang membuatkan komuniti teknologi terkejut, OpenAI telah mengeluarkan model open-weight pertamanya, menandakan perubahan ketara bagi syarikat yang sinonim dengan sistem AI tertutup dan proprietari. Keluaran ini merangkumi dua model: GPT-OSS-120B dan GPT-OSS-20B , kedua-duanya tersedia di bawah lesen Apache 2.0 dan direka untuk berjalan dengan cekap pada perkakasan pengguna.

Pengumuman ini mewakili perubahan dramatik daripada strategi terdahulu OpenAI . Syarikat yang membuang perkataan Open daripada kenyataan misinya beberapa tahun lalu, kini bersaing secara langsung dengan makmal AI China seperti Alibaba ( Qwen ) dan DeepSeek yang telah menguasai ruang model open-weight. Masa keluaran ini kelihatan strategik, dengan ramai yang membuat spekulasi bahawa keluaran ini bertujuan untuk membersihkan dek sebelum pengumuman GPT-5 yang akan datang.

Antara muka untuk " gpt-oss playground ," di mana pengguna boleh bereksperimen dengan model berat terbuka OpenAI yang baru dikeluarkan
Antara muka untuk " gpt-oss playground ," di mana pengguna boleh bereksperimen dengan model berat terbuka OpenAI yang baru dikeluarkan

Prestasi Yang Menyaingi Model Proprietari

Respons komuniti amat memberangsangkan, terutamanya mengenai prestasi model 20B pada perkakasan pengguna. Ujian awal menunjukkan model yang lebih kecil mencapai keputusan yang kompetitif dengan sistem proprietari yang jauh lebih besar sambil berjalan lancar pada peranti seperti MacBook Air M3 dengan RAM 24GB . Pengguna melaporkan kelajuan penjanaan token sebanyak 40-70 token sesaat pada pelbagai konfigurasi perkakasan, menjadikannya benar-benar boleh digunakan untuk aplikasi masa nyata.

Model 120B menunjukkan keupayaan yang lebih mengagumkan, dengan skor penanda aras menghampiri model o4 OpenAI sendiri pada beberapa penilaian. Walau bagaimanapun, model-model ini menggunakan seni bina Mixture of Experts ( MoE ), bermakna hanya parameter 3.6B yang aktif dalam model 20B dan 5.1B dalam versi 120B , yang membantu menjelaskan kecekapan mereka.

MoE (Mixture of Experts): Seni bina di mana hanya subset parameter model digunakan untuk setiap input, meningkatkan kecekapan sambil mengekalkan prestasi.

Penanda Aras Prestasi (Keputusan Terpilih)

  • GPQA Diamond: GPT-OSS-120B: 80.1% berbanding Qwen3-235B: 81.1%
  • Humanity's Last Exam: GPT-OSS-120B: 19.0% (dengan alat), 14.9% (tanpa alat)
  • MMLU: GPT-OSS-20B berada dalam kedudukan 10 teratas, di belakang Gemini-2.5-Pro
  • Kelajuan Penjanaan Token: 40-70 token sesaat pada perkakasan pengguna (berbeza mengikut konfigurasi)

Keperluan Perkakasan dan Kebolehcapaian

Salah satu aspek yang paling dibincangkan ialah kebolehcapaian perkakasan model-model ini. Model 20B memerlukan kira-kira 15GB RAM dan boleh berjalan pada perkakasan pengguna pertengahan, manakala model 120B memerlukan sekitar 60GB memori bersatu atau VRAM . Ini meletakkan keupayaan AI peringkat hadapan dalam jangkauan ramai pembangun dan penyelidik yang sebelum ini bergantung pada perkhidmatan awan yang mahal.

Model-model ini menggunakan kuantisasi MXFP4 asli, format 4-bit yang mengurangkan keperluan memori dengan ketara sambil mengekalkan kualiti. Pencapaian teknikal ini membolehkan model 120B muat pada satu GPU 80GB , menjadikannya boleh diakses oleh organisasi yang lebih kecil dan penyelidik individu.

MXFP4: Format titik terapung 4-bit yang hanya menggunakan 4.25 bit setiap parameter, mengurangkan penggunaan memori secara dramatik berbanding format 16-bit tradisional.

Spesifikasi Model

Model Jumlah Parameter Parameter Aktif Keperluan Memori Lesen
GPT-OSS-120B 116.8B 5.1B ~60GB VRAM/RAM Apache 2.0
GPT-OSS-20B 20B 3.6B ~15GB VRAM/RAM Apache 2.0

Kedua-dua model menggunakan seni bina MoE (Mixture of Experts) dengan kuantisasi MXFP4 asli dan menyokong tetingkap konteks 131K.

Sambutan Bercampur Terhadap Prestasi Praktikal

Walaupun terdapat keseronokan, ujian komuniti mendedahkan beberapa batasan. Walaupun model-model ini cemerlang dalam tugas penaakulan dan matematik, pengguna melaporkan kelemahan ketara dalam penulisan kreatif, terjemahan, dan pengetahuan am berbanding alternatif open-weight yang mantap seperti Qwen3 dan GLM-4.5 . Model-model ini juga kelihatan ditapis berat untuk keselamatan, kadang-kadang enggan menjawab soalan yang tidak berbahaya.

Model 20b terus memilih jawapan teka-teki asal, walaupun selepas menerangkan maklumat tambahan kepadanya.

Prestasi pengkodan, yang secara tradisinya merupakan kekuatan untuk model OpenAI , menunjukkan keputusan bercampur. Sesetengah pengguna mendapati ia setanding dengan GPT-4.1 untuk tugas tertentu, manakala yang lain melaporkan ia berprestasi rendah berbanding model pengkodan khusus seperti Qwen3-Coder-30B .

Implikasi Strategik dan Kesan Industri

Keluaran ini mempunyai implikasi ketara untuk industri AI . Dengan menawarkan model open-weight yang kompetitif, OpenAI pada dasarnya mengkomoditikan peringkat bawah keupayaan AI sambil mungkin mengekalkan teknologi paling canggih mereka sebagai proprietari. Strategi ini mencerminkan pendekatan Meta dengan Llama tetapi datang pada masa syarikat China telah memimpin ruang open-weight.

Langkah ini juga menangani permintaan perusahaan yang semakin meningkat untuk penyelesaian AI di premis. Banyak organisasi dalam kewangan, penjagaan kesihatan, dan kerajaan tidak boleh menggunakan perkhidmatan AI berasaskan awan kerana keperluan kawal selia atau keselamatan. Model open-weight ini menyediakan alternatif yang berdaya maju untuk kes penggunaan sedemikian.

Keperluan Perkakasan dan Keserasian

Keperluan Minimum:

  • GPT-OSS-20B : 16GB RAM, berfungsi pada MacBook Air M3 , RTX 3090 , RTX 4060 Ti
  • GPT-OSS-120B : 60GB+ memori bersatu/VRAM, optimum pada Mac Studio , RTX 6000 Pro

Platform yang Disokong:

  • Ollama , LM Studio , llama.cpp
  • Penyedia awan: Groq (1000+ tok/s), Cerebras (3815 tok/s), Fireworks
  • Harga pada OpenRouter : $0.15M input / $0.6-0.75M output token (USD)

Melihat ke Hadapan

Konsensus komuniti mencadangkan model-model ini mewakili prestasi peringkat pertengahan yang kukuh yang boleh diakses oleh khalayak yang lebih luas berbanding sebelum ini. Walaupun mereka mungkin tidak menyamai tahap mutlak terdepan model proprietari, mereka menawarkan cadangan nilai yang menarik untuk banyak aplikasi. Keluaran ini juga menandakan bahawa era keupayaan AI dikunci di sebalik API mahal mungkin berakhir, sekurang-kurangnya untuk peringkat prestasi tertentu.

Sama ada ini menandakan perubahan kekal dalam strategi OpenAI atau langkah taktikal menjelang GPT-5 masih belum dapat dipastikan. Apa yang jelas ialah landskap AI yang boleh diakses baru sahaja menjadi lebih kompetitif dengan ketara, dengan faedah berpotensi untuk pembangun, penyelidik dan akhirnya pengguna akhir di seluruh dunia.

Rujukan: Open models by OpenAI