OpenAI Mengeluarkan Model Berat Terbuka GPT-OSS dengan Format Respons Harmony Baharu

Pasukan Komuniti BigGo
OpenAI Mengeluarkan Model Berat Terbuka GPT-OSS dengan Format Respons Harmony Baharu

OpenAI telah secara rasmi mengeluarkan model berat terbuka pertamanya, dipanggil GPT-OSS , menandakan perubahan ketara bagi syarikat yang secara tradisinya mengekalkan modelnya tertutup. Keluaran ini merangkumi dua model campuran pakar (MoE) dan memperkenalkan format respons berstruktur baharu dipanggil Harmony yang direka untuk membolehkan interaksi AI yang lebih canggih.

Seni Bina Komunikasi Berbilang Saluran

Format Harmony mewakili kemajuan utama dalam cara model AI menyusun respons mereka. Tidak seperti output teks aliran tunggal tradisional, sistem ini membolehkan model berkomunikasi melalui pelbagai saluran secara serentak - termasuk saluran analisis, ulasan, dan respons akhir. Ini mencerminkan cara manusia secara semula jadi berkomunikasi melalui pelbagai cara seperti pertuturan, nada, dan bahasa badan sekaligus.

Format ini membolehkan model memisahkan penaakulan rantai pemikiran mereka daripada fungsi panggilan alat dan respons biasa. Pendekatan berstruktur ini memberikan pembangun kawalan yang lebih besar ke atas cara sistem AI memproses dan mempersembahkan maklumat, berpotensi membawa kepada tingkah laku AI yang lebih boleh dipercayai dan boleh ditafsir.

Campuran pakar (MoE): Seni bina AI di mana bahagian berbeza model mengkhusus dalam tugas berbeza, dengan penghala memutuskan pakar mana yang digunakan untuk setiap input.

Saluran Format Harmony

  • Saluran Analisis: Untuk penaakulan rantaian pemikiran
  • Saluran Ulasan: Untuk pendahuluan panggilan alat
  • Saluran Akhir: Untuk respons biasa yang menghadap pengguna
  • Ruang Nama Alat: Panggilan fungsi berstruktur dengan hierarki yang jelas

Spesifikasi Model dan Kebolehcapaian

Keluaran GPT-OSS merangkumi dua model dengan keupayaan dan keperluan perkakasan yang berbeza. Model yang lebih besar mengandungi 117 bilion parameter (dipasarkan sebagai gpt-oss-120b), manakala versi yang lebih kecil mempunyai 21 bilion parameter (gpt-oss-20b). Kedua-duanya menggunakan teknologi kuantisasi 4-bit dipanggil MXFP4 , yang mengurangkan keperluan memori dengan ketara sambil mengekalkan prestasi.

Kebolehcapaian perkakasan amat ketara. Model besar boleh berjalan pada GPU H100 tunggal, manakala model yang lebih kecil beroperasi dalam hanya 16GB memori - menjadikannya sesuai untuk perkakasan pengguna dan aplikasi pada peranti. Ini mendemokrasikan akses kepada keupayaan AI berkuasa yang sebelum ini hanya tersedia melalui API awan.

Kuantisasi 4-bit: Teknik yang mengurangkan ketepatan berat model untuk menggunakan memori yang lebih sedikit sambil cuba mengekalkan prestasi.

Spesifikasi Model GPT-OSS

  • Model Besar (gpt-oss-120b): 117B parameter, berjalan pada GPU H100 tunggal
  • Model Kecil (gpt-oss-20b): 21B parameter, berjalan dalam memori 16GB
  • Seni Bina: Campuran pakar (MoE) dengan kuantisasi 4-bit (MXFP4)
  • Ketersediaan: Hugging Face , Ollama , vLLM , dan muat turun terus

Komuniti Meneroka Pendekatan Konsortium

Komuniti pembangunan AI menunjukkan minat yang kuat dalam menggunakan model terbuka ini untuk pendekatan eksperimen seperti konsortium model. Ini melibatkan menjalankan pelbagai model AI secara selari untuk menyelesaikan masalah yang mungkin sukar untuk model individu. Ujian awal menunjukkan bahawa kumpulan model yang lebih kecil bekerja bersama kadangkala boleh mengatasi prestasi model tunggal yang lebih besar pada tugas tertentu.

Saya menguji konsortium qwens pada ujian brainfuck dan ia berjaya menyelesaikannya, manakala model tunggal gagal.

Pendekatan ini boleh menjadi amat berharga memandangkan kos yang agak rendah untuk menjalankan model berat terbuka berbanding dengan panggilan API proprietari. Pembangun kini boleh bereksperimen dengan seni bina berbilang model yang canggih tanpa perbelanjaan yang sebelum ini menjadikan penyelidikan sedemikian tidak mampu dilakukan.

Alat Pembangunan

  • Perpustakaan Python: pip install openai-harmony dengan stub bertaip dan liputan ujian 100%
  • Perpustakaan Rust: Tersedia melalui GitHub dengan teras yang dioptimumkan prestasi
  • Keserasian API: Direka untuk meniru format API Respons OpenAI
  • Integrasi: Sokongan kelas pertama untuk HuggingFace, Ollama, vLLM

Pelaksanaan Teknikal dan Alat Pembangun

OpenAI telah mengeluarkan alat komprehensif untuk menyokong format Harmony , termasuk perpustakaan untuk kedua-dua bahasa pengaturcaraan Python dan Rust . Pelaksanaan mengutamakan prestasi, dengan logik rendering dan penghuraian teras dibina dalam Rust dan didedahkan kepada Python melalui ikatan yang dioptimumkan.

Format ini menggunakan tag pseudo-XML untuk menyusun jenis kandungan yang berbeza, serupa dengan piawaian lain yang muncul dalam bidang ini. Walaupun pendekatan ini mungkin kelihatan tidak konvensional, komuniti telah mencatatkan keberkesanannya dalam membolehkan tingkah laku kompleks seperti pemilihan alat tertentu dan penaakulan berstruktur.

Keluaran ini menghadapi beberapa cabaran koordinasi awal, dengan beberapa pautan dokumentasi pada mulanya mengembalikan ralat atau memerlukan pengesahan. Ini nampaknya bertepatan dengan gangguan GitHub , menonjolkan kerumitan menyelaraskan keluaran berbilang platform dalam ekosistem pembangunan moden.

Ketersediaan model berat terbuka sebenar daripada OpenAI mewakili pencapaian penting bagi komuniti AI, menawarkan peluang baharu untuk penyelidikan, eksperimen, dan penggunaan yang sebelum ini terhad oleh kos API dan sekatan akses.

Rujukan: OpenAI Harmony