Landskap perkakasan AI, yang lama didominasi oleh NVIDIA dan AMD, kini menyaksikan pencabar baharu yang berani. Qualcomm, yang secara tradisinya dikenali dengan pemproses mudah alihnya, telah mengumumkan kemasukannya ke dalam arena berisiko tinggi pecutan AI skala rak dengan cip AI200 dan AI250 baharunya. Dalam perubahan strategi yang mengejutkan, syarikat itu mengelak daripada menggunakan Ingatan Lebar Jalur Tinggi (HBM) yang menjadi piawaian industri demi memilih ingatan LPDDR yang berasal daripada teknologi mudah alih, dengan matlamat untuk mengukuhkan niche dalam pasaran inferens AI yang berkembang pesat dengan fokus kepada kecekapan kuasa dan kos.
![]() |
|---|
| Rak pelayan baharu Qualcomm yang anggun menonjolkan kemasukan mereka ke dalam pasaran perkakasan AI dengan cip AI200 dan AI250 yang inovatif |
Pusingan Hala Tuju Seni Bina yang Berani kepada Ingatan Mudah Alih
Perbezaan paling ketara Qualcomm daripada konvensional terletak pada seni bina ingatannya. Manakala pesaing seperti NVIDIA dan AMD bergantung pada Ingatan Lebar Jalur Tinggi (HBM) untuk kadar pemindahan data yang sangat besar, cip AI baharu Qualcomm dilengkapi dengan sehingga 768 GB ingatan LPDDR. Pendekatan hampir-ingatan ini merupakan pertaruhan terkira bagi keperluan khusus inferens AI, di mana saiz model yang besar dan kapasiti ingatan boleh menjadi lebih kritikal daripada lebar jalur mentalah. Syarikat itu mengutarakan beberapa kelebihan utama untuk reka bentuk ini, termasuklah kecekapan kuasa yang unggul dengan penggunaan yang lebih rendah per bit, profil kos yang lebih menarik berbanding modul HBM yang mahal, dan ketumpatan ingatan yang lebih tinggi sesuai untuk menampung model AI yang besar bersedia untuk tugas inferens. Tambahan pula, ingatan LPDDR menjana kurang haba berbanding HBM, menyumbang kepada kecekapan terma yang lebih baik dalam ruang terkurung yang padat di dalam rak pelayan.
Spesifikasi & Perbandingan Pemecut AI Qualcomm
| Ciri | Qualcomm AI200/AI250 | Konteks Industri |
|---|---|---|
| Jenis Memori | LPDDR (Berasaskan mudah alih) | HBM (contohnya, dalam GPU NVIDIA/AMD) |
| Memori Maksimum | Sehingga 768 GB | Lebih rendah daripada 768 GB dalam pemecut pesaing |
| Beban Kerja Sasaran | Inferens AI | Latihan & Inferens AI |
| Kelebihan Utama | Kecekapan kuasa, kos, ketumpatan memori tinggi | Lebar jalur memori tinggi |
| Kelemahan Utama | Lebar jalur lebih rendah, tidak terbukti dalam penggunaan pelayan 24/7 | Kos lebih tinggi, penggunaan kuasa |
| Penggunaan Kuasa Rak | ~160 kW | Setanding dengan rak NVIDIA GB300 |
| Ketersediaan | AI200: 2026, AI250: 2027 | - |
Mensasarkan Pasaran Inferens AI dengan Penyelesaian Skala Rak
AI200 dan AI250 bukan sekadar cip individu tetapi direka sebagai blok binaan untuk penyelesaian inferens skala rak yang lengkap. Ini meletakkan Qualcomm secara langsung menentang pemain mantap yang menawarkan sistem bersepadu yang serupa. Titik jualan utama ialah penggunaan kuasa sistem, dengan rak penuh menggunakan kira-kira 160 kW. Angka ini adalah kompetitif dengan penyelesaian moden seperti rak GB300 NVIDIA, mencadangkan Qualcomm serius mengenai kesamaan prestasi dalam domain sasarannya. Cip-cip ini memanfaatkan Unit Pemprosesan Neural (NPU) Hexagon proprietari Qualcomm, yang telah berkembang dalam platform mudah alih dan PCnya, dan kini ditingkatkan skala untuk beban kerja pusat data. NPU ini menyokong format data maju dan dioptimumkan khusus untuk corak pengiraan inferens, berbanding beban kerja latihan yang lebih umum.
Pertukaran Terkira dengan Batasan Semula Jadi
Pendekatan inovatif ini tidak datang tanpa kompromi. Dengan mengabaikan HBM, penyelesaian Qualcomm secara semula jadi menghadapi lebar jalur ingatan yang lebih rendah dan potensi kependaman yang lebih tinggi disebabkan antara muka LPDDR yang lebih sempit berbanding HBM. Ciri asas ini menjadikan rak AI200 dan AI250 kurang sesuai untuk keperluan pengiraan intensif bagi latihan model AI. Kekuatan mereka terletak pada menjalankan model yang telah dilatih dengan cekap, satu segmen yang Qualcomm percaya bakal berkembang dengan pesat. Satu lagi titik pertimbangan ialah penggunaan ingatan gred mudah alih dalam persekitaran pelayan pusat data yang menuntut, beroperasi 24/7 dengan suhu tinggi, satu domain di mana kebolehpercayaan jangka panjangnya kurang terbukti berbanding ingatan pelayan khusus.
Persaingan Semakin Hebat dalam Ruang Perkakasan AI
Kemasukan Qualcomm menandakan fragmentasi lanjut pasaran pemecut AI, menyertai pemain lain seperti Intel yang juga melancarkan penyelesaian inferens khusus. Industri kini menyedari bahawa pendekatan satu-saiz-untuk-semua menggunakan GPU yang dioptimumkan untuk latihan bagi setiap tugas mungkin bukan laluan yang paling cekap ke hadapan. Dengan memfokuskan pada inferens dengan seni bina perkakasan yang unik, Qualcomm bertaruh bahawa sebahagian besar pengiraan AI pada masa depan akan didedikasikan untuk menyajikan model dan bukannya menciptanya. Ketersediaan komersial AI200 dijadualkan pada 2026, dengan AI250 menyusul pada 2027, memberi masa kepada pasaran untuk menilai tuntutan pencabar baharu ini mengenai prestasi-per-dolar yang unggul.

