AMD membuat kenyataan berani dalam pasaran pemecut AI dengan siri Instinct MI400 yang akan datang, berjanji untuk menggandakan prestasi pengiraan sambil memperkenalkan teknologi memori terdepan. Pengumuman ini datang ketika syarikat berusaha mencabar dominasi NVIDIA dalam pasaran GPU pusat data, dengan CEO OpenAI Sam Altman secara peribadi menyokong spesifikasi yang bercita-cita tinggi ini.
Lonjakan Prestasi Revolusioner dengan Keupayaan 40 PFLOPs
Instinct MI400 mewakili kemajuan seni bina yang ketara, menyampaikan 40 PFLOPs prestasi pengiraan FP4 dan 20 PFLOPs prestasi FP8. Ini menandakan penggandaan lengkap keupayaan pengiraan berbanding siri MI350 semasa. Pemecut ini akan menampilkan sehingga empat XCD (Accelerated Compute Dies) merentasi dua AID (Active Interposer Dies), peningkatan besar daripada konfigurasi dua XCD setiap AID yang terdapat dalam generasi MI300. Seni bina yang dipertingkatkan ini akan dibina di atas platform CDNA-Next AMD, yang akhirnya mungkin akan dijenamakan semula sebagai UDNA sebagai sebahagian daripada strategi syarikat untuk menyatukan seni bina RDNA dan CDNA.
Perbandingan Prestasi AMD Instinct MI400 vs MI350
Spesifikasi | MI400 (2026) | MI350 (2025) | Peningkatan |
---|---|---|---|
Pengkomputeran FP4 | 40 PFLOPs | 20 PFLOPs | 2x |
Pengkomputeran FP8 | 20 PFLOPs | 10 PFLOPs | 2x |
Kapasiti Memori | 432GB HBM4 | 288GB HBM3e | Peningkatan 50% |
Lebar Jalur Memori | 19.6 TB/s | 8.0 TB/s | 2.45x |
XCDs setiap Pemecut | 8 (4 setiap AID) | 8 (4 setiap AID) | Sama |
AIDs setiap Pemecut | 2 | 2 | Sama |
Teknologi Memori HBM4 Memberikan Lebar Jalur Tanpa Tandingan
Prestasi memori menerima rangsangan dramatik dengan integrasi teknologi HBM4, menyediakan 432GB memori berkelajuan tinggi berbanding konfigurasi 288GB HBM3e MI350. Peningkatan lebar jalur lebih mengagumkan lagi, melonjak daripada 8TB/s kepada 19.6TB/s yang luar biasa—mewakili peningkatan lebih daripada 2.4 kali ganda. Peningkatan lebar jalur memori yang besar ini menangani salah satu kesesakan kritikal dalam beban kerja AI, terutamanya untuk tugas inferens yang memerlukan akses pantas kepada model bahasa besar. MI400 juga akan menampilkan lebar jalur scale-out 300GB/s setiap GPU, membolehkan komunikasi cekap dalam penggunaan berskala besar.
Sistem Helios Rack-Scale Menyasarkan Penggunaan Perusahaan
AMD meletakkan MI400 dalam sistem rack-scale Helios yang komprehensif, direka untuk berfungsi sebagai platform pengiraan bersatu dan bukannya komponen diskret individu. CEO Lisa Su menekankan bahawa ini mewakili kali pertama AMD mereka setiap komponen rak sebagai sistem bersatu tunggal. Pendekatan ini bersaing secara langsung dengan sistem rak Vera Rubin NVIDIA yang akan datang dan menangani keperluan pelanggan hiperskala yang memerlukan integrasi lancar merentasi seluruh kluster pusat data. Sistem ini menggunakan teknologi rangkaian sumber terbuka UALink dan bukannya penyelesaian proprietari, berpotensi menawarkan pelanggan lebih fleksibiliti dan mengurangkan penguncian vendor.
Perkongsian OpenAI Menandakan Pengesahan Industri
Kehadiran CEO OpenAI Sam Altman bersama Lisa Su pada pengumuman memberikan kredibiliti industri yang ketara untuk strategi AI AMD. Sokongan Altman, di mana beliau mengaku skeptikal awal tentang spesifikasi sebelum memanggilnya luar biasa, menunjukkan bahawa syarikat AI utama sedang mempertimbangkan secara serius alternatif kepada ekosistem NVIDIA. Penglibatan OpenAI dalam memberikan maklum balas untuk peta jalan MI400 menunjukkan perkongsian yang lebih mendalam yang boleh mempengaruhi reka bentuk akhir pemecut dan pengoptimuman untuk beban kerja AI dunia sebenar.
Strategi Harga Kompetitif Menyasarkan Pertumbuhan Bahagian Pasaran
AMD meletakkan siri MI400 sebagai alternatif kos efektif kepada penawaran NVIDIA, dengan eksekutif syarikat menunjukkan harga agresif yang direka untuk menawan bahagian pasaran. Syarikat mendakwa pendahulunya MI355X sudah menyampaikan 40% lebih token setiap dolar berbanding cip pesaing, terutamanya disebabkan penggunaan kuasa yang lebih rendah. Kelebihan kos ini menjadi sangat ketara memandangkan GPU pusat data boleh menelan kos berpuluh ribu dolar setiap cip, dan syarikat awan biasanya membelinya dalam kuantiti besar-besaran. Integrasi AMD untuk CPU sendiri dan cip rangkaian daripada pemerolehan Pensando ke dalam penyelesaian rak lengkap boleh memberikan faedah kos tambahan dan peluang hasil merentasi pelbagai barisan produk.
Peta Hala Tuju Pemecut AMD Instinct
Model | Seni Bina | Tahun Pelancaran | Memori | Prestasi FP8 | Ciri-ciri Utama |
---|---|---|---|---|---|
MI250X | CDNA 2 | 2021 | 128GB HBM2e | T/A | Generasi pertama |
MI300X | CDNA 3 | 2023 | 192GB HBM3 | 2.6 PFLOPs | Reka bentuk terobosan |
MI325X | CDNA 3 | 2024 | 256GB HBM3e | 2.6 PFLOPs | Memori dipertingkat |
MI350X | CDNA 4 | 2025 | 288GB HBM3e | 10 PFLOPs | Generasi semasa |
MI400 | CDNA-Next/UDNA | 2026 | 432GB HBM4 | 20 PFLOPs | Seni bina generasi seterusnya |
MI500 | UDNA | TBD | TBD | TBD | Peta hala tuju masa depan |
Jadual Waktu Pelancaran 2026 Sejajar dengan Pengembangan Pasaran
Siri MI400 dijadualkan dilancarkan pada 2026, meletakkannya untuk memanfaatkan unjuran pengembangan pasaran cip AI, yang AMD anggarkan akan melebihi 500 bilion dolar Amerika Syarikat menjelang 2028. Jadual waktu ini membolehkan syarikat memanfaatkan proses pembuatan canggih dan teknologi memori HBM4 yang matang sambil bersaing dengan penawaran generasi akan datang NVIDIA. Kadens keluaran tahunan mewakili peralihan daripada kitaran tradisional dua tahun, mencerminkan persaingan sengit dan kemajuan teknologi pesat dalam ruang pemecut AI.