AMD Memperkenalkan Instinct MI400 dengan Prestasi 40 PFLOPs dan Memori 432GB HBM4, CEO OpenAI Menyokong Pelancaran 2026

Pasukan Editorial BigGo
AMD Memperkenalkan Instinct MI400 dengan Prestasi 40 PFLOPs dan Memori 432GB HBM4, CEO OpenAI Menyokong Pelancaran 2026

AMD membuat kenyataan berani dalam pasaran pemecut AI dengan siri Instinct MI400 yang akan datang, berjanji untuk menggandakan prestasi pengiraan sambil memperkenalkan teknologi memori terdepan. Pengumuman ini datang ketika syarikat berusaha mencabar dominasi NVIDIA dalam pasaran GPU pusat data, dengan CEO OpenAI Sam Altman secara peribadi menyokong spesifikasi yang bercita-cita tinggi ini.

Lonjakan Prestasi Revolusioner dengan Keupayaan 40 PFLOPs

Instinct MI400 mewakili kemajuan seni bina yang ketara, menyampaikan 40 PFLOPs prestasi pengiraan FP4 dan 20 PFLOPs prestasi FP8. Ini menandakan penggandaan lengkap keupayaan pengiraan berbanding siri MI350 semasa. Pemecut ini akan menampilkan sehingga empat XCD (Accelerated Compute Dies) merentasi dua AID (Active Interposer Dies), peningkatan besar daripada konfigurasi dua XCD setiap AID yang terdapat dalam generasi MI300. Seni bina yang dipertingkatkan ini akan dibina di atas platform CDNA-Next AMD, yang akhirnya mungkin akan dijenamakan semula sebagai UDNA sebagai sebahagian daripada strategi syarikat untuk menyatukan seni bina RDNA dan CDNA.

Perbandingan Prestasi AMD Instinct MI400 vs MI350

Spesifikasi MI400 (2026) MI350 (2025) Peningkatan
Pengkomputeran FP4 40 PFLOPs 20 PFLOPs 2x
Pengkomputeran FP8 20 PFLOPs 10 PFLOPs 2x
Kapasiti Memori 432GB HBM4 288GB HBM3e Peningkatan 50%
Lebar Jalur Memori 19.6 TB/s 8.0 TB/s 2.45x
XCDs setiap Pemecut 8 (4 setiap AID) 8 (4 setiap AID) Sama
AIDs setiap Pemecut 2 2 Sama

Teknologi Memori HBM4 Memberikan Lebar Jalur Tanpa Tandingan

Prestasi memori menerima rangsangan dramatik dengan integrasi teknologi HBM4, menyediakan 432GB memori berkelajuan tinggi berbanding konfigurasi 288GB HBM3e MI350. Peningkatan lebar jalur lebih mengagumkan lagi, melonjak daripada 8TB/s kepada 19.6TB/s yang luar biasa—mewakili peningkatan lebih daripada 2.4 kali ganda. Peningkatan lebar jalur memori yang besar ini menangani salah satu kesesakan kritikal dalam beban kerja AI, terutamanya untuk tugas inferens yang memerlukan akses pantas kepada model bahasa besar. MI400 juga akan menampilkan lebar jalur scale-out 300GB/s setiap GPU, membolehkan komunikasi cekap dalam penggunaan berskala besar.

Sistem Helios Rack-Scale Menyasarkan Penggunaan Perusahaan

AMD meletakkan MI400 dalam sistem rack-scale Helios yang komprehensif, direka untuk berfungsi sebagai platform pengiraan bersatu dan bukannya komponen diskret individu. CEO Lisa Su menekankan bahawa ini mewakili kali pertama AMD mereka setiap komponen rak sebagai sistem bersatu tunggal. Pendekatan ini bersaing secara langsung dengan sistem rak Vera Rubin NVIDIA yang akan datang dan menangani keperluan pelanggan hiperskala yang memerlukan integrasi lancar merentasi seluruh kluster pusat data. Sistem ini menggunakan teknologi rangkaian sumber terbuka UALink dan bukannya penyelesaian proprietari, berpotensi menawarkan pelanggan lebih fleksibiliti dan mengurangkan penguncian vendor.

Perkongsian OpenAI Menandakan Pengesahan Industri

Kehadiran CEO OpenAI Sam Altman bersama Lisa Su pada pengumuman memberikan kredibiliti industri yang ketara untuk strategi AI AMD. Sokongan Altman, di mana beliau mengaku skeptikal awal tentang spesifikasi sebelum memanggilnya luar biasa, menunjukkan bahawa syarikat AI utama sedang mempertimbangkan secara serius alternatif kepada ekosistem NVIDIA. Penglibatan OpenAI dalam memberikan maklum balas untuk peta jalan MI400 menunjukkan perkongsian yang lebih mendalam yang boleh mempengaruhi reka bentuk akhir pemecut dan pengoptimuman untuk beban kerja AI dunia sebenar.

Strategi Harga Kompetitif Menyasarkan Pertumbuhan Bahagian Pasaran

AMD meletakkan siri MI400 sebagai alternatif kos efektif kepada penawaran NVIDIA, dengan eksekutif syarikat menunjukkan harga agresif yang direka untuk menawan bahagian pasaran. Syarikat mendakwa pendahulunya MI355X sudah menyampaikan 40% lebih token setiap dolar berbanding cip pesaing, terutamanya disebabkan penggunaan kuasa yang lebih rendah. Kelebihan kos ini menjadi sangat ketara memandangkan GPU pusat data boleh menelan kos berpuluh ribu dolar setiap cip, dan syarikat awan biasanya membelinya dalam kuantiti besar-besaran. Integrasi AMD untuk CPU sendiri dan cip rangkaian daripada pemerolehan Pensando ke dalam penyelesaian rak lengkap boleh memberikan faedah kos tambahan dan peluang hasil merentasi pelbagai barisan produk.

Peta Hala Tuju Pemecut AMD Instinct

Model Seni Bina Tahun Pelancaran Memori Prestasi FP8 Ciri-ciri Utama
MI250X CDNA 2 2021 128GB HBM2e T/A Generasi pertama
MI300X CDNA 3 2023 192GB HBM3 2.6 PFLOPs Reka bentuk terobosan
MI325X CDNA 3 2024 256GB HBM3e 2.6 PFLOPs Memori dipertingkat
MI350X CDNA 4 2025 288GB HBM3e 10 PFLOPs Generasi semasa
MI400 CDNA-Next/UDNA 2026 432GB HBM4 20 PFLOPs Seni bina generasi seterusnya
MI500 UDNA TBD TBD TBD Peta hala tuju masa depan

Jadual Waktu Pelancaran 2026 Sejajar dengan Pengembangan Pasaran

Siri MI400 dijadualkan dilancarkan pada 2026, meletakkannya untuk memanfaatkan unjuran pengembangan pasaran cip AI, yang AMD anggarkan akan melebihi 500 bilion dolar Amerika Syarikat menjelang 2028. Jadual waktu ini membolehkan syarikat memanfaatkan proses pembuatan canggih dan teknologi memori HBM4 yang matang sambil bersaing dengan penawaran generasi akan datang NVIDIA. Kadens keluaran tahunan mewakili peralihan daripada kitaran tradisional dua tahun, mencerminkan persaingan sengit dan kemajuan teknologi pesat dalam ruang pemecut AI.