Pertumbuhan eksponen beban kerja kecerdasan buatan sedang mendorong infrastruktur pusat data tradisional ke hadnya, memaksa industri untuk mencari penyelesaian revolusioner bagi menghubungkan kelompok GPU yang besar. Apabila model AI menjadi semakin canggih dan memerlukan beribu-ribu GPU untuk berfungsi sebagai sistem bersepadu, kesesakan dalam komunikasi data telah menjadi halangan kritikal kepada prestasi dan kecekapan.
Co-Packaged Optics: Perubahan Paradigma dalam Seni Bina Pusat Data
Jawapan Nvidia kepada cabaran ini datang dalam bentuk teknologi Co-Packaged Optics (CPO), yang mewakili penyimpangan asas daripada modul optik boleh pasang tradisional. Syarikat itu telah mengumumkan bahawa CPO akan menjadi keperluan struktur dan bukannya peningkatan pilihan untuk pusat data AI masa depan. Teknologi ini menangani batasan teruk sambungan berasaskan kuprum semasa, yang menjadi tidak praktikal pada kelajuan seperti 800 Gb/s merentasi jarak jauh yang diperlukan dalam konfigurasi kelompok AI moden.
Inovasi teras terletak pada pembenaman enjin penukaran optik secara langsung bersama ASIC suis, menghapuskan keperluan untuk isyarat bergerak merentasi jejak elektrik panjang sebelum penukaran kepada cahaya. Perubahan seni bina ini mengurangkan kehilangan elektrik daripada kira-kira 22 desibel kepada hanya 4 desibel, sambil secara serentak memotong penggunaan kuasa setiap port daripada 30W kepada 9W. Implikasinya melangkaui sekadar keuntungan kecekapan, kerana pengurangan ini menghapuskan banyak titik kegagalan berpotensi dan memudahkan pelaksanaan sambungan optik dengan ketara.
Perbandingan CPO vs Modul Boleh Pasang Tradisional
- Kehilangan Elektrik: 4 dB ( CPO ) vs 22 dB (tradisional)
- Penggunaan Kuasa: 9W setiap port ( CPO ) vs 30W setiap port (tradisional)
- Kecekapan Kuasa: Peningkatan 3.5x dengan CPO
- Integriti Isyarat: 64x lebih baik dengan CPO
- Kebolehpercayaan: Peningkatan 10x disebabkan komponen aktif yang lebih sedikit
- Kelajuan Penggunaan: ~30% lebih pantas dengan CPO
![]() |
---|
Perbandingan teknologi optik tradisional dan co-packaged yang menonjolkan penambahbaikan integriti isyarat |
Quantum-X InfiniBand: Mentakrifkan Semula Prestasi Rangkaian
Dijadualkan untuk awal 2026, suis Quantum-X InfiniBand Nvidia akan menyampaikan keupayaan daya pemprosesan yang tidak pernah ada sebelum ini sebanyak 115 Tb/s setiap suis. Setiap unit menyokong 144 port yang beroperasi pada 800 Gb/s, mewujudkan penyelesaian rangkaian berketumpatan tinggi yang direka khusus untuk penggunaan AI berskala besar. Integrasi ASIC khusus yang menampilkan 14.4 TFLOPS keupayaan pemprosesan dalam rangkaian mewakili kemajuan ketara dalam seni bina pengkomputeran teragih.
Suis-suis tersebut menggabungkan Scalable Hierarchical Aggregation Reduction Protocol (SHARP) generasi keempat Nvidia, yang mengoptimumkan operasi kolektif dan mengurangkan latensi dalam senario pengkomputeran teragih. Memandangkan permintaan prestasi yang melampau, suis-suis ini memerlukan sistem penyejukan cecair untuk mengekalkan suhu operasi optimum di bawah keadaan daya pemprosesan tinggi.
Spesifikasi Suis InfiniBand Quantum-X
- Daya Pemprosesan: 115 Tb/s setiap suis
- Konfigurasi Port: 144 port pada 800 Gb/s setiap satu
- Kuasa Pemprosesan: 14.4 TFLOPS pemprosesan dalam rangkaian
- Sokongan Protokol: Generasi ke-4 SHARP
- Penyejukan: Penyejukan cecair diperlukan
- Jadual Pelancaran: Awal 2026
![]() |
---|
Quantum-X Photonics dan Spectrum-X Photonics NVIDIA , merevolusikan prestasi rangkaian untuk infrastruktur AI |
Spectrum-X Photonics: Evolusi Ethernet untuk Beban Kerja AI
Separuh kedua 2026 akan menyaksikan pengenalan platform Spectrum-X Photonics Nvidia, membawa teknologi CPO kepada rangkaian Ethernet. Dibina berdasarkan ASIC Spectrum-6, platform ini akan menawarkan dua konfigurasi berbeza untuk menampung skala penggunaan yang berbeza-beza. Model SN6810 menyediakan lebar jalur 102.4 Tb/s merentasi 128 port pada 800 Gb/s, manakala SN6800 yang lebih besar meningkat secara dramatik kepada 409.6 Tb/s dengan 512 port pada kelajuan setiap port yang sama.
Pendekatan berfokus Ethernet ini memastikan keserasian dengan infrastruktur pusat data sedia ada sambil menyediakan peningkatan prestasi yang diperlukan untuk aplikasi AI generasi akan datang. Seperti rakan InfiniBand nya, platform Spectrum-X akan menggunakan penyejukan cecair untuk menguruskan permintaan termal operasi berprestasi tinggi.
Model Platform Fotonik Spectrum-X
- SN6810: Lebar jalur 102.4 Tb/s, 128 port pada 800 Gb/s
- SN6800: Lebar jalur 409.6 Tb/s, 512 port pada 800 Gb/s
- Jadual Pelancaran: Separuh kedua tahun 2026
- Penyejukan: Sistem penyejukan cecair
- Teknologi: Berasaskan ASIC Spectrum-6
Perkongsian TSMC: Asas Inovasi Optik
Peta jalan CPO Nvidia sejajar rapat dengan pembangunan platform Compact Universal Photonic Engine (COUPE) TSMC. Perkongsian ini mengikuti evolusi tiga peringkat yang bermula dengan enjin optik untuk penyambung OSFP yang menyampaikan kadar pemindahan data 1.6 Tb/s. Generasi kedua menggabungkan pembungkusan CoWoS dengan optik co-packaged, membolehkan 6.4 Tb/s pada tahap papan induk. Generasi ketiga muktamad menyasarkan 12.8 Tb/s dalam pakej pemproses sambil mengurangkan lagi penggunaan kuasa dan latensi.
Teknologi COUPE generasi pertama TSMC menggabungkan litar bersepadu elektronik 65nm dengan litar bersepadu fotonik menggunakan teknologi pembungkusan SoIC-X syarikat tersebut. Asas ini menyediakan keupayaan pembuatan yang diperlukan untuk merealisasikan sasaran prestasi bercita-cita tinggi Nvidia.
Pelan Hala Tuju Platform COUPE TSMC
- Generasi 1: 1.6 Tb/s untuk penyambung OSFP
- Generasi 2: 6.4 Tb/s dengan pembungkusan CoWoS
- Generasi 3: 12.8 Tb/s dalam pakej pemproses
- Teknologi: 65nm EIC + PIC menggunakan pembungkusan SoIC-X
Implikasi Kompetitif dan Respons Industri
Pengenalan teknologi CPO meletakkan Nvidia untuk mengekalkan penguasaannya dalam infrastruktur AI sambil mewujudkan kelebihan kompetitif baharu berbanding pesaing seperti AMD. Peningkatan dramatik dalam kecekapan, kebolehpercayaan, dan skalabiliti yang CPO membolehkan boleh menjadi faktor penentu dalam penggunaan AI berskala besar. Nvidia mendakwa bahawa berbanding dengan modul boleh pasang, teknologi CPO menyampaikan kecekapan kuasa 3.5 kali lebih baik, integriti isyarat 64 kali lebih baik, ketahanan 10 kali lebih besar disebabkan komponen aktif yang lebih sedikit, dan masa penggunaan kira-kira 30% lebih pantas.
Industri telah mengambil perhatian terhadap peralihan ini, dengan pemerolehan Enosemi oleh AMD mewakili respons langsung kepada strategi sambungan optik Nvidia. Dinamik kompetitif ini menunjukkan bahawa teknologi CPO akan menjadi medan pertempuran kritikal dalam pasaran infrastruktur AI, dengan implikasi ketara untuk pengendali pusat data dan syarikat AI yang merancang penggunaan berskala besar.
![]() |
---|
Sebuah pusat data moden yang mempamerkan infrastruktur teknologi canggih yang penting untuk beban kerja AI |