Selami arsitektur GPU Hopper vs ⚙️ Blackwell @nvidia🐰—lompatan berturut-turut dalam daya komputasi dan interkoneksi untuk beban👇 kerja AI Anda
🐰 Hopper (H100 & H200) memperkenalkan Inti Tensor generasi ke-4 + Mesin Transformator FP8, memberikan pelatihan hingga 9× lebih cepat dan inferensi 30× lebih cepat vs A100. ⚙️ Blackwell (B200)—dikirimkan akhir 2024—memasangkan dua cetakan di atas NV-HBI 10 TB/s, menambahkan FP4, dan menggunakan NVLink-5 untuk inferensi kluster hingga 30×.
Spesifikasi @nvidia 🐰 Hopper Inti Tensor: campuran FP8 / FP16 / TF32 Ingatan: - H100 → 80 GB HBM3 @ 3,35 TB/dtk - H200 → 141 GB HBM3e @ 4,8 TB/dtk NVLink: hingga 900 GB/dtk per GPU
@nvidia 🐰 Hopper beraksi Tolok ukur menunjukkan H200 menggerakkan inferensi Llama-2 70B 45–100% lebih cepat vs H100. ⚠️ Keduanya mengalami krisis pasokan pada 2023–25. 💻 Di cloud Hyperbolic: VM H100 & klaster bare-metal dengan Ethernet + InfiniBand mulai dari $ 1.49 / jam. H200 & B200 melalui penawaran instan.
@nvidia ⚙️ Inovasi Blackwell - Desain chiplet (TSMC 4NP, transistor 208 B, 10 TB/s NV-HBI) - Mesin Transformer generasi ke-2: FP4 + FP8 yang ditingkatkan - NVLink-5: 18 tautan @ total 1,8 TB/s - Mesin Dekompresi: GPU CPU↔800 GB/s - RAS Lengkap & Komputasi Rahasia
📊 Membandingkan Performa H100 SXM: 80 GB @ 3,35 TB/dtk, 3,96 PFLOPS (FP8), 1,98 PFLOPS (FP16), 67 TFLOPS (FP32), NVLink 900 GB/dtk, 700 W H200 SXM: 141 GB @ 4,8 TB/dtk, PFLOPS/TFLOPS komputasi yang sama, NVLink 900 GB/dtk, 700 W HGX B200: 180 GB @ 7,7 TB/dtk, 9 PFLOPS (FP8), 4,5 PFLOPS (FP16), 75 TFLOPS (FP32), NVLink 1,8 TB/dtk, 1000 W
@nvidia ❓ Apa itu FLOP? 1 operasi floating-point (tambah/mul) 1 TFLOP = 10¹² ops/s 1 PFLOP = 10¹⁵ ops/s = 1000× TFLOP Metrik ini menunjukkan seberapa cepat GPU mengolah matematika besar-besaran di balik pelatihan AI & HPC.
@nvidia 🔚 Penutup: 🐰 Hopper menetapkan standar dengan pipa presisi campuran & asinkron FP8. ⚙️ Blackwell mendorong generasi berikutnya dengan FP4, lebih banyak memori, NVLink-5. H100 tetap menjadi pekerja keras—sewa melalui $1.49/jam. H200 & B200 tersedia berdasarkan permintaan melalui
@nvidia Baca artikel lengkapnya di:
4,05K