Gokil! Foxconn dan Nvidia Bangun Pabrik Chip AI Raksasa Terbesar di Dunia di Meksiko!
Rabu, 09 Oktober 2024 - 08:14 WIB
Pembangunan fasilitas superchip Nvidia di Meksiko menunjukkan beberapa hal:
1. Meningkatnya permintaan untuk chip AI: Ledakan AI telah mendorong permintaan yang sangat besar untuk chip AI seperti Nvidia GB200.
2. Strategi Foxconn untuk memanfaatkan peluang di pasar AI: Foxconn melihat peluang besar di pasar AI dan berinvestasi untuk memperkuat posisinya sebagai pemasok kunci komponen AI.
3. Meksiko sebagai pusat manufaktur penting: Meksiko semakin menjadi tujuan investasi manufaktur yang menarik bagi perusahaan teknologi global.
Diluncurkan Agustus 2024, GB200 menandai era baru dalam komputasi AI, menawarkan kinerja yang belum pernah ada sebelumnya untuk menangani beban kerja AI yang paling berat sekalipun.
- Arsitektur Rack-Scale: GB200 menghubungkan 36 CPU Grace dan 72 GPU Blackwell dalam desain rack-scale. Dengan 36 GB200 yang saling terhubung oleh domain NVIDIA NVLink terbesar yang pernah ditawarkan, NVLink Switch System menyediakan 130 terabyte per detik (TB/s) komunikasi GPU latensi rendah untuk AI dan beban kerja high-performance computing (HPC).
- Superchip Grace Blackwell: GB200 ditenagai oleh Superchip NVIDIA Grace Blackwell, yang menghubungkan dua GPU NVIDIA Blackwell Tensor Core berkinerja tinggi dengan CPU NVIDIA Grace. Superchip ini memberikan bandwidth GPU-ke-GPU sebesar 1,8 terabyte per detik (TB/s) melalui NVLink generasi kelima.
1. Meningkatnya permintaan untuk chip AI: Ledakan AI telah mendorong permintaan yang sangat besar untuk chip AI seperti Nvidia GB200.
2. Strategi Foxconn untuk memanfaatkan peluang di pasar AI: Foxconn melihat peluang besar di pasar AI dan berinvestasi untuk memperkuat posisinya sebagai pemasok kunci komponen AI.
3. Meksiko sebagai pusat manufaktur penting: Meksiko semakin menjadi tujuan investasi manufaktur yang menarik bagi perusahaan teknologi global.
Mengapa NVIDIA GB200 Sangat Penting?
NVIDIA GB200 adalah sistem rack-scale berpendingin cairan yang dirancang untuk inferensi dan pelatihan model AI trillion-parameter secara real-time.Diluncurkan Agustus 2024, GB200 menandai era baru dalam komputasi AI, menawarkan kinerja yang belum pernah ada sebelumnya untuk menangani beban kerja AI yang paling berat sekalipun.
Mengapa GB200 Sangat Penting?
- Inferensi LLM Trillion-Parameter Secara Real-Time: GB200 memungkinkan inferensi Large Language Model (LLM) trillion-parameter secara real-time. Ini berarti model AI yang sangat besar dapat digunakan untuk menjawab pertanyaan, menghasilkan teks, menerjemahkan bahasa, dan melakukan tugas-tugas lain dengan kecepatan dan akurasi yang luar biasa.- Arsitektur Rack-Scale: GB200 menghubungkan 36 CPU Grace dan 72 GPU Blackwell dalam desain rack-scale. Dengan 36 GB200 yang saling terhubung oleh domain NVIDIA NVLink terbesar yang pernah ditawarkan, NVLink Switch System menyediakan 130 terabyte per detik (TB/s) komunikasi GPU latensi rendah untuk AI dan beban kerja high-performance computing (HPC).
- Superchip Grace Blackwell: GB200 ditenagai oleh Superchip NVIDIA Grace Blackwell, yang menghubungkan dua GPU NVIDIA Blackwell Tensor Core berkinerja tinggi dengan CPU NVIDIA Grace. Superchip ini memberikan bandwidth GPU-ke-GPU sebesar 1,8 terabyte per detik (TB/s) melalui NVLink generasi kelima.
Lihat Juga :
tulis komentar anda