NVIDIA A100
NVIDIA A100 คือ GPU ระดับ data‑center ที่ใช้สถาปัตยกรรม Ampere อันทันสมัย ถูกออกแบบมาเพื่อรองรับงาน AI, HPC และวิเคราะห์ข้อมูลในระดับสูง มีนวัตกรรมสำคัญ เช่น Multi‑Instance GPU (MIG) และ Tensor Cores รุ่นที่ 3 พร้อม TF32 ช่วยให้ประสิทธิภาพเร็วขึ้นถึง 20 เท่าเมื่อเทียบกับรุ่นก่อน
| รายการ (ไทย) | Specification (English) |
|---|---|
| สถาปัตยกรรม GPU | Ampere (54B transistors, 7 nm) |
| CUDA Cores | 8,192 ต่อ GPU |
| Tensor Cores (Gen 3) | 512 ต่อ GPU |
| FP64 Peak Performance | 9.7 TFLOPS |
| FP64 (Tensor Core) | 19.5 TFLOPS |
| FP32 Peak | 19.5 TFLOPS |
| TF32 (Tensor Core) | 156 TFLOPS (312 TFLOPS with sparsity; SXM) |
| FP16 / BFLOAT16 (Tensor Core) | 312 TFLOPS (624 TFLOPS w/ sparsity; SXM) |
| INT8 (Tensor Core) | 624 TOPS (1,248 TOPS w/ sparsity; SXM) |
| GPU Memory | 40 GB HBM2 (PCIe) / 80 GB HBM2e (PCIe or SXM) |
| Memory Bandwidth | 1,555 GB/s (40 GB PCIe), 1,935 GB/s (80 GB PCIe), 2,039 GB/s (SXM) |
| Max Power (TDP) | 250 W (40 GB PCIe), 300 W (80 GB PCIe), 400 W (80 GB SXM) |
| Multi‑Instance GPU (MIG) | Up to 7 instances (5 GB each for 40 GB; 10 GB each for 80 GB) |
| Interface | PCIe Gen4 x16 or SXM form factors |
| NVLink | Yes (600 GB/s) |
| Form Factor | PCIe or SXM module |
| Support Workloads | AI training, inference, data analytics, HPC, scientific simulation |
สภาพสินค้า & การรับประกัน
✔ สินค้าผ่านการทดสอบแล้วว่าใช้งานได้ปกติ
✔ แพ็กเกจจัดส่งปลอดภัย – ป้องกันความเสียหายระหว่างขนส่ง
✔ มีการรับประกันสินค้า ตามเงื่อนไขของร้านค้า
📦 จัดส่งทั่วประเทศ
💬 สนใจสอบถามรายละเอียดเพิ่มเติม หรือสั่งซื้อได้ทันที! [ 02-933-0022 , 081-318-9844 / LINE: @shoppingpc / shoppingpc.net ]
NVIDIA A100
The NVIDIA A100 is a data-center GPU built on the cutting-edge Ampere architecture, tailored for AI, HPC, and data analytics workloads. Key innovations such as third-generation Tensor Cores with TF32, and Multi‑Instance GPU (MIG) technology enable up to 20× higher performance compared to previous generation GPUs.
The NVIDIA A100 is a powerhouse in the data-center GPU landscape, delivering versatile compute capabilities across AI training, inference, data analytics, and HPC. Innovations like third-gen Tensor Cores, MIG for dynamic partitioning, and NVLink for high-speed multi-GPU scaling set it apart. The 80GB variant, with over 2 TB/s of memory bandwidth, caters to the most demanding large-scale models—making A100 a dream choice for developers and enterprises pushing the boundaries of AI performance.
Condition & Warranty
✔ Fully tested and 100% working
✔ Secure packaging for safe shipping
✔ Warranty available (subject to store policy)
📦 Nationwide shipping available!
💬 Contact us for more details or to place an order! [ 02-933-0022 , 081-318-9844 / LINE: @shoppingpc / shoppingpc.net ]



