All categories
Featured selections
Trade Assurance
Buyer Central
Help Center
Get the app
Become a supplier

Cyfuture ศูนย์ข้อมูลใหม่พร้อม8GPU H100 sxm PCI พัดลม8U เซิร์ฟเวอร์ Rackmount GPU สำหรับการเรียนรู้เชิงลึกการฝึกอบรม HPC เวิร์คสเตชัน

ยังไม่มีรีวิว

คุณลักษณะ

gddrประเภทหน่วยความจำวิดีโอ
700 MHzCore Clock (Mhz)
PCI Expressประเภทอินเตอร์เฟส
เอ็นเอเอาท์พุท
16นาโนเมตรกระบวนการชิป
พัดลมประเภทเย็น
สถานที่กำเนิด:Uttar Pradesh, India
ใบสมัคร:เวิร์กสเตชัน
สถานะสินค้า:ใหม่
ชื่อแบรนด์:CYFUTURE
สภาพสินค้า:PCI Express 2.0X16
อินเตอร์เฟซหน่วยความจำ:1024บิต
อินเตอร์เฟซการส่งออกประเภท:เอ็นเอ
ส่วนตัว:ไม่
วิดีโอหน่วยความจำความเร็ว:0.8ns
ชื่อสินค้า:เอช100 จีพียู
ฟังก์ชัน:การฝึกอบรมโมเดล AI / Deep Learning / HPC / การประมวลผลข้อมูล
แอปพลิเคชัน:ศูนย์ข้อมูล / ห้องปฏิบัติการ AI / การวิจัย / แพลตฟอร์มคลาวด์ / องค์กร
ประเภท:เซิร์ฟเวอร์ GPU แบบติดตั้งบนแร็คขนาด 8U
ขั้นต่ำ:1
การรับประกัน:3 ปี
แบบจำลอง:เซิร์ฟเวอร์ GPU 8x H100 SXM
คำหลัก:H100 GPU เซิร์ฟเวอร์ AI Training Deep Learning HPC Rack Server เครื่อง GPU
ประเภท GPU:เซิร์ฟเวอร์ GPU H100 SXM
จำนวน GPU:8
หน่วยความจำ GPU:หน่วยความจำ GPU รวมสูงสุด 1.5 TB
การกำหนดค่า CPU:โปรเซสเซอร์ประสิทธิภาพสูงแบบ Dual-Socket (รุ่นที่ 4/5)
หน่วยความจำระบบ:สูงสุด 3 TB DDR5
สล็อตหน่วยความจำ:24 ช่องใส่ DIMM
แหล่งจ่ายไฟ:แหล่งจ่ายไฟสำรองสูงสุด 12.5 กิโลวัตต์
ฟอร์มแฟกเตอร์:เซิร์ฟเวอร์แบบติดตั้งบนแร็คขนาด 8U
สภาพแวดล้อมการทำงาน:ปริมาณงาน AI และ HPC ต่อเนื่องตลอด 24 ชั่วโมงทุกวัน

คุณสมบัติที่สำคัญ

ประเภทหน่วยความจำวิดีโอ
gddr
Core Clock (Mhz)
700 MHz
ประเภทอินเตอร์เฟส
PCI Express
เอาท์พุท
เอ็นเอ
กระบวนการชิป
16นาโนเมตร
ประเภทเย็น
พัดลม
ใบสมัคร
เวิร์กสเตชัน
อินเตอร์เฟซหน่วยความจำ
1024บิต
ส่วนตัว
ไม่
สถานะสินค้า
ใหม่
อินเตอร์เฟซการส่งออกประเภท
เอ็นเอ
สภาพสินค้า
PCI Express 2.0X16
สถานที่กำเนิด
Uttar Pradesh, India
ชื่อแบรนด์
CYFUTURE
วิดีโอหน่วยความจำความเร็ว
0.8ns
ชื่อสินค้า
เอช100 จีพียู
ฟังก์ชัน
การฝึกอบรมโมเดล AI / Deep Learning / HPC / การประมวลผลข้อมูล
แอปพลิเคชัน
ศูนย์ข้อมูล / ห้องปฏิบัติการ AI / การวิจัย / แพลตฟอร์มคลาวด์ / องค์กร
ประเภท
เซิร์ฟเวอร์ GPU แบบติดตั้งบนแร็คขนาด 8U
ขั้นต่ำ
1
การรับประกัน
3 ปี
แบบจำลอง
เซิร์ฟเวอร์ GPU 8x H100 SXM
คำหลัก
H100 GPU เซิร์ฟเวอร์ AI Training Deep Learning HPC Rack Server เครื่อง GPU
ประเภท GPU
เซิร์ฟเวอร์ GPU H100 SXM
จำนวน GPU
8
หน่วยความจำ GPU
หน่วยความจำ GPU รวมสูงสุด 1.5 TB
การกำหนดค่า CPU
โปรเซสเซอร์ประสิทธิภาพสูงแบบ Dual-Socket (รุ่นที่ 4/5)
หน่วยความจำระบบ
สูงสุด 3 TB DDR5
สล็อตหน่วยความจำ
24 ช่องใส่ DIMM
แหล่งจ่ายไฟ
แหล่งจ่ายไฟสำรองสูงสุด 12.5 กิโลวัตต์
ฟอร์มแฟกเตอร์
เซิร์ฟเวอร์แบบติดตั้งบนแร็คขนาด 8U
สภาพแวดล้อมการทำงาน
ปริมาณงาน AI และ HPC ต่อเนื่องตลอด 24 ชั่วโมงทุกวัน

บรรจุภัณฑ์และการนำส่ง

ขายหน่วย
รายการเดียว
เดี่ยวน้ำหนักรวม
4.000 กก.

ระยะเวลารอสินค้า

คำอธิบายผลิตภัณฑ์จากซัพพลายเออร์

จำนวนสั่งซื้อขั้นต่ำ : 1 ชุด
฿7,041,302.40

รูปแบบ

เลือกเลย

การจัดส่ง

ดรอปชิปผลิตภัณฑ์นี้ไปที่ร้านค้าของคุณ

···

การคุ้มครองคำสั่งซื้อ Alibaba.com

การชำระเงินที่ปลอดภัย

ทุกการชำระเงินที่คุณทำบน Alibaba.com มีความปลอดภัยด้วยการเข้ารหัส SSL และโปรโตคอลการป้องกันข้อมูล PCI DSS ที่เข้มงวด

การคุ้มครองการคืนเงิน

รับเงินคืนหากคำสั่งซื้อไม่ถูกจัดส่ง สูญหาย หรือสินค้ามาถึงพร้อมกับปัญหาด้านคุณภาพ