เอ็นวิเดียลดความก้าวหน้าทางเทคโนโลยีใหม่สำหรับการประมวลผลในวันนี้ เนื่องจากบริษัทประกาศการมาถึงของสถาปัตยกรรม Nvidia Hopper GPU ซึ่งเป็นแพลตฟอร์มใหม่ที่บริษัทเรียกว่า “การประมวลผลแบบเร่งความเร็วรุ่นต่อไป” Hopper คือผู้สืบทอดอย่างเป็นทางการของซีรีส์ Ampere โดยแพลตฟอร์มใหม่นี้คาดว่าจะมอบประสิทธิภาพที่ก้าวกระโดดอย่างเหนือชั้นเหนือรุ่นก่อน
การสร้างบนแพลตฟอร์มใหม่นี้คือ H100 ซึ่งเป็น GPU ตัวแรกที่สร้างขึ้นบนสถาปัตยกรรม Hopper นี่คือคุณสมบัติบางอย่างของการ์ดใหม่นี้:
- ชิปที่ทันสมัยที่สุดในโลก — สร้างขึ้นด้วยทรานซิสเตอร์ 80 พันล้านตัวโดยใช้กระบวนการ TSMC 4N ที่ล้ำสมัยซึ่งออกแบบมาเพื่อความต้องการการประมวลผลที่รวดเร็วของ NVIDIA H100 มีความก้าวหน้าที่สำคัญในการเร่งความเร็ว AI, HPC, แบนด์วิดท์หน่วยความจำ, การเชื่อมต่อระหว่างกัน และการสื่อสาร รวมถึงเกือบ 5 เทราไบต์ต่อวินาทีของชิปภายนอก การเชื่อมต่อ H100 เป็น GPU ตัวแรกที่รองรับ PCIe Gen5 และเป็น GPU ตัวแรกที่ใช้ HBM3 ซึ่งเปิดใช้งานแบนด์วิธหน่วยความจำ 3TB/s H100 GPU จำนวน 20 ตัวสามารถรักษาปริมาณการรับส่งข้อมูลอินเทอร์เน็ตทั่วโลกได้ ทำให้ลูกค้าสามารถส่งมอบระบบผู้แนะนำขั้นสูงและโมเดลภาษาขนาดใหญ่ที่ทำงานอนุมานข้อมูลแบบเรียลไทม์
- เครื่องยนต์หม้อแปลงใหม่— ปัจจุบันเป็นตัวเลือกโมเดลมาตรฐานสำหรับการประมวลผลภาษาธรรมชาติ Transformer เป็นหนึ่งในโมเดลการเรียนรู้เชิงลึกที่สำคัญที่สุดที่เคยคิดค้นขึ้นมา Transformer Engine ของเครื่องเร่งความเร็ว H100 ได้รับการสร้างขึ้นเพื่อเพิ่มความเร็วของเครือข่ายเหล่านี้ได้มากถึง 6 เท่าเมื่อเทียบกับรุ่นก่อนหน้า โดยไม่สูญเสียความแม่นยำ
- GPU หลายอินสแตนซ์ที่ปลอดภัยรุ่นที่ 2 — เทคโนโลยี MIG ช่วยให้ GPU ตัวเดียวสามารถแบ่งพาร์ติชันออกเป็นอินสแตนซ์ขนาดเล็กกว่าเจ็ดอินสแตนซ์ที่แยกได้อย่างสมบูรณ์เพื่อจัดการกับงานประเภทต่างๆ สถาปัตยกรรม Hopper ขยายความสามารถของ MIG ได้ถึง 7 เท่าจากรุ่นก่อนหน้าโดยนำเสนอการกำหนดค่าหลายผู้เช่าที่ปลอดภัยในสภาพแวดล้อมคลาวด์ทั่วทั้งอินสแตนซ์ GPU แต่ละตัว
- คอมพิวเตอร์ที่เป็นความลับ — H100 เป็นตัวเร่งความเร็วเครื่องแรกของโลกที่มีความสามารถในการประมวลผลที่เป็นความลับเพื่อปกป้องโมเดล AI และข้อมูลลูกค้าในขณะที่กำลังประมวลผล ลูกค้ายังสามารถใช้การประมวลผลที่เป็นความลับได้การเรียนรู้แบบสหพันธ์สำหรับอุตสาหกรรมที่ให้ความสำคัญกับความเป็นส่วนตัว เช่น บริการด้านการดูแลสุขภาพและบริการทางการเงิน รวมถึงบนโครงสร้างพื้นฐานคลาวด์ที่ใช้ร่วมกัน
- NVIDIA NVLink รุ่นที่ 4 — เพื่อเร่งความเร็วโมเดล AI ที่ใหญ่ที่สุด NVLink ผสมผสานกับสวิตช์ NVLink ภายนอกใหม่เพื่อขยาย NVLink เป็นเครือข่ายที่ขยายขนาดได้เกินกว่าเซิร์ฟเวอร์ โดยเชื่อมต่อ GPU H100 ได้สูงสุด 256 ตัวที่แบนด์วิธสูงกว่า 9 เท่า เมื่อเทียบกับรุ่นก่อนหน้าที่ใช้ NVIDIA HDR ควอนตัม InfiniBand
- คำแนะนำ DPX— คำสั่ง DPX ใหม่ช่วยเร่งการเขียนโปรแกรมแบบไดนามิก — ใช้ในอัลกอริธึมที่หลากหลาย รวมถึงการเพิ่มประสิทธิภาพเส้นทางและจีโนมิกส์ — สูงถึง 40 เท่าเมื่อเทียบกับ CPU และสูงถึง 7 เท่า เมื่อเทียบกับ GPU รุ่นก่อนหน้า ซึ่งรวมถึงอัลกอริธึม Floyd-Warshall เพื่อค้นหาเส้นทางที่เหมาะสมที่สุดสำหรับกลุ่มหุ่นยนต์อัตโนมัติในสภาพแวดล้อมคลังสินค้าแบบไดนามิก และอัลกอริธึม Smith-Waterman ที่ใช้ในการจัดเรียงลำดับสำหรับการจำแนก DNA และโปรตีนและการพับ
H100 ได้เห็นการสนับสนุนอย่างกว้างขวางในอุตสาหกรรมโดยใช้เทคโนโลยีคลาวด์ รวมถึง Alibaba Cloud, Amazon Web Services, Baidu AI Cloud, Google Cloud, Microsoft Azure,ออราเคิลคลาวด์และ Tencent Cloud ซึ่งวางแผนที่จะนำเสนออินสแตนซ์ที่ใช้ H100 เราแทบรอไม่ไหวที่จะเห็นแอพพลิเคชั่นสถาปัตยกรรม Nvidia Hopper GPU สำหรับการเล่นเกมเช่นกัน เนื่องจากคาดว่าจะพัฒนาไปสู่อีกระดับหนึ่ง
แหล่งที่มา:เอ็นวิเดีย