בכנס Suprecomputer 2023 בדנבר, קולורדו, הציגה אנבידיה (Nvidia) את פלטפורמת מחשוב העל NVIDIA HGX H200, המבוססת על ארכיטקטורת NVIDIA Hopper וכוללת את המעבדים הגרפיים (GPUs) מדגם H200 – הראשונים בעולם לשלב זיכרון מסוג HBM3e.
מחשבי על מבוססי HGX H200 מיועדים להתמודד עם כמויות מידע עצומות עבור עומסי העבודה הנדרשים לבינה מלאכותית יוצרת (Generative AI), מודלי שפה גדולים (LLM) ומחשוב מדעי. NVIDIA H200 מספק עד ל-141 גיגה-בייט של זיכרון בקצב 4.8 טרה-ביט בשנייה, כמעט פי שניים בנפח ופי 2.4 ברוחב הפס, בהשוואה ל-NVIDIA A100.
מערכות HGX H200 ישלבו שמונה או ארבעה מעבדים גרפיים מדגם H200. מחוברות באמצעות טכנולוגיות NVIDIA NVLink ו-NVSwitch לתקשורת מהירה, מערכות אלו יציעו את הביצועים הטובים ביותר במגוון משימות, כולל אימון והסקה של מודלי שפה גדולים (LLM) בגודל של למעלה מ-175 מיליארד פרמטרים.
HGX H200 עם שמונה מעבדים גרפיים מסוג H200, יציעו למעלה מ-32 פטה-פלופס של יכולות למידה עמוקה ב-FP8. מעבדי H200 יהיו זמינים גם בקונפיגורציה של סופר-שבב מדגם NVIDIA GH200 Grace Hopper Superchip, שהוכרזה באוגוסט האחרון.
“כדי ליצור בינה באמצעות אפליקציות מחשוב-על ו-Generative AI, כמויות עצומות של דאטה חייבות לעבור עיבוד בצורה מהירה ויעילה באמצעות זיכרון GPU מהיר”, אמר איאן באק, סגן-נשיא למחשוב על ב-NVIDIA. “עם NVIDIA H200, פלטפורמת מחשוב העל קצה-אל-קצה המובילה ביותר בשוק הפכה למהירה מתמיד על מנת לפתור כמה מהאתגרים החשובים ביותר של העולם”.
NVIDIA H200 יציעו זינוק משמעותי בביצועים של מערכות מחשוב מואץ. כך למשל, הכפלה של מהירות תהליכי ההיסק (inferencing) במודל השפה Llama 2 הכולל 70 מיליארד פרמטרים, לעומת המהירות של H100. התצורות המגוונות שלהם יאפשרו הטמעה שלהם במערכות שונות – On-Prem, בענן, בענן היברידי ואפילו במחשוב-קצה.
מערכות מבוססות NVIDIA H200 יהיו זמינות החל מהרבעון השני של 2024. שירותי הענן של AWS, Google Cloud, Microsoft Azure ו-Oracle Cloud Infrastructure יהיו בין הראשונים להטמיע ולהציע גישה ל-H200, בנוסף ל-CoreWeave, Lambda ו-Vultr.
הודעה לעיתונות
המניה שהצילה את השנה… נאחל עוד מאות אחוזי עליה בשנה הבאה.