12 Ottobre 2021

Supermicro espande il portafoglio di sistemi GPU con nuovi server innovativi per accelerare un’ampia gamma di carichi di lavoro AI, HPC e Cloud

3 minuti di lettura

Piattaforma NVIDIA HGX A100 4-GPU e sistema GPU 2U a 2 nodi a risparmio di risorse con processori scalabili Intel Xeon di terza generazione  

SAN JOSÉ, California, 12 ottobre 2021 /PRNewswire/ —  Super Micro Computer, Inc. (SMCI), leader globale nel campo dell’informatica aziendale, dello storage, delle soluzioni di rete e della tecnologia di green computing, annuncia nuovi sistemi GPU basati su architettura NVIDIA® Ampere e processori scalabili Intel Xeon di terza generazione con acceleratori AI integrati (serie Supermicro X12). Questi server sono progettati per applicazioni AI esigenti, in cui sono essenziali bassa latenza e prestazioni applicative elevate. Il sistema 2U NVIDIA HGX™ A100 4-GPU è adatto per l’implementazione di moderni cluster di formazione AI su scala con interconnessione CPU-GPU ad alta velocità e GPU-GPU. Il sistema Supermicro 2U 2-Node riduce l’utilizzo di energia e i costi tramite la condivisione di alimentatori e ventole di raffreddamento, riducendo le emissioni di carbonio e supportando una gamma di acceleratori GPU discreti, che possono essere abbinati al carico di lavoro. Entrambi questi sistemi includono funzionalità di sicurezza hardware avanzate abilitate dalle più recenti Intel Software Guard Extensions (Intel SGX). 

“Gli ingegneri di Supermicro hanno creato un altro ampio portafoglio di sistemi basati su GPU ad alte prestazioni che riducono i costi, lo spazio e il consumo energetico rispetto ad altri modelli sul mercato” ha dichiarato Charles Liang, Presidente e CEO di Supermicro. “Con il nostro design innovativo, possiamo offrire ai clienti NVIDIA HGX A100 (nome in codice Redstone) acceleratori 4-GPU per carichi di lavoro AI e HPC in fattori di forma 2U densi. Inoltre, il nostro sistema 2U a 2 nodi è progettato in modo unico per condividere componenti di alimentazione e raffreddamento che riducono l’OPEX e l’impatto sull’ambiente”. 

Il server 2U NVIDIA HGX A100 è basato sui processori scalabili Intel Xeon di terza generazione con tecnologia Intel Deep Learning Boost ed è ottimizzato per i carichi di lavoro di analisi, formazione e inferenza. Il sistema è in grado di fornire fino a 2,5 petaflop di prestazioni AI, con quattro GPU A100 completamente interconnessi con NVIDIA NVLink®, fornendo fino a 320 GB di memoria GPU per velocizzare le innovazioni nella scienza dei dati aziendali e AI. Il sistema è fino a 4 volte più veloce delle precedenti generazioni GPU per complessi modelli di intelligenza artificiale conversazionale come ampia inferenza BERT e fornisce un incremento delle prestazioni fino a 3 volte superiore per l’addestramento AI ampio BERT. 

Inoltre, i progetti termici e di raffreddamento avanzati rendono questi sistemi ideali per cluster ad alte prestazioni in cui la densità dei nodi e l’efficienza di potenza sono prioritarie. Il raffreddamento a liquido è disponibile anche per questi sistemi, con un risparmio di OPEX ancora maggiore. Anche Intel Optane™ Persistent Memory (PMem) è supportata su questa piattaforma, consentendo ai modelli significativamente più grandi di essere conservati in memoria, vicino alla CPU, prima di essere elaborati sulle GPU. Per le applicazioni che richiedono un’interazione multi-sistema, il sistema può anche essere dotato di quattro schede NVIDIA ConnectX®-6 200Gb/s InfiniBand per supportare GPUDirect RDMA con un rapporto GPU-DPU 1:1. 

Il nuovo 2U a 2 nodi è un’architettura a risparmio energetico progettata affinché ciascun nodo supporti fino a tre GPU a doppia larghezza. Ogni nodo dispone anche di un singolo processore scalabile Intel Xeon di terza generazione che comprende fino a 40 core e accelerazione AI e HPC integrata. Una vasta gamma di AI, rendering e VDI trarranno vantaggio da questo equilibrio di CPU e GPU. Dotato degli slot di espansione I/O Module (AIOM) avanzati di Supermicro, per capacità di rete rapide e flessibili, il sistema può anche elaborare un enorme flusso di dati per le applicazioni AI/ML più esigenti, la formazione deep learning e l’inferencing, proteggendo al contempo il carico di lavoro e i modelli di apprendimento. È inoltre ideale per il cloud gaming multi-istanza di fascia alta e per molte altre applicazioni VDI ad alta intensità di calcolo. Inoltre, le reti di distribuzione di contenuti virtuali (vCDN) saranno in grado di soddisfare le crescenti richieste di servizi di streaming. La ridondanza dell’alimentazione è incorporata, poiché entrambi i nodi possono utilizzare l’alimentazione del nodo adiacente in caso di guasto. 

Informazioni su Super Micro Computer, Inc.  

Supermicro (SMCI), innovatore leader nella tecnologia dei server ad alte prestazioni e ad alta efficienza, è tra i maggiori fornitori di server avanzati Building Block Solutions® per data center aziendali, cloud computing, intelligenza artificiale e sistemi di edge computing in tutto il mondo. Supermicro è impegnata a proteggere l’ambiente attraverso l’iniziativa “We Keep IT Green®” e fornisce ai clienti le soluzioni più efficienti dal punto di vista energetico e più rispettose dell’ambiente disponibili sul mercato. 

Supermicro, Server Building Block Solutions, e We Keep IT Green sono marchi commerciali e/o marchi registrati di Super Micro Computer, Inc. 

Intel, il logo Intel e altri marchi Intel sono marchi commerciali di Intel Corporation o delle sue controllate. 

Tutti gli altri marchi, nomi e marchi commerciali sono di proprietà dei rispettivi titolari. 

Foto – https://mma.prnewswire.com/media/1657653/Supermicro_Expands_GPU_System_Portfolio.jpg Logo – https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg
 

 

Da non perdere!

P