Passa alle informazioni sul prodotto
1 su 1

NVIDIA H100

NVIDIA H100

Prezzo di listino €78.999,00 EUR
Prezzo di listino Prezzo scontato €78.999,00 EUR
In offerta Esaurito
Imposte incluse. Spese di spedizione calcolate al check-out.

Sfrutta prestazioni, scalabilità e sicurezza senza precedenti per ogni carico di lavoro con la GPU NVIDIA H100 Tensor Core. Con NVIDIA NVLink Switch System, è possibile collegare fino a 256 H100 per accelerare i carichi di lavoro exascale, insieme a un Transformer Engine dedicato per risolvere modelli di linguaggio da trilioni di parametri. Le innovazioni tecnologiche combinate di H100 possono accelerare modelli linguistici di grandi dimensioni di 30 volte rispetto alla generazione precedente per fornire un'IA conversazionale leader di settore.

Specifiche principali
Descrizione Prodotto NVIDIA H100 - processore GPU computing - NVIDIA H100 Tensor Core - 80 GB
Tipo di dispositivo Processore GPU computing
Tipo di bus PCI Express 5.0
Motore grafico NVIDIA H100 Tensor Core
Memory 80 GB HBM3
Senza ventola
Dimensioni (LxPxH) 26.7 cm x 11.1 cm x 3.47 cm
Garanzia del produttore 3 anni di garanzia
Progettato per ProLiant DL380 Gen10 Plus, DL380A, DL385 Gen11

 

Caratteristiche prodotto

 

Training IA trasformazionale

La H100 è dotata di Tensor Core di quarta generazione e del Transformer Engine con precisione FP8 che offre un training fino a 9 volte più veloce rispetto alla generazione precedente per i modelli MoE (Mix-of-Experts). La combinazione di NVlink di quarta generazione, che offre 900 gigabyte al secondo (GB/s) di interconnessione GPU-GPU, NVSwitch Switch System, che accelera la comunicazione da ogni GPU su più nodi, PCIe Gen5 e il software NVIDIA Magnum IO offre scalabilità efficiente da cluster di piccole imprese a cluster GPU massicci e unificati.

 

Inferenza su deep learning in tempo reale

L'IA risolve una vasta gamma di sfide aziendali, utilizzando una gamma ugualmente ampia di reti neurali. Un ottimo acceleratore di inferenza IA non deve garantire solo le massime prestazioni ma anche la versatilità per accelerare tali reti. H100 espande ulteriormente la leadership di NVIDIA nell'inferenza sul mercato con diversi progressi che accelerano l'inferenza fino a 30 volte e offrono la latenza più bassa. I Tensor Core di quarta generazione accelerano tutte le precisioni, tra cui FP64, TF32, FP32, FP16 e INT8, mentre il Transformer Engine utilizza FP8 e FP16 insieme per ridurre l'utilizzo della memoria e aumentare le prestazioni, mantenendo comunque l'accuratezza per i modelli linguistici di grandi dimensioni.

 

Calcolo ad alte prestazioni exascale

La piattaforma per data center NVIDIA offre guadagni in termini di prestazioni oltre la legge di Moore. Le nuove e rivoluzionarie funzionalità IA di H100 aumentano ulteriormente la potenza dell'HPC+IA per accelerare i tempi delle scoperte per scienziati e ricercatori che lavorano per risolvere le sfide più importanti del mondo. La H100 triplica le operazioni in virgola mobile al secondo (FLOPS) dei Tensor Core a doppia precisione, offrendo 60 teraFLOPS di calcolo a FP64 per HPC. Le applicazioni HPC con IA integrata possono sfruttare la precisione TF32 di H100 per ottenere un petaFLOP di throughput per operazioni di moltiplicazione a matrici a precisione singola, senza alcuna modifica del codice.

 

Analisi dei dati accelerata

L'analisi dei dati spesso consuma la maggior parte del tempo nello sviluppo di applicazioni IA. Poiché i set di dati di grandi dimensioni sono disseminati su più server, le soluzioni scale-out con server commodity basati solo su CPU sono rallentati dalla carenza di prestazioni di calcolo scalabili. I server accelerati con H100 offrono la potenza di calcolo, oltre a 3 terabyte al secondo (TB/s) di banda di memoria per GPU e scalabilità con NVLink e NVSwitch, per affrontare l'analisi dei dati con prestazioni elevate e scalabilità per supportare set di dati di grandi dimensioni. Insieme a NVIDIA Quantum-2 InfiniBand, il software Magnum IO, Spark 3. 0 accelerato da GPU e NVIDIA RAPIDS, la piattaforma per data center NVIDIA è in grado di accelerare questi enormi carichi di lavoro a livelli mai visti prima in termini di prestazioni ed efficienza.

 

Pronta per l'uso aziendale

I responsabili IT cercano di massimizzare l'utilizzo (sia di picco che medio) delle risorse di calcolo nel data center. Spesso utilizzano la riconfigurazione dinamica del calcolo per dimensionare correttamente le risorse per i carichi di lavoro in uso. Multi-Instance GPU (MIG) di seconda generazione in H100 massimizza l'utilizzo di ciascuna GPU partizionandola in modo sicuro in ben sette istanze separate. Con il supporto per il computing riservato, H100 consente un utilizzo sicuro end-to-end e multi-tenant, ideale per gli ambienti CSP.

 

Calcolo riservato integrato

Le attuali soluzioni di computing riservato sono basate su CPU, troppo limitate per i carichi di lavoro ad alta intensità di calcolo come IA e HPC. NVIDIA Confidential Computing è una funzionalità di sicurezza integrata dell'architettura NVIDIA Hopper che rende la H100 il primo acceleratore al mondo con funzionalità di elaborazione riservate. Gli utenti possono tutelare la riservatezza e l'integrità dei dati e delle applicazioni durante l'elaborazione, ottenendo al contempo l'accelerazione senza pari delle GPU H100. La soluzione crea un ambiente di esecuzione affidabile (TEE) basato su hardware che protegge e isola l'intero carico di lavoro in esecuzione su una singola GPU H100, più GPU H100 all'interno di un nodo o singole istanze MIG. Le applicazioni accelerate da GPU possono essere eseguite invariate in ambienti TEE e non devono essere partizionate. Gli utenti possono combinare la potenza del software NVIDIA per IA e HPC con la sicurezza di un hardware comprovato offerto da NVIDIA Confidential Computing.


Specifiche estese
Generale
Tipo di dispositivo
Processore GPU computing - senza ventola
Motore grafico
NVIDIA H100 Tensor Core
Tipo di bus
PCI Express 5.0
Caratteristiche
Tecnologia Multi-Instance GPU (MIG), performance numero di operazioni in virgola mobile a singola precisione 51 Tflop
Memory
Dimensione
80 GB
Larghezza di banda
2 Tbit/s
Tecnologia
HBM3
Miscellanea
Profondità
11.1 cm
Larghezza
26.7 cm
Peso
1.69 kg
Altezza
3.47 cm
Garanzia del produttore
Servizi e supporto
Garanzia limitata - 3 anni
Requisiti di sistema
Sistema operativo richiesto
Red Hat Enterprise Linux 9.0, SUSE Linux Enterprise Server 15 SP3, SUSE Linux Enterprise Server 15 SP4, Ubuntu 20.04, Microsoft Windows Server 2022
Informazioni sulla compatibilità
Progettato per
HPE ProLiant DL380 Gen10 Plus, DL380A, DL385 Gen11

Acceleratore PCIe NVIDIA H100 80 GB per HPE

Sei alla ricerca di prestazioni più elevate per l'addestramento e l'inferenza dell'intelligenza artificiale (AI), l'High Performance Computing (HPC) o la grafica? Con AI e HPC, gli acceleratori NVIDIA® per HPE contribuiscono alla risoluzione delle più importanti problematiche scientifiche, industriali e aziendali. Visualizza contenuti complessi per creare prodotti all'avanguardia, raccontare storie coinvolgenti e ripensare le città del futuro. Ricava nuove informazioni da enormi set di dati. I server Hewlett Packard Enterprise con acceleratori NVIDIA sono concepiti per l'era dell'elaborazione flessibile, fornendo accelerazione senza precedenti a tutti i livelli.
Acceleratore PCIe NVIDIA H100 80 GB per HPE



NVIDIA H200 NVL è la soluzione ideale per i design rack enterprise con raffreddamento ad aria che richiedono configurazioni flessibili.
Con un massimo di quattro GPU connesse tramite NVIDIA NVLink e l’aumento della velocità di memoria di 1,5 volte, è possibile accelerare l’inferenza LLM fino a 1,7 volte e l’HPC fino a 1,3 volte su H200 NVL rispetto a H100 NVL.
NVIDIA H200 NVL include 5 anni di abbonamento NVIDIA AI Enterprise e semplifica le modalità di creazione di una piattaforma enterprise predisposta per l’AI.
NVLink di terza generazione che raddoppia la larghezza di banda diretta GPU-GPU.
Core RT di terza generazione per accelerare i carichi di lavoro di rendering.
L’elaborazione riservata NVIDIA è una funzione di sicurezza integrata degli acceleratori basati su Hopper.
Sviluppa e implementa l’AI a ogni livello

Sviluppa e implementa l’AI a ogni livello

  • Con gli acceleratori NVIDIA e i sistemi HPE Cray, puoi creare nuovi modelli AI con addestramento con o senza supervisione per AI generativa, visione artificiale, Large Language Model (LLM), scoperte scientifiche e modelli dei mercati finanziari.
  • Ottieni inferenza in tempo reale per la visione artificiale, l’elaborazione del linguaggio naturale, il rilevamento delle frodi, la manutenzione predittiva e l’imaging medico con gli acceleratori NVIDIA e i server HPE ProLiant Compute.
  • Gli acceleratori NVIDIA per HPE migliorano le prestazioni di elaborazione, riducendo notevolmente il tempo di esecuzione di attività parallele e offrendo soluzioni in tempi più rapidi.
Server HPE con qualificazione e certificazione NVIDIA

Server HPE con qualificazione e certificazione NVIDIA

  • Gli acceleratori NVIDIA per HPE vengono sottoposti a una procedura di certificazione dell'integrità termica, meccanica, energetica e di segnale per confermare la piena funzionalità dell'acceleratore nel server. Le configurazioni certificate NVIDIA sono supportate per l'uso in produzione.
  • I server HPE con certificazione NVIDIA sono testati per la convalida delle prestazioni con più GPU e più nodi per una vasta gamma di carichi di lavoro, ottenendo altissimi livelli in termini di prestazioni applicative, facilità di gestione, sicurezza e scalabilità.
HPE Integrated Lights-Out (iLO) Management

HPE Integrated Lights-Out (iLO) Management

  • Il software per la gestione server HPE iLO ti consente di configurare, monitorare e aggiornare gli acceleratori NVIDIA senza problemi e in tutta sicurezza, ovunque nel mondo.
  • HPE iLO è una tecnologia incorporata che contribuisce alla semplificazione della configurazione di server e acceleratori, del monitoraggio dell'integrità, dell’alimentazione e del controllo termico mediante la Silicon Root of Trust di HPE.
Visualizza dettagli completi
Il tuo carrello
Prodotto Subtotale prodotto Quantità Prezzo Subtotale prodotto
NVIDIA H100
NVIDIA H100
NVIDIA H100
€78.999,00/ciascuno
€0,00
€78.999,00/ciascuno €0,00