Nvidias Hopper H100 med, 80 GB HBM3-minne och imponerande VRM

Nvidias Hopper H100 med, 80 GB HBM3-minne och imponerande VRM

marknivå: Nvidia tog bort sin Hopper-arkitektur vid GTC 2022 och tillkännagav H100 Server Accelerator, men visar bara renderingar av den. Nu har vi äntligen några bilder i handen av SXM-versionen av kortet, som har 700W TDP i åtanke.

Det har gått lite över en månad sedan Nvidia presenterade H100. Serveracceleratorn är baserad på Hopper-arkitekturen, och hittills har vi bara sett renderingar av den. det förändras idag, som att tjäna hemmet Nyligen delade bilder av kortet i dess SXM5-formfaktor.

GH100 Compute GPU är byggd på TSMC:s N4-processnod och har en formstorlek på 814 mm. SXM-varianten har 16896 FP32 CUDA-kärnor, 528 Tensor-kärnor och 80 GB HBM3-minne anslutet med en 5120-bitars buss. Som kan ses på bilderna finns det sex 16 GB minne runt GPU:n, men en av dem är inaktiverad.

Nvidia citerade också en häpnadsväckande 700W TDP, vilket är 75% högre än sin föregångare, så det är ingen överraskning att kortet kommer med en extremt imponerande VRM-lösning. Den har 29 induktorer, var och en utrustad med två effektsteg och ett effektsteg med ytterligare tre induktorer. Att kyla alla dessa tätt packade komponenter skulle förmodligen vara en utmaning.

En annan märkbar förändring är kontaktlayouten för SXM5. Det finns nu en kort och en lång mezzaninkoppling, medan tidigare generationer hade två lika stora långa kontakter.

Nvidia kommer att börja leverera system utrustade med H100 under tredje kvartalet i år. Det är värt att nämna att det för närvarande finns en PCIe-version av H100 listad för 4 745 950 yen ($36 300) efter skatter och frakt i Japan, även om den har färre CUDA-kärnor, nedgraderat HBM2e-minne och hälften av TDP av SXM-varianten.

#Nvidias #Hopper #H100 #featured #80GB #HBM3 #memory #impressive #VRM #Source #Nvidias Hopper H100 presenterad, 80GB HBM3-minne och imponerande VRM