Spring til indhold
Tilbage til nyheder
Nvidia bygger AI-fabrikken om med særskilt spor til inferens

Nvidia bygger AI-fabrikken om med særskilt spor til inferens

AICloudUdviklingSikkerhed

Nvidia brugte GTC 2026 til at vise, hvor markedet bevæger sig hen, hvis man tager enterprise-AI helt ud i fuld skala. Ifølge The Decoder består den udbyggede Vera Rubin-platform nu af et POD med 40 racks, 1.152 Rubin-GPU'er og 60 exaflops compute. Den slags tal er langt over, hvad de fleste danske organisationer kommer i nærheden af. Alligevel er nyheden vigtig, fordi den siger noget om, hvordan fremtidens AI-infrastruktur bliver bygget.

Det centrale greb er ikke kun flere GPU'er. Nvidia skiller inferens tydeligere ud som sit eget spor. Med Groq 3 LPX-racket kommer der en dedikeret pipeline til lav latenstid, mens NVL72-racket ifølge Nvidia skal levere op til fire gange træningsydelse og ti gange inferensydelse per watt sammenlignet med Blackwell. Det er et klart signal: når modeller først er taget i brug, bliver det lige så vigtigt at servere dem billigt og hurtigt som at træne dem.

💡 Det vigtigste tal Vera Rubin POD samler 40 racks og 1.152 GPU'er. Nvidia siger samtidig, at NVL72 kan løfte inferensydelse per watt 10 gange over Blackwell.

Artiklen peger også på to andre spor, som danske virksomheder bør lægge mærke til. Det ene er Nemotron Coalition, hvor Nvidia vil binde modelbyggere som Mistral AI, Perplexity og Cursor tættere til sin egen infrastruktur. Det andet er NemoClaw, som bliver præsenteret som en sikkerhedsstak for AI-agenter. Det sidste er måske den mest praktiske nyhed. Når agentbaserede systemer får adgang til filer, systemer og arbejdsprocesser, er sikkerhed ikke længere et ekstra lag bagefter. Det skal ind i platformen fra start.

For danske virksomheder betyder det ikke, at de skal købe specialhardware i morgen. Men de bør skelne skarpere mellem træning, finjustering og inferens i deres arkitektur og indkøb. Mange betaler for dyr kapacitet, når det egentlige problem er svartid, drift og styring. Offentlig sektor står med samme udfordring, især hvis man vil køre følsomme arbejdsgange tæt på egne data eller i en europæisk cloud.

Den mere ærlige læsning af GTC er derfor ikke, at alle nu skal bygge en AI-fabrik. Det er, at infrastrukturen bliver mere opdelt, mere specialiseret og mere sikkerhedsafhængig. Organisationer, der forstår den opdeling tidligt, kan spare både penge og hovedpine senere.

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?