NVIDIA a lansat plăci de bază. Nu, nu ca în vremurile când încă producea chipseturi pentru PC. DGX Spark și DGX Station sunt platforme de AI computing adresate celora care folosesc sau vor să dezvolte/testeze aplicații AI fără a apela la serviciile unui centru de procesare cloud. Cum ar fi, vrei să ai propriul tău AI supercomputer.
Echipat cu cele mai noi cipuri Grace Blackwell, NVIDIA DGX îți pune 20 petaflopi putere de procesare pe masa de birou. Iar asta e doar ce poți obține cu soluția de accelerare „on-board”, sistemul oferind și opțiuni de expansiune prin popularea sloturilor PCI-E cu până la trei acceleratoare AI suplimentare.
Prin comparație, computerele Copilot+ de la Microsoft sunt echivalentul jucăriilor pentru copii preșcolari, capabile să ruleze aplicații care folosesc accelerare AI la nivel de bază. Aici vorbim despre PC-uri construite pentru dezvoltatori, cercetători și laboratoare de inteligență artificială, concepute pentru a gestiona sarcini de lucru intense, cum ar fi antrenarea de LLM-uri sau rularea de simulări complexe. Cel mai bun lucru este că toate acestea pot fi realizate acum fără nevoia unui centru de procesare cât o mică uzină. Sigur, asta nu înseamnă că procesarea AI de nivel avansat a devenit dintr-o dată ieftină, dar micii întreprinzători pot spera acum să dețină propriul supercomputer AI în miniatură, adaptat nevoilor lor și servind ca un punct de plecare pentru viitoare extinderi (pe măsură ce business-ul lor va crește).
Ambele sisteme sunt folosesc noile cipuri Grace Blackwell de la NVIDIA, construite pentru următorul val de inteligență artificială, în special pentru inteligența artificială „agentică”. Acestea sunt modele care pot lua decizii și acționa singure. Cu aceste cipuri, utilizatorii pot prototipa, optimiza și rula modele de inteligență artificială mai rapid ca niciodată.
DGX Spark folosește supercip-ul NVIDIA GB10 Grace Blackwell, ceea ce îl face rapid, eficient și suficient de compact pentru a fi amplasat sub birou. Acesta poate oferi până la 1 petaflop de putere de calcul bazată pe inteligență artificială. Pentru context, asta înseamnă aproximativ o mie de trilioane de operațiuni pe secundă. Este ceva ce te-ai aștepta de la servere cloud masive, nu de la o stație de lucru. De asemenea, vine cu 128 GB de memorie unificată. Acest lucru este util atunci când lucrezi cu seturi de date mari sau rețele neuronale complexe, care necesită un spațiu de memorie cât mai amplu și conectat direct la acceleratorul AI. Ceea ce diferențiază cu adevărat DGX Spark este modul în care se conectează la o infrastructură de inteligență artificială mai mare. Poți prototipa și testa modele local, apoi exporta totul direct în NVIDIA DGX Cloud sau în orice altă configurație cloud accelerată sau locală. Aceasta este o realizare importantă pentru cercetători și startup-uri. Înseamnă că nu trebuie să vă schimbați întregul flux de lucru doar pentru a scala.
DGX Station este soluția și mai avansată. Folosește cipul ultra-puternic GB300 și oferă performanțe de inteligență artificială de până la 20 petaflops. De asemenea, suportă 784 GB de memorie unificată și viteze de rețea de 800 Gb/s, ceea ce este foarte puternic pentru o configurație desktop. Poți rula proiecte masive de inteligență artificială local sau împărți sistemul în mai multe mini-computere folosind tehnologia GPU Multi-Instance de la NVIDIA.
Desigur o platforma hardware puternic nu înseamnă mare lucru fără suport software, NVIDIA oferit la acest capitol o soluție completă reforma sistemului de operare DGX, microserviciile NIM și instrumente precum PyTorch și Jupyter preîncărcate.
AI PC-urile NVIDIA pentru personal computing vor putea fi, achiziționate de parteneri OEM obișnuiți: Dell, HP, Acer, MSI și GIGABYTE oferind începând cu luna iulie propriile build-uri realizate în jurul acestor platforme hardware.

