În cadrul conferinței Advancing AI din 10 octombrie 2024, AMD a lansat cipul Instinct MI325X, conceput pentru a îndeplini sarcini de inteligență artificială (AI) și de învățare profundă (deep learning) în centrele de date. Lansarea reprezintă un pas important pentru AMD în competiția pe piața acceleratoarelor AI din centrele de date, unde NVIDIA este lider.
Performanța Instinct MI325X pentru AI, integrare și scalabilitate
Construit pe arhitectura CDNA 3, Instinct MI325X vine cu o serie de îmbunătățiri față de predecesorul său, MI300X. Acesta dispune de o memorie HBM3E de 256 GB cu o lățime de bandă de 6 TB/s, oferind o capacitate cu 1.8x mai mare decât modelul anterior, MI300X, și o performanță de 1.3x mai mare în operațiuni FP16 și FP8.
FP16 (Floating Point 16-bit) și FP8 (Floating Point 8-bit) indică precizia în operațiunile de calcul efectuate de unitățile de procesare grafică (GPU), fiind esențiale în aplicațiile de inteligență artificială (AI) și învățare profundă.
În configurațiile de sistem cu opt acceleratoare MI325X, utilizatorii pot atinge o performanță de 10.4 PetaFLOPS în operațiuni FP16 și 20.8 PetaFLOPS în operațiuni FP8, cu o lățime de bandă totală de memorie de 48 TB/s.
Memoria HBM3E permite gestionarea unor modele AI extrem de complexe, care implică trilioane de parametri, oferind performanțe superioare în sarcini de antrenare și inferență pentru modelele generative AI, cum ar fi Llama 3.1 și Mixtral 8x7B. O caracteristică importantă a Instinct MI325X este compatibilitatea cu platformele existente, ceea ce înseamnă că poate fi implementat ușor în sistemele actuale bazate pe MI300X.
Un alt aspect pe care AMD l-a punctat este dezvoltarea continuă a ecosistemului său software, ROCm. Întrucât majoritatea dezvoltatorilor AI sunt familiarizați cu platforma CUDA a NVIDIA, AMD încearcă să încurajeze adoptarea acceleratoarelor sale prin îmbunătățirea ROCm, astfel încât să fie mai ușor pentru dezvoltatori să își transfere modelele AI de pe platformele NVIDIA pe cele AMD.
Lansarea Instinct MI325X plasează AMD într-o competiție directă cu NVIDIA, care domină în prezent piața centrelor de date. AMD susține că MI325X oferă performanțe superioare în comparație cu cipul NVIDIA H200, depășindu-l cu 1.3x în lățime de bandă și performanțe FP8 și FP16. Cu suport extins pentru framework-uri populare precum PyTorch și modele precum Llama 3.1, AMD încearcă să ofere o alternativă competitivă la ecosistemul NVIDIA.
Hype-ul din jurul acestor cipuri provine nu doar din competiția strânsă dintre AMD și NVIDIA pentru dominația pe piața AI, ci și din cererea tot mai mare pentru soluții hardware capabile să susțină volumele mari de date și calcule necesare pentru aplicațiile de inteligență artificială. Pe măsură ce companiile AI dezvoltă soluții tot mai avansate, crește și numărul de clienți, ceea ce sporește cererea de hardware specializat.