Sunteți pe pagina 1din 4

La GTC 2022, NVIDIA au anuntat variantele solutiile sale in diferite domenii ce implica AI, Machine

Learning, Deep Neural Networking si HPC

Solutiile sale includ GPU-uri, de data asta bazate pe chipul GH100 si totodata de CPU-uri (Grace).

NVIDIA a anuntat noua serie de GH100, bazat pe chipul integral H100 pe arhitectura Hopper.

Schimbarile arhitecturii cuprind:

- Noua generatie de Tensor Cores – de 6 ori mai rapide decat generatia precedenta bazata pe
Ampere
- Un numar mai mare de Streaming Multiprocessors si totodata mai rapide
- Tensor cores cu de 2x MMA mai rapid

*MMA – Matrix MultiplyAccumulate | Algoritm de calcul al matricelor 4x4 ce include calcul FP16
impreuna cu FP32. Tensor Cores sunt specializate pe calcul matriceal cu diferite tipuri de date, de la
Floating Point 16-bit, la 32 iar noua arhitectura cuprinde instructiuni cu date FP8. NVIDIA: “In decursul a
6 ani, s-au facut training pe tehnologii pe FP32, FP16 iar acum, FP8”

Puterea de calcul al fiecarora dintre tipuri de date


Noi instructiuni DPX prin algoritmul Omics. Omics cuprinde mediul biologic (AND, proteine, ARN).
Aceste instructiuni DPX sunt specializate in algoritmi precum Smith-Waterman ori Needleman-
Wunsch pentru calculul si alinierea nucleotidelor, clasificarea proteinelor. Algoritmi precum Smith-
Waterman produce rezultate acurrate, dar consuma resurse inedite. Folosind DPX, instructiunile
reduc timpii de asteptate a rezultatelor. Route Optimization cuprinde mediul de AI training si
turistic. Instructiunile DPX pot accelera drastic robotii ce sunt programati prin algoritmul Floyd-
Warshall. Un H100 reduce timpii de asteptare cu pana la 10 ori, simularea Quantum

- Un nou Transformer Engine – foloseste o combinatie de software si core-uri tensor Hopper


pentru a imbunatati timpii in Transformer Model. Transformer Engine este cel care optimizeaza
calculele prin switch-ul de FP8 si FP16 in calculi. Rescaleaza si face switch si reduce timpul de
calcul de la saptamani la zile

- Memorii de generatie noua, HBM3 ce cuprinde de 2 ori mai mult bandwith. Un H100 pe
interfata SXM poate reda pana la 3 TB/s
- 10MB mai mult cache L2, cu rezultat de 50MB cache L2
- Un nou Confidential Computing. Acesta are rolul de a proteja datele utilizatorilor impotriva
atacurilor cibernetice.
- Multi Instance GPU Isolation partitioneaza in Cloud, GPU-ul cu pana la 7 instante cu propriile
specificatii. Acesta ajuta in boost-ul de procesare al diferitelor instante si totodata poate oferi si
securitate la nivel de user prin Confidential Computing.

S-ar putea să vă placă și