Rozwój sztucznej inteligencji w ostatnich miesiącach nie przyspieszył – on wystrzelił, rozpędził się, a my do końca jeszcze nie wiemy, w którą stronę ten rozwój będzie zmierzał. Akurat w przypadku NVIDII, kojarzonej przede wszystkim z kartami graficznymi, prace nad sieciami neuronowymi, uczeniem maszynowym oraz SI nie jest niczym nowym. Jak się jednak okazuje, dalszy rozwój sztucznej inteligencji wymaga coraz wydajniejszych narzędzi. Ostatnio swoje plany przedstawił Intel, w ten weekend w tym temacie wypowiedział się Jensen Huang, CEO NVIDII.   

Zaanonsowany sprzęt od NVIDII będzie wykorzystywany przy pracach nad projektami typu LLM (Large Language Models), na których bazują różnego rodzaju chatboty, tworzeniu algorytmów oraz grafowych sieci neuronowych wykorzystywanych m.in. do analizy danych oraz wykrywania oszustw. Jako pierwsi, dostęp do nowego superkomputera od NVIDII otrzymają Microsoft, Meta oraz Google Cloud.

DGX GH200 w pełnej krasie. Fot. NVIDIA

Pod kątem specyfikacji DGX GH200 ma prawo robić wrażenie. Cały układ składał się będzie z 256 chipów NVIDIA GH200 z generacji Grace Hopper, mających łączyć w sobie efektywność rdzeni Grace z olbrzymią wydajnością rdzeni NVIDIA H100. DGX GH200 posiadać ma ponadto 144 terabajtów(!) współdzielonej pamięci. Dla porównania, poprzedni superkomputer, DGX A100 posiadał „zaledwie” 320 GB pamięci. Całość ma oferować wydajność na poziomie 1 eksaflopsa.

Na tym jednak zapowiedzi się nie kończą, gdyż szef NVIDII zdradził, że jeszcze w tym roku, a dokładniej – bliżej jego końca – do Sieci podłączony zostanie superkomputer będący owocem połączenia czterech jednostek DGX GH200 w jeden system. Projekt nosi nazwę NVIDIA Helios. Będzie on wykorzystywany do pracy nad wielkimi modelami sztucznej inteligencji.

 

Źródło: NVIDIA