NVIDIA wspólnie z czołowymi producentami pamięci – SK hynix, Micron i Samsung – opracowuje nowy standard pamięci o nazwie System On Chip Advanced Memory Module (SOCAMM). Według raportu SEDaily, trwają już testy wydajnościowe prototypów, a masowa produkcja może ruszyć jeszcze w tym roku. Mało tego, moduły mogą dość szybko znaleźć swoje zastosowanie. Chociaż „szybko” wciąż nie ma nawet przybliżonej daty premiery.
Czym wyróżnia się SOCAMM?
SOCAMM ma być znaczącym ulepszeniem w stosunku do tradycyjnych modułów DRAM oraz Low-Power Compression Attached Memory Modules (LPCAMM – więcej o tych modułach możecie dowiedzieć się z naszej recenzji ThinkPada P1 Gen 7). Wyróżniać go będzie kilka kluczowych cech. Mowa o niższych kosztach produkcji niż chociażby w przypadku klasycznych SODIMM-ach, wyższej efektywności energetycznej dzięki zastosowaniu pamięci LPDDR5x, zwiększonej liczbie styków (694 w SOCAMM vs. 644 w LPCAMM vs. 260 w DRAM), modułowej konstrukcji, co pozwoli na wymianę lub rozbudowę, a także jeszcze bardziej kompaktowych rozmiarach, co pozwoli wyposażać w bardzo pojemny RAM również najbardziej mobilne urządzenia.
W tym miejscu jednak trzeba zadać sobie pytanie, czy SOCAMM finalnie będzie istotnie konkurencyjny wobec istniejących już modułów RAM. LPCAMM również wróżono, że zacznie wypierać poczciwie SODIMM-y, ale mimo niewątpliwych zalet tych bardziej kompaktowych i efektywniejszych modułów, póki co ich ekspansja wydaje się stać w miejscu.
SOCAMM a przyszłość AI
SOCAMM prawdopodobnie znajdzie zastosowanie w następcy NVIDIA Project Digits, którego pierwsza generacja trafi na rynek w maju 2025 roku. Nowy standard może stać się kluczowy w kontekście szybszego przetwarzania modeli AI, które wymagają dużej ilości pamięci o wysokiej przepustowości.
NVIDIA od dawna dąży do popularyzacji sztucznej inteligencji, a rozwój SOCAMM wpisuje się w tę strategię. Choć standard SODIMM powoli (baaaaaaaardzo powoli) wydaje się przechodzić do historii, SOCAMM może stać się jego naturalnym następcą, zapewniając większą wydajność i skalowalność dla przyszłych systemów AI.
Źródło: nvidia, tom’s hardware