Zaskoczeni? Pewnie nie za bardzo. Fakt że mobilne układy graficzne zazwyczaj są po prostu mniej wydajne niż ich odpowiedniki z komputerów stacjonarnych nie jest niczym nowym. Chociaż swego czasu otrzymaliśmy mobilne GeForce’y GTX z rodziny Pascal (GTX 1000), które pod kątem mocy obliczeniowej wcale jakoś mocno nie ustępowały wersjom z desktopów.

Układy graficzne NVIDII najnowszej generacji, swoją nazwą upamiętniające Adę Lovelace, brytyjską matematyczkę, trafiły do high-endowych laptopów w związku z czym zaczynają się pojawiać analizy wydajności tychże. Najciekawszym przedstawicielem jest oczywiście GeForce RTX 4090, a więc najbardziej wydajny mobilny układ od „Zielonych”. Spojrzenie na jego specyfikację jednak może budzić pewne wątpliwości. RTX 4090 w wersji mobilnej to zdecydowanie słabszy zawodnik od desktopowego 4090. Powód? To, co już było wiadome w dniu premiery GPU dla laptopów od NVIDII – RTX 4090 w tym wariancie opiera się na rdzeniu AD103, a więc tym samym, co „pełnowymiarowy” RTX 4080. Mało tego, w stosunku do AD103 z desktopów, gracze sięgający po laptopa z RTX-em 4090 w wersji 150 W otrzymają o niemal 500 MHz wolniejszy zegar, niższą przepustowość pamięci oraz 16 GB pamięci GDDR6 zamiast wydajniejszej GDDR6X.

 RTX 4090 (mobilny, 150 W)RTX 4090 (desktopowy)RTX 4080 (desktopowy)
GPU:AD103AD102AD103
architektura:Ada Lovelace, 5 nmAda Lovelace, 5 nmAda Lovelace, 5 nm
rdzenie CUDA:9728163849728
rdzenie RT:7612876
rdzenie Tensor:304512304
taktowanie zegara:2040 MHz2520 MHz2505 MHz
pamięć: 16 GB GDDR6, 256-bit24 GB GDDR6X, 256-bit16 GB GDDR6X, 256-bit
przepustowość pamięci: 576 GB/s1008 GB/s717 GB/s
TGP:150 W450 W320 W

Jak widać, 150-watowy RTX 4090 (mobile), a więc najmocniejsza wersja z laptopów, wyraźnie odstaje pod kątem liczby rdzeni CUDA, Tensor oraz RT od RTX-a 4090 z „blaszaków”, opierającego się na rdzeniu AD102 – największym i posiadającym największą liczbę tranzystorów ze wszystkich układów Ada Lovelace. Skutek może być jeden – RTX 4090 z laptopów pod kątem możliwości wyraźnie pozostaje w tyle w stosunku do wariantu z AD102 na pokładzie. Testy wykonane przez ekspertów z portalu Techspot pokazują, że w rozdzielczości 1440p wersja z karty graficznej z desktopów jest średnio o 36% wydajniejsza, przy czym w przypadku Dying Light 2 z włączonym ray tracingiem oraz Cyberpunku 2077 z aktywnym RT różnice wynoszą odpowiednio 70,8 oraz 61,1%. Rozdzielczość 4K pokazuje jednak jeszcze większy rozdźwięk i tutaj już średnia wynosi 56%. Najmniejsze rozbieżności występują przy rozdzielczości Full HD, ale nie oszukujmy się – raczej mało kto kupuje sprzęt z tej półki wydajnościowej i cenowej, żeby sobie grać w rozdzielczości 1080p.

NVIDIA po raz kolejny okazuje się grać nieprzyzwoicie. Wraz ze wspomnianą we wstępie generacją Pascal, „Zieloni” zrezygnowali z umieszczania litery M za modelem karty i miało to swoje uzasadnienie, o którym także wspomniałem. Firma chciała w ten sposób zaznaczyć, że Pascale mobilne i stacjonarne to niemalże to samo pod kątem wydajności, a te które miały być faktycznie mniej wydajne (Max-Q, nastawione na energooszczędność) były wyraźnie oznaczone. Później polityka oznaczania kart graficznych zaczęła się zmieniać. Mimo iż różnice pomiędzy „mobilkami” a egzemplarzami do stacjonarek ponownie się zwiększyły, to litera M nie powróciła, a na dodatek zaczęto kombinować z oznaczeniami Max-Q i dzisiaj, jeżeli ktoś nie wczyta się uważnie w specyfikację laptopa, to do końca nie wie, co kupuje. I tym sposobem dochodzimy do dnia obecnego, gdzie kupując laptopa z RTX-em 4090 gracz otrzymuje w zasadzie okrojonego RTX-a 4080.

Układ AD102 w pełnej krasie. Fot. NVIDIA

Żeby była jasność, zdaję sobie sprawę, że nawet gdyby obie wersje 4090 bazowały na AD102, ciężko byłoby przenieść w skali 1:1 układ tak rozbudowany układ do laptopów i różnice w wydajności i tak by występowały. Pytanie tylko, czy byłyby aż tak wyraźne? No i na ile uczciwe jest podejście producenta, który raczej nie stara się uświadamiać konsumentów mówiąc: „Słuchajcie, bo ten RTX 4090 z laptopa to nie jest to samo, co 4090 z desktopa, także wicie-rozumicie…”. Wręcz przeciwnie – oba podzespoły, mimo znaczących różnic wynikających z zastosowania dwóch różnych GPU, nazywa tak samo sugerując, że tak w istocie jest.

 

Źródło: techspot, nvidia