Od naszego ostatniego poradnika dotyczącego mobilnych kart graficznych minął już ponad rok, więc czas zaktualizować naszą bazę tekstów mających rozwiewać wątpliwości pojawiające się przy zakupie sprzętu komputerowego.

W tym tekście nie będę rozpisywał się ogólnie o wadach i zaletach posiadania laptopa ze zintegrowaną lub niezależną kartą graficzną, gdyż temat ten był szerzej rozwinięty w pierwszej części poradnika, do przeczytania której zachęcam. Druga część poradnika będzie zebraniem w jednym miejscu najważniejszych faktów dotyczących niezależnych grafik z ostatnich kilku miesięcy. Jak się okazuje – w świecie technologii to naprawdę sporo czasu.

 

Karta graficzna dla gracza w laptopie? (Prawie) wyłącznie NVIDIA

Przez wspomniany czas na rynku pojawiło się sporo nowości, z czego te najważniejsze wyszły spod logo NVIDIA. Nadeszła rewolucja, która wyprowadziła realistyczne śledzenie promieni w czasie rzeczywistym z profesjonalnych maszyn wyposażonych w absurdalnie wydajne konfiguracje wykorzystywane przy tworzeniu zaawansowanych animacji w np. studiach filmowych największych światowych marek. Ray tracing trafił pod strzechy dzięki kartom graficznym z serii GeForce RTX opartych o nowe układy – Turing. Jakby tego było mało, NVIDIA, konsekwentnie rozwijająca technologię uczenia maszynowego, zaimplementowała w nowych grafikach ze swojej stajni technologię DLSS (Deep Learning Super Sampling), czyli – w dużym uproszczeniu, antyaliasing działający w oparciu o sztuczną inteligencję. W założeniu DLSS miał nie tylko wygładzać krawędzie korzystając z maszynowego uczenia, ale jednocześnie pozytywnie wpływać na liczbę wyświetlanych klatek na sekundę. Jednak coś, co w benchmarkach prezentowało się całkiem nieźle, w grach zaprezentowało się… tak sobie. Krawędzie cbywały nienaturalnie i nieestetycznie rozmyte, także z wydajnością bywało różnie. Technologia ta jest cały czas udoskonalana i efekty jej rozwoju, na szczęście, są już widoczne.

 

 

Ray tracing zaś, początkowo obsługiwany był wyłącznie przez karty graficzne z rodziny RTX, wyposażone w specjalnie przygotowane w tym celu rdzenie RT, obecnie jednak NVIDIA udostępniła tę technologię także dla kart graficznych GTX z rodziny Pascal oraz Turing. Jednakże, jak możne było się spodziewać, wydajność tej technologii w kartach graficznych pozbawionych specjalnych rdzeni pozostawia wiele do życzenia. Być może przyczyną tego stał się fakt, że nad swoją wersją technologii śledzenia promieni pracuje także AMD. „Czerwoni” deklarują, że „ich” ray tracing do działania również nie będzie potrzebował specjalnie projektowanych rdzeni, a jednocześnie ma zapewnić wyższą wydajność niż odpowiednik od NVIDII.

 

 

Z DLSS sprawa wygląda nieco inaczej – akurat obsługi tej technologii NVIDIA nie będzie mogła przenieść na rdzenie starszej generacji, gdyż do uczenia maszynowego wykorzystuje on specjalnie opracowane rdzenie Tensor.

Obie opisywane technologie miały już w momencie pojawienia się pierwszych kart GeForce RTX przynieść rewolucję w świecie gier wideo. Gracze ruszyli do sklepów po nowe karty graficzne… i właściwie do dzisiaj gry obsługujące wspomniane technologie można policzyć na palcach ręki stolarza. Ray tracing znajdziemy w Metro Exodus, Battlefieldzie V, Shadow of the Tomb Rider (gra dostała łatkę obsługującą RT dopiero pół roku po premierze), Asseto Corsa… i właściwie to tyle, jeżeli mówimy o segmencie gier AAA czy też głośniejszych premierach. Natomiast DLSS trafiło do takich tytułów jak Metro Exodus, Hitman 2, Anthem, Battlefield V czy wspomniany wcześniej Shadow of the Tomb Rider. Nie ma tego zbyt wiele, prawda? Patrząc na liczbę gier oraz tytuły, jakie od października 2018 roku pojawiły się na rynku, można wręcz powiedzieć, że jest kiepsko.

Nie można jednak mówić, że rewolucji nie było. Po prostu jej tempo nie jest takie, jak NVIDIA i producenci gier zakładali. Deweloperzy również wydają się nie wdrażać powyższych technologii za wszelką cenę. Trudno się dziwić, wszak trzeba brać pod uwagę, że część gier, która pojawiła się w pierwszym kwartale tego roku zaczęła powstawać na grubo przed pojawieniem się ray tracingu oraz DLSS w „cywilnych” kartach graficznych. Dlatego gracze wciąż liczą, a nawet wręcz oczekują, że wysyp gier uzbrojonych w najnowsze graficzne technologie dopiero przed nami.

 

 

NVIDIA GeForce RTX

Przejdźmy jednak do samych kart graficznych. Architektura Turing zadebiutowała w styczniu tego roku i jej pierwszymi przedstawicielami były grafiki z oznaczeniem RTX –  dopiero wiosną na rynek trafiły GTX-y, czyli karty graficzne oparte na tej samej architekturze, ale pozbawione rdzeni RT oraz Tensor. NVIDIA oznaczyła GeForce’y RTX kodem 20xx, zaś GeForce’y GTX 16xx.

Podobnie jak w przypadku mobilnych kart graficznych z generacji Pascal, NVIDIA zrezygnowała z wyróżniania rozwiązań mobilnych, czyli notebookowych, literą M na końcu oznaczenia. W przypadku kart z generacji Maxwell mieliśmy do czynienia np. z GTX-em 980 (wersja dla desktopów) oraz GTX-em 980M (wersja dla notebooków), gdyż odpowiedniki z laptopów mocno odstawały pod względem wydajności od swoich pełnowymiarowych odpowiedników. Obecnie różnice w wydajności wersji desktop i Mobile są na tyle małe, że dodatkowe oznaczenie nie jest potrzebne.

Chyba że mówimy od grafikach stworzonych z myślą od najsmuklejszych konstrukcjach, czyli układach Max-Q. W układach o tym oznaczeniu postawiono na osiągnięcie idealnego balansu pomiędzy wydajnością a kulturą pracy. Grafiki Max-Q mają delikatnie obniżone zegary w stosunku do standardowych wariantów, przez co ich TDP wynosi 90 W zamiast 150 W w przypadku RTX-a 2080 oraz 115 W w przypadku RTX-a 2070. I jak można się domyślać – odbiło się to na mocy obliczeniowej. Wydajność teoretyczna mocniejszego układu zauważalnie zmalała, spadając do poziomu „pełnonapięciowego” RTX-a 2070, ale trzeba pamiętać, że RTX 2080, nieważne w jakim wariancie, wciąż posiada więcej jednostek cieniujących, teksturujących, rdzeni RT oraz rdzeni Tensor, odpowiedzialnych za uczenie maszynowe.

Jak dotąd nie było jeszcze nic o RTX-ie 2060 – nic dziwnego. To grafika, którą można porównać z takim uczniakiem, który w klasie nie jest frajerem, ani nie należy do ekipy „cool-guy’ów”, świadectwa z paskiem do domu nie przyniesie, podobnie jak wstydu przed rodziną. RTX 2060, występujący wyłącznie w wersji 6 GB (jego poprzednik – GTX 1060 posiadał wersje z pamięcią 3 GB oraz 6 GB) jest obecnie chyba najczęściej wybieranym podzespołem, po jaki sięgają gracze. Trudno się temu dziwić, gdyż posiada naprawdę sensowny stosunek ceny do osiągów, a w przeciwieństwie do GTX-ów generacji  16xx, pozwala na wypróbowanie zarówno dobrodziejstw technologii śledzenia promieni w czasie rzeczywistym, jak i DLSS.

Oto zestaw kart graficznych z rodziny NVIDIA RTX.

karta graficzna:pojemność i typ pamięci:taktowanie bazowe:taktowanie pamięci:wydajność teoretyczna:
NVIDIA GeForce RTX 2080 8 GB GDDR6, 256 bit1380 MHz1500 MHz9,4 TFLOPS
NVIDIA GeForce RTX 2080 Max-Q8 GB GDDR6, 256 bit735 MHz1500 MHZ6,5 TFLOPS
NVIDIA GeForce RTX 20708 GB GDDR6, 256 bit1215 MHz1750 MHz6,6 TFLOPS
NVIDIA GeForce RTX 2070 Max-Q8 GB GDDR6, 256 bit885 MHz1750 MHz5,5 TFLOPS
NVIDIA GeForce RTX 20606 GB GDDR6, 192 bit960 MHz1750 MHz4,8 TFLOPS

 

GeForce GTX 16xx – o co tutaj chodzi? Co na to AMD?

Jak nie wiadomo o co chodzi, to pewnie chodzi o pieniądze. Musimy pamiętać, że rynek konsumenckich kart graficznych to nie tylko układy z najwyższej półki cenowej i wydajnościowej. Spora liczba graczy sięga jednak po grafiki pozwalające na swobodną grę na ustawieniach wysokich lub średnich w rozdzielczości Full HD… i to wystarczy! Takie modele sprzedają się bardzo dobrze, gdyż za stosunkowo niewielkie pieniądze można zakupić sprzęt pozwalający na płynną rozgrywkę  w zdecydowanej większości najnowszych gier wideo.

Dla takich osób poprzednia generacja posiadała GTX-a 1050 oraz 1050 Ti. Generacja Turing zaś została wzbogacona o układy GeForce’a GTX 1650 w wersji standardowej i Max-Q oraz najmocniejszego przedstawiciela niższej serii – GTX-a 1660 Ti, również dostępnego w wariancie energooszczędnym (Max-Q) oraz pełnonapięciowym. GTX 1660 Ti znajduje się na tym samym poziomie wydajnościowym, co GTX 1060 generacji Pascal, a więc najsłabszy układ z topowej trójki poprzedniej generacji. Czy można zatem mówić, że to „słaba grafa”? Jeżeli chcemy grać na „ultra” i rozdzielczości wyższej niż Full HD – jej moc obliczeniowa może okazać się niewystarczająca. Ale, jak już wspomniałem, jeżeli nie najwyższe ustawienia nas zadowolą, a nieco niższa rozdzielczość nie sprawia bólu naszym oczom, a nie chcemy na laptopa wydać więcej niż ok. 5500 złotych, taka karta może okazać się idealnym balansem.

Laptopy z grafikami pokroju GeForce GTX 1650 (4 GB GDDR5) to wydatek ok. 4000 złotych i więcej.

Warto jeszcze przypomnieć, że AMD również ma konkurenta dla GTX-ów 16xx. Chociaż, chyba należałoby powiedzieć, że to właśnie GTX-y 16xx są odpowiedzią na Radeona RX 560X – grafikę ze średniej półki cenowej opartą na chipie Polaris 21. I to ripostą bardzo udaną, gdyż  pod kątem wydajności wspomniany Radeon plasuje się w okolicy GTX-a 1650 Max-Q. 

karta graficzna:pojemność i typ pamięci:taktowanie bazowe:taktowanie pamięci:wydajność teoretyczna:
NVIDIA GeForce GTX 1660 Ti6 GB GDDR6, 192 bit1455 MHz1500 MHz4,9 TFLOPS
NVIDIA GeForce GTX 1660 Ti Max-Q6 GB GDDR6, 192 bit1140 MHz1500 MHZ4,1 TFLOPS
NVIDIA GeForce GTX 16504 GB GDDR5, 128 bit1395 MHz2000 MHz2,8 TFLOPS
NVIDIA GeForce GTX 1650 Max-Q4 GB GDDR5, 128 bit1020 MHz2000 MHz2,2 TFLOPS
AMD Radeon RX 560X4 GB GDDR5, 128 bit1223 MHz1750 MHz2,2 TFLOPS

 

Niska półka – propozycje od NVIDII i AMD

Zarówno AMD, jak i NVIDIA nie mają w zanadrzu zbyt wielu modeli kart graficznych przeznaczonych do obsługi prostych multimediów. NVIDIA posiada dwa nowe modele (GeForce MX230 oraz GeForce MX250), zaś AMD – świeżutkie, bo pochodzące z maja tego roku, trzy karty graficzne (Radeon 610, Radeon 620 oraz Radeon 625). Jednak to właśnie grafiki od „zielonych” wypadają lepiej. 2 GB pamięci GDDR5, szyna PCIe x16 oraz dużo wyżej taktowane zegary zapewniają wyższe osiągi. Przedstawiciele AMD mają co prawda tyle samo pamięci, ale DDR3, a więc mniej wydajnej i wręcz nieco dzisiaj archaicznej, jeżeli mówimy o dGPU. Mało tego, pracują w oparciu o szynę PCIe x8, co przekłada się na niższą przepustowość interfejsu.

Zestawienie wspomnianych kart graficznych w tabeli poniżej.

karta graficzna:pojemność i typ pamięci:taktowanie bazowe:taktowanie pamięci:wydajność teoretyczna:
NVIDIA GeForce MX2502 GB GDDR5, 64 bit1519 MHz1502 MHz1,2 TFLOPS
NVIDIA GeForce MX2302 GB GDDR6, 64 bit1519 MHz1502 MHZ0, TFLOPS
AMD Radeon 625 2 GB DDR3, 64 bit730 MHz900 MHz0,8 TFLOPS
AMD Radeon 6202 GB DDR3, 64 bit730 MHz900 MHz0,78 TFLOPS
AMD Radeon 6102 GB GDDR5, 64 bit1030 MHz1125 MHz0,66 TFLOPS

Grafiki profesjonalne – NVIDIA chce zgarnąć wszystko, podobnie jak AMD…

Ostatnia premiera profesjonalnego, mobilnego układu graficznego od NVIDII miała miejsce… w lutym 2018 roku. Wtedy to na rynku pojawiły się Quadro P3200, P4200 oraz P5200 – odświeżone chipy generacji Pascal trafiły do mobilnych stacji roboczych. Ale podczas targów Computex 2019 CEO NVIDII oficjalnie zapowiedział pojawienie się mobilnych Quadro RTX-ów w laptopach wiodących producentów stacji roboczych (Lenovo, Dell, HP, Asus, MSI, Gigabyte oraz Razer). Mało tego, NVIDIA stworzyła własną certyfikację mającą gwarantować laptopom wyposażonym w karty graficzne z rodziny Quadro oraz GeForce GTX bezawaryjną pracę z aplikacjami wykorzystywanymi w zastosowaniach profesjonalnych o charakterze kreatywnym. Więcej na ten temat pisaliśmy tutaj.

Do laptopów trafią: Quadro RTX 5000 (16 GB GDDR6), Quadro RTX 4000 (8 GB GDDR6) oraz Quadro RTX 3000 (8 GB GDDR6). Wielka trójka z rodziny Quadro adresowana jest jednak dla twórców zajmujących się zaawansowaną obróbką, symulacją oraz renderowaniem treści w rozdzielczości 4K i wyższej. W tym, a jakże, modeli i wizualizacji 3D wykorzystujących ray tracing.

NVIDIA przygotowała także modele o mniejszej mocy obliczeniowej. Mowa tutaj o opartych na „najmniejszym” z Turnigów rdzeniu – TU117 – Quadro T1000 (4 GB GDDR5) oraz Quadro T2000 (4 GB GDDR5).

Moment ciszy ze strony swojego głównego konkurenta wykorzystało AMD, wypuszczając na rynek karty graficzne z rodziny Radeon Pro będącej bezpośrednim spadkobiercą specjalistycznych układów FirePro. W marcu na rynku pojawiło się kilka układów profesjonalnych, świetnie sprawdzających się w pracy z programami projektowymi, graficznymi, inżynieryjnymi itp., co potwierdza, między innymi, certyfikacja ISV. AMD przygotowało układy z każdej półki cenowej. Oparte na chipie Polaris 20 układy Radeon Pro 570X, Radeon Pro 575X to grafiki ze średniej półki. Zaś Radeon Pro 580X, a także Radeon Vega 48 bazujący na chipie Vega 10 to układy wyższej klasy, co można stwierdzić już po samej specyfikacji. Ponadto, tuż przed końcem maja AMD wypuściło jeszcze jedną profesjonalną grafikę, tym razem jednak należącą do grupy niedrogich podzespołów. Mowa o Radeonie Pro WX 3200. Jak prezentują się mobilne karty graficzne dla profesjonalistów od AMD na papierku? Zerknijcie do poniższej tabelki.

karta graficzna:pojemność i typ pamięci:taktowanie bazowe:taktowanie pamięci:wydajność teoretyczna:
AMD Radeon Pro Vega 488 GB HBM2, 2048 bit1200 MHz786 MHz7,99 TFLOPS
AMD Radeon Pro 580X8 GB GDDR5, 256 bit1100 MHz1695 MHz5,5 TFLOPS
AMD Radeon Pro 575X4 GB GDDR5, 256 bit1096 MHz1700 MHz4,5 TFLOPS
AMD Radeon Pro 570X4 GB GDDR5, 256 bit1000 MHz1700 MHz3,96 TFLOPS
AMD Radeon Pro WX 32004 GB GDDR5, 128 bit925 MHz1500 MHz1,33 TFLOPS