Nie ukrywam, że dziwnie patrzy się na tytuł tego newsa, gdyż z jednej strony mowa o path tracingu – technologii będącej rozwinięciem ray tracingu. Jeszcze bardziej zaawansowanym modelem rządzącym oświetleniem w grafice 3D, który dzisiaj potrafi „zajeżdżać” nawet najwydajniejsze GPU. Z drugiej – o kartach graficznych Intela, które mimo szczerych chęci producenta – nie są w stanie konkurować jak równy z równym z konkurencją od AMD i NVIDII. No, może w segmencie wydajnościowym ze środka stawki.

Intel jednak ma plan. Otóż Amerykanie chcą doprowadzić path tracing do takiego poziomu optymalizacji, aby mógł być wydajnie obsługiwany nawet przez karty graficzne z niskiej półki wydajnościowej, wliczają w to towarzystwo zintegrowane GPU. Według specjalistów w dziedzinie z Intela, implementacja path tracingu stosowana na chwilę obecną pozostawia wiele do życzenia i wg nich – da się ten stan rzeczy zmienić, gdyż miejsca na optymalizację jest sporo. Trzeba też wziąć pod uwagę fakt, że technologia renderowania ścieżek światła w czasie rzeczywistym wciąż jest bardzo młoda i wciąż obarczona „błędami młodości”.

Naukowcy zauważyli chociażby, że da się stworzyć wydajniejszą metodę generowania odbić dla niektórych półkolistych powierzchni, da się też szybciej wydajniej obliczać światło, dzięki czemu finalnie da się renderować część powierzchni i „materiałów” od 50 do 500 procent szybciej. Inne badania pokazały, że da się zwiększyć kontrolę nad symulacją niektórych efektów dynamicznych. To z pewnością nie koniec pomysłów.

Na koniec jeszcze można pokusić się na małą refleksję, czy path tracing w kartach graficznych o niskiej wydajności jest w ogóle potrzebny. Wydaje się, że nie, chociaż deweloperzy i modderzy już implementowali technologie realistycznego oświetlenia w różnego tytułu gry retro lub o niskich wymaganiach sprzętowych, z grafiką sprzed kilku dekad. Łatwo tu wymienić chociażby Minecrafta,  Quake’a czy pierwszego Half-Life’a. Efekty cieszyły oko.

 

 

Nie zmienia to faktu, że gry o „standardowych” jak na dzisiejsze czasy wymaganiach sprzętowych i tak na iGPU nie będą działać w ogóle lub będą działać w zbyt niskiej liczbie klatek na sekundę, aby można było mówić o przyjemności z grania. Co nie zmienia faktu, że optymalizacja sama w sobie jest istotna i jeżeli finał pracy inżynierów Intela będzie taki, że z efektów realistycznego oświetlenia będzie mogła cieszyć się zdecydowanie większa rzesza graczy niż dotychczas, to nie mam nic przeciwko.

 

Źródło: techspot