Minęła dekada od czasu, kiedy zacząłem zawodowo pisać. To dużo? Mało? Dla mnie osobiście kawał czasu. Od 10 lat jestem więc na bieżąco z tym, co dzieje się w świecie technologii. Tej bardziej użytkowej, raczej nie stricte specjalistycznej – na to pewnie zabrakłoby mi życia. A i tak od czasu do czasu zdarza mi się i tej sfery liznąć.
Z okazji tej rocznicy postanowiłem więc zrobić sobie mały powrót do przeszłości i przypomnieć sobie i Wam, co też w tym 2016 roku działo się na rynku wszelkiej maści elektroniki użytkowej.
Jak wyglądał świat sprzed lockdownów, RTX-ów, Ryzenów AI, boomu na sztuczną inteligencję i kryzysu na rynku pamięci? Wystarczy spojrzeć przez lupę na minioną dekadę, żeby przekonać się, że w wielu przypadkach to właśnie 10 lat temu położone zostały kamyczki, o których można powiedzieć, że dzisiaj są stabilnymi konstrukcjami, a w innych przypadkach… cóż – wyrzuconym w uliczną dziurę gruzem.
Zapraszam więc na wycieczkę po 2016 roku. Wskakujcie do DeLoreana i zapnijcie pasy!
Intel Skylake i fundament pierwszych „prawdziwych” ultrabooków
Jeszcze w sierpniu 2015 roku Intel zaprezentował m.in. swoje najnowsze procesory dla laptopów o nazwie kodowej Skylake. Szósta generacja, proces 14 nm – jak się okazało – o dość długiej żywotności, bo 14 nm mogliśmy oglądać także w kolejnych generacjach: Kaby Lake, a także jeszcze następnych, czyli Whisky Lake i Comet Lake. W przypadku procesorów dla desktopów wyglądało to nieco inaczej, co nie zmienia faktu, że Skylake w swoich kolejnych, bardziej zoptymalizowanych odsłonach był obecny do 2019 roku włącznie.
Skylake okazał się jednak w pewnym sensie przełomowy. Po pierwsze – okazało się, że już niebawem Intel przejdzie ze swojego modelu wydawniczego „Tic-Toc” na „process-architecture-optimization”. To z kolei zdefiniowało premiery Intela w kolejnych latach.
Druga sprawa, że generacja Skylake pomogła producentom laptopów wejść w nową fazę tworzenia ultrabooków. W tym coraz częściej na rynku zaczęły pojawiać się ultrabooki typu „2-w-1”. Energooszczędność i wydajność Skylake’ów sprawiła, że ultramobilne laptopy zaczęły stawać się takimi nie tylko z nazwy i to właśnie ten okres w historii Intela stał się nowym paliwem dla producentów ultrabooków w wyścigu pod tytułem „Najlżejszy i najsmuklejszy laptop”.
To za sprawą nie tylko procesorów niskonapięciowych Intel Core-U, ale też jeszcze bardziej energooszczędnych Intel Core-m. To w tym roku pojawił się chociażby HP Spectre ważący nieco ponad kilogram i mierzący 10,4 mm grubości czy ZenBook UX305 o wadze 1,2 kg oraz 12 mm grubości. Apple zaś zaprezentowało MacBooka 12 z Core-m na pokładzie, który ważył mniej niż kilogram. To wartości, które nawet dzisiaj robią wrażenie.

Mimo że dzisiaj szaleństwo tworzenia absurdalnie lekkich i cienkich laptopów nieco wyhamowało, to jestem w stanie zaryzykować, że to właśnie forma ówczesnych laptopów stała się kanwą dla współczesnych maszyn o wadze jeżeli nie piórkowej, to przynajmniej koguciej. Z tą różnicą, że wtedy jeszcze pojawiało się sporo ultrabooków 12- oraz 13-calowych w proporcji 16:9 – dominującej wtedy na rynku. Dzisiaj raczej stawia się na 14 cali w proporcji 16:10.
AMD coś tam obiecuje, jakieś Zen… Coś takiego
Skoro było o Intelu, to uczciwie byłoby zerknąć też w kierunku załogi Lisy Su. W 2016 roku chyba mało kto przeczuwał, że już za parę lat Intel przestanie być niekwestionowanym hegemonem na rynku procesorów dla PC, platform HEDT, stacji roboczych oraz superkomputerów, a AMD, dotychczas bardziej kojarzone z prześmiewczym memem „WINCYJ RDZENIUF!”, zacznie wyznaczać standardy.

Po raz kolejny cofniemy się do początku 2016 i targów Consumer Electronic Show. To właśnie tam AMD oficjalnie zapowiedziało powstanie architektury Zen. Przełomowej, jak się później okazało. Co prawda wzmianki o niej pojawiały się jeszcze w 2015 roku, ale dopiero po CES 2016 świat zaczął się baczniej przyglądać poczynaniom „Czerwonych”.
Przedstawione wówczas demo i pierwsze testy nowej mikroarchitektury pokazały, że pierwsze AMD Ryzen, które finalnie trafią do sprzedaży rok później, są w stanie dać Intelowi takiego pstryczka w nos, po którym będą musieli prostować przegrodę nosową. Co prawda CPU Intela wciąż lepiej radził sobie w grach, ale chociażby w renderingu czy kodowaniu pierwsze Ryzeny potrafiły wypadać lepiej niż „niebieska” konkurencja. I co najważniejsze – to był dopiero przedsmak tego, co AMD było w stanie zaoferować w kolejnych latach.
To jednak nie wszystko, gdyż wszystkie słupki w recenzjach byłyby po nic, gdyby nie fakt, że AMD odzyskało zaufanie wśród konsumentów, co jeszcze bardziej pomogło mu nabrać wiatru w żagle. Mało tego, kolejne lata pokazały, że role się odwróciły i to AMD zaczęło być wyznacznikiem w tworzeniu procesorów. Chyba nie będzie przesadą, jeżeli napiszę, że bez pierwszych układów Zen i dalszego rozwoju tej architektury nie tylko nie byłoby dzisiejszych Ryzenów, ale też Intel Core Ultra. Nic nie pobudza rynku, jak konkurencja.
M.2 PCIe NVMe wchodzi do laptopów
Laptopy klasy premium z 2016 roku mogły pochwalić się czymś jeszcze! Dyski w formacie M.2, a więc tym, który dzisiaj jest absolutnym standardem, otrzymały potężny dopalacz w postaci wykorzystania interfejsu PCIe i protokołu NVMe. To sprawiło, że dyski SSD w tym formacie były w stanie przyspieszyć nawet 3-4 krotnie w stosunku do nośników SATA 3.
W zasadzie można powiedzieć, że to też w pewnym sensie zasługa procesorów Skylake, które otrzymały natywne wsparcie dla PCI Express 3.0, a także systemu Windows 10, pojawiającego się na coraz większej liczbie komputerów od połowy 2015 roku. Co prawda trochę czasu minie, zanim „dziesiątka” wypchnie „siódemkę”, ale już posiadacze Windowsa 8 oraz 8.1 zdecydowanie chętniej przenosili się na nowszy system operacyjny. Ten, który miał być tym ostatnim i ostatecznym.
Jak wiadomo już dzisiaj – nie był.
Zanim dyski NVMe staną się w laptopach standardem minie jeszcze parę lat, ale to właśnie rok 2016 stał się faktycznym początkiem wyrugowania złącza SATA 3 z laptopów, a dyski 2,5-calowe pojawiały się w nich coraz rzadziej. Aż w końcu nadszedł ich kres i teraz co najwyżej pojawiają się w formie dysków przenośnych. Wciąż też można je spotkać w desktopach, ale i tutaj powoli zaczynają odchodzić w zapomnienie…

NVIDIA i architektura Pascal wymiata starsze generacje
2016 rok okazał się przełomowy nie tylko dla Intela, ale też NVIDII, która zrewolucjonizowała granie na laptopach. Oczywiście laptopy dla graczy nie były żadnym novum. Sam zaś byłem wówczas szczęśliwym posiadaczem Asusa ROG G751 z GeForcem GTX 970M. Dotychczas jednak wydajność kart graficznych w wersji mobilnej wyraźnie ustępowała desktopowym odpowiednikom. Wydajność GTX-ów 1000 dla laptopów była natomiast na tyle zbliżona do wydajności stacjonarnych kart graficznych, że NVIDIA postanowiła zrezygnować z oznaczenia M na końcu oznaczenia mobilnego układu.
Następcą GeForce’a GTX 980M stał się GeForce GTX 1080. I miało to sens, gdyż miało odzwierciedlenie w rzeczywistości. Nawet biorąc pod uwagę, że była to marketingowa zagrywka, bo realnie mobilne GPU były nieco „wolniejsze” niż desktopowe odpowiedniki, ale nie o kilkadziesiąt procent (!), a ok. 5 – 10%.
Co prawda Pascal nie przynosił jeszcze obsługi ray tracingu w czasie rzeczywistym, ale nowa generacja GPU zaowocowała także potężnym skokiem wydajności w stosunku do generacji Maxwell, a więc GTX-ów 900 – nawet o 50% – 70%. Była to konsekwencja zmiany procesu technologicznego z 28 nm na 16 nm, co przyniosło potężną poprawę stosunku wydajności/wat. Układy GeForce GTX 1000 stały się jednocześnie pierwszymi, które realnie były w stanie obsłużyć VR.
Do dzisiaj spora część graczy (chociaż pewnie nie tylko, bo nie zapominajmy o rynku specjalistycznych GPU) z rozrzewnieniem wspomina, że skok Maxwell – Pascal był ostatnim wywołującym efekt WOW! Bo czy którakolwiek premiera z czasów RTX-ów wywołała go pod kątem samego skoku wydajności z generacji na generację?
VR tu, VR tam
Skoro już poruszyłem tematy wirtualnej rzeczywistości, to warto wiedzieć, że 2016 rok uznaje się na moment, w którym zestawy VR przestały być technologiczną ciekawostką, a zaczęły być pełnoprawnymi produktami dostępnymi dla każdego. Już na samym początku roku, podczas CES 2016, Sony pokazało swoje PlayStation VR, pokazano także HTC Vive oraz Oculus Rift CV1.
Połączenie wydajności nowych układów graficznych oraz pojawienia się na rynku konsumenckich zestawów wirtualnej rzeczywistości zbudowało przeświadczenie, że oto realnie weszliśmy w erę VR, a boom na wirtualną rzeczywistość zaraz wybuchnie. Jak już dzisiaj wiemy – nie wybuchł, chociaż poszczególni producenci wciąż kuszą zestawami, goglami oraz okularami AR/VR. Wciąż jednak jest to nisza i raczej ciężko mówić o „szale na VR”.
Nie zmienia to jednak faktu, że to właśnie 2016 rok przetarł szlak dla kolejnych generacji gogli wirtualnej rzeczywistości.
„Chodź ze mną łapać Pokemony!”
Powyższa prośba to nie fragment dialogu z kreskówki a Ashem Ketchumem w roli głównej, a samego życia. W 2016 roku The Pokemon Company i Niantic oraz Nintendo oddały w ręce miłośników „kieszonkowych potworów” grę Pokemon GO. I nie była to kolejna produkcja do spędzania wolnego czasu na kanapie, a produkcja mobilna zachęcająca do wyjścia z domu i polowania na pojawiające się wokół Pokemony. Wszystko dzięki rozszerzonej rzeczywistości, czyli AR.
O Pokemon GO i społeczności zebranej wokół gry można by pisać i pisać. Na potrzeby tego artykułu warto jednak wiedzieć, że to właśnie produkcja od Niantic pokazała, że zdecydowanie bardziej atrakcyjną technologią dla mas jest nie VR, a właśnie AR. Do grania w Pokemon GO potrzebny był jedynie smartfon obsługujący GPS i posiadający kamerę. Taki zestaw pozwalał nie tylko „łapać” Pokemony w prawdziwym świecie, ale też spotykać się z innymi trenerami Pokemon oraz wyzywać ich na pojedynki w Gymach. Nawet okres pandemii i lockdownów nie zdołał zabić miłości do gry.
Olbrzymi sukces gry oczywiście sprawił, że jak grzyby po deszczu zaczęły się pojawiać inne gry AR na smartfony, ale żadna nie dobiła do popularności Pokemon GO. Gra jest zresztą rozwijana i wspierana do dzisiaj. Tyle tylko, że nie przez Niantic, a firmę Scopely, która nabyła oddział gier od Niantic za kwotę 3,5 miliarda dolarów.
Telewizory OLED wkraczają na salony
W 2016 roku nie tylko Portugalia zdobyła tytuł Mistrza Europy w piłce nożnej, a Polska zaliczyła najlepszy występ na tej imprezie w dziejach. Wtedy też do świadomości gawiedzi zaczęły przebijać się ekrany OLED, głównie pod postacią TV. Co prawda już 2013 roku można było zakupić pierwszy pełnoprawny TV OLED od LG z 55-calowym ekranem… jeżeli miało się wolne ok. 40 tys. złotych. Dla porównania, flagowe telewizory z panele LCD kosztowały wówczas ok. 8 – 12 tys. złotych.
W 2016 na rynku pojawiło się więcej modeli, a ceny za TV z ekranem OLED spadły mniej więcej o połowę. Wciąż więc nie weszły do tzw. mainstreamu, ale to był moment, w którym z roku na rok zaczęły być stopniowo coraz bardziej dostępne. Nastąpił przełom.
LG było tym producentem, który dość intensywnie chwalił się nową, spektakularną technologią obrazu. Nic dziwnego. Dotychczasowe panele LCD na tle OLED-ów wyglądały, dosłownie i w przenośni, blado. Chociaż wiadome było, że nowa technologia też nie jest bez wad. To właśnie LG zaczęło dostarczać swoje panele takim firmom jak Sony, Toshiba czy Panasonic.
Idealna czerń, świetny kontrast, piękne, soczyste kolory – to panele OLED oferowały na start i jest tak do dzisiaj, mimo że wyświetlacze wykonane w tej technologii nieco spowszedniały. Na początku OLED-y pojawiały się w telewizorach Premium, kosztujących niekiedy kilkanaście, a nawet kilkadziesiąt tysięcy złotych. Co prawda LCD wciąż były jaśniejsze i sporo tańsze, a standardem w telewizorach powoli zaczął stawać się HDR, ale sam doskonale pamiętam szok jaki towarzyszył mi, kiedy po raz pierwszy zobaczyłem w jakimś elektromarkecie włączony TV z ekranem OLED. Do dzisiaj zresztą nawet najlepsze LCD, nawet QLED-y i miniLED do ekranów z organicznymi LED-ami nie mają podejścia. Chociaż tym drugim im zdecydowanie bliżej.
Technologia ta zaś rozwija się bardzo dynamicznie. Panele OLED stają się coraz popularniejsze, tańsze, a spektrum ich wykorzystania znacząco się rozszerzyło. Dzisiaj OLED-y to już nie tylko telewizory i monitory, ale też smartwatche, tablety, smartfony, różnej maści gadżety wyposażone w wyświetlacz, a nawet urządzenia ze zginanymi ekranami.
I wciąż wydaje się, że to nie koniec i w OLED-ach drzemie jeszcze większy potencjał. Choćby początek tego roku pokazał nam, że OLED-y mogą być jeszcze jaśniejsze niż do tej pory.
Smartfony wciąż ewoluują, a jack 3,5 mm stopniowo zaczął znikać
Dzisiaj smartfony z jedną kamerą na pleckach to w zasadzie ciekawostka. Ale przed 2016 rokiem to był standard. Po tym czasie zaczęło się to zmieniać. Apple (iPhone 7 Plus), LG (LG G5) czy Huawei (Huawei P9) postanowili rozpocząć eksperymenty z dwoma obiektywami, a samo myślenie o głównym aparacie w smartfonie zaczęło się zmieniać – stopniowo „aparat” przestał być obiektywem, a stał się systemem kamer. Z tym, że w jednym smartfonie mógł to być obiektyw ultraszerokokątny, a w innym – zoom optyczny.
W efekcie dzisiaj już nikogo nie dziwią smartfony z trzema, a nawet czterema „oczkami” na obudowie, a najlepsze smartfony są w stanie cykać foteczki nie tylko o ogromnych rozdzielczościach, ale też z kapitalnie odwzorowanymi barwami i kontrastem, a wszelkiej maści „tryby nocne” pozwalają tworzyć nocne zdjęcia, na których widać zdecydowanie więcej niż tylko szum matrycy.

A pamiętacie jeszcze powszechne oburzenie, jakie wywołało usunięcie gniazda jack z debiutującej Motoroli Moto Z, a później w iPhonie 7? Sam należałem do ławy oburzonych, bo bez słuchawek nie potrafiłem podróżować tramwajem i chodzić po mieście. A już wtedy wiedziałem, że oto nadchodzi wiatr zmian i raczej ciężko będzie tę rewolucję wyhamować…
Stopniowo bo stopniowo, ale gniazdo jack zaczęło znikać z coraz większej liczby smartfonów, a jego obecność zaczęto w pewnym momencie traktować niczym atut decydujący o zakupie nowego telefonu. Koniec końców, jack 3,5 mm został zastąpiony przez wciąż rozwijający się segment słuchawek bezprzewodowych, w tym wszelkiej maści „pchełek” i alternatyw dla AirPodsów, które zostały zaprezentowane wraz z iPhonem 7. Ja sam zaś od lat korzystam ze słuchawek Bluetooth, a jedyna para „na kablu” to ta przy mojej stacjonarce.
I tyle po oburzeniu…
„Autonomiczne auta za 6-7 lat”
2016 rok to także początek snu o w pełni autonomicznych samochodach. Ale już w bardziej realnym scenariuszu, albowiem NVIDIA podczas CES 2016 przedstawiła komputer dla autonomicznego samochodu – NVIDIA Drive PX 2. Mało tego – BMW, Mercedes oraz Audi przedstawili swoje koncepcje na półautonomiczne samochody. Biorąc to wszystko pod uwagę nie dziwię się, że pojawiła się narracja, że pojazdy potrafiące poruszać się samodzielnie po drogach są tuż za rogiem!
Warto w tym kontekście pamiętać o bardzo ważnej rzeczy – wizję autonomicznych aut sprzedawano w postaci „pełnej autonomii”, co było marketingowym niedoprecyzowaniem i w zasadzie działaniem na szkodę branży automotive. O ile tak można to określić. Bardziej realna była autonomia pojazdu w określonych warunkach, jednak asysta kierowcy wciąż byłaby potrzebna.

Po 2016 roku świat technologii i motoryzacji dmuchał balonik „autonomicznych pojazdów tuż za rogiem!” na wszelkie możliwe sposoby. Tyle tylko, że weryfikacja przyszła dość szybko. Demonstracyjne wersje pojazdów radziły sobie wyłącznie w idealnych, „laboratoryjnych” warunkach. Tempo rozwoju tej technologii nie tyle wyhamowało, co nikt już nie stara się obiecywać gruszek na wierzbie. Rozwój obecnie wydaje się powolny nie dlatego, że potentaci w branży się zdrzemnęli, a raczej dlatego, że postanowili być bardziej ostrożni w swoich obietnicach.
Niemniej, po świecie jeżdżą już auta pozbawione kierowców. Co prawda ograniczone do ściśle określonych stref San Francisco, Los Angeles czy Miami. Mam tu na myśli pojazdy Waymo. Jeżeli wierzyć doniesieniom, pierwsze robotaksówki tej firmy jeszcze w tym roku rozpoczną kursy po Londynie. Po Las Vegas z kolei poruszają się pojazdy Zoox – ciężko je nazywać pełnoprawnymi samochodami, ale nie zmienia to faktu, że potrafią poruszać się po wyznaczonej strefie bez asysty kierowcy. Działanie Zoox pokazał ostatnio chociażby Kuba Klawiter na swoim kanale YouTube.
Świat zaczyna mówić o sztucznej inteligencji
Oczywiście w tytule tego akapitu mamy do czynienia ze sporym uproszczeniem. Wszak o AI, nawet biorąc pod uwagę, że częściej dotyczyło to science fiction, mówi się od lat. W 2016 roku jednak termin ten powoli zaczął dla szarego Smitha i Kowalskiego oznaczać coś realnego. Na rynku bowiem zaczęły pojawiać się akcesoria i urządzenia, którymi można było sterować głosem! Wydawać im komendy! Można je było zintegrować z gadżetami smart home! Wszystko to jednak było bardzo proste i wręcz prymitywne w porównaniu do tego, co szeroko dostępna AI potrafi dzisiaj.
Wtedy nie było jeszcze powszechnie dostępnych LLM-ów, a sztuczna inteligencja nie była w stanie „rozmawiać”, nie działała w kontekstach. W tym samym roku pojawił się także Asystent Google, który lepiej radził sobie z rozumieniem mowy lepiej niż chociażby Echo, ale wciąż pozwalał wyłącznie na wykonywanie prostych, zadanych poleceń. AI stało się namacalne.
Można co prawda w bardzo dużym uproszczeniu mówić, że to właśnie wtedy sztuczna inteligencja zaczęła wchodzić pod strzechy, ale nie oszukujmy się – biorąc pod uwagę ówczesne możliwości „inteligentnych” urządzeń i porównując je z tym, co możliwe jest dzisiaj – po kolejnych 10 latach rozwoju AI – to na myśl o Aleksie od Amazona i możliwością sterowania zintegrowanym z asystentem termostatem można się co najwyżej uśmiechnąć. W takim sposób, w jaki uśmiechamy się, kiedy mały kotek niezdarnie stara się „upolować” ogon swojej mamy i przy tym śmiesznie upada na pyszczek…
Zakończenie
To oczywiście nie wszystko, co przyniósł nam rok 2016 i pewnie wielu z Was wrzuciłoby na tę listę jeszcze kilka innych technologii i zjawisk z nią związanych. W zasadzie mniej więcej wtedy wszelkiej maści fit-akcesoria zaczęły rozpychać się coraz mocniej na rynku wearables, włącznie z Oura Ring. Inne gadżety, jak chociażby „inteligentne lustra” skończyły raczej jako ciekawostka niż coś, co faktycznie przyjęło się w domach i salonach upiększających w taki czy inny sposób.
Czy 2026 wniesie do życia i świata technologii coś, o czym warto będzie wspominać za kolejne 10 lat? Kolejne miesiące powinny dać na to pytanie odpowiedź.




Dodaj komentarz