Nowe rozdanie w smart-okularach – od porażki Google Glass do Project Aura i AI-okularów przyszłości

W 2013 roku Google zaprezentowało swój pierwszy projekt inteligentnych okularów – Google Glass. Urządzenie miało zrewolucjonizować komunikację i sposób korzystania z Internetu: dzięki niewielkiemu wyświetlaczowi, wbudowanej kamerze i mikrofonowi użytkownik mógł robić zdjęcia, wyszukiwać informacje i prowadzić rozmowy bez wyjmowania smartfona z kieszeni.

Jednak mimo ogromnych ambicji i medialnego szumu Google Glass szybko okazały się komercyjną klapą. Ograniczona funkcjonalność, wysoka cena oraz poważne obawy o prywatność (związane m.in. z możliwością nagrywania otoczenia bez zgody) sprawiły, że projekt nie zdobył społecznej akceptacji. Google wycofało go z rynku, a druga, biznesowa wersja (Glass Enterprise) również nie osiągnęła sukcesu.

Porażka Google Glass pokazała, że aby technologia mogła stać się codziennym narzędziem, musi być nie tylko zaawansowana, ale też akceptowalna społecznie, estetyczna i rzeczywiście użyteczna. Teraz, ponad dekadę później, Google wraca do gry z zupełnie nowym podejściem – zbudowanym wokół sztucznej inteligencji i współpracy z partnerami z branży technologicznej i modowej.

Android XR – fundament nowej strategii

W centrum obecnych działań Google znajduje się platforma Android XR, która ma łączyć technologie rozszerzonej, mieszanej i wirtualnej rzeczywistości z możliwościami sztucznej inteligencji Gemini. Celem jest stworzenie otwartego ekosystemu dla okularów i headsetów – podobnie jak Android dla smartfonów.

Google nie chce powtarzać błędów z przeszłości i stawia na model współpracy: firma dostarcza oprogramowanie i AI, a sprzęt tworzą wyspecjalizowani partnerzy. Dzięki temu powstają dwa niezależne, lecz komplementarne nurty: zaawansowany Project Aura realizowany z Xreal oraz AI-okulary tworzone z markami Warby Parker, Gentle Monster i Kering Eyewear.

Project Aura – powrót Google do okularów AR

Project Aura to idea inteligentnych okularów tworzonych razem z firmą Xreal (znaną wcześniej jako Nreal). W odróżnieniu od Google Glass, Aura ma być urządzeniem AR pełną gębą: wyposażonym w przezroczyste wyświetlacze przed oczami i liczne czujniki, zdolnym nakładać cyfrowe obrazy na rzeczywisty świat. Według Google okulary te zaoferują szerokie pole widzenia – około 70°. Użytkownik będzie mógł zobaczyć duży wirtualny ekran czy grafiki zawieszone przed sobą, zamiast maleńkiego obrazka w rogu pola widzenia jak w Google Glass.

Project Aura ma dwie wbudowane kamerki oraz zestaw mikrofonów i czujników ruchu. Dzięki temu okulary mogą śledzić ruch głowy, a nawet dłoni użytkownika, co pozwoli np. na sterowanie gestami. Kamery posłużą też do rozpoznawania otoczenia przez AI – okulary będą mogły przekazywać informacje kontekstowe (np. nazwy obiektów, tłumaczyć tekst z plakatu, podpowiadać nawigację).

Sercem sprzętu będzie specjalny procesor Qualcomm Snapdragon XR zaprojektowany pod kątem rzeczywistości rozszerzonej. Okulary początkowo będą działać w tandemie z zewnętrznym modułem (tzw. puck), do którego trafi elektronika i bateria – podobnie jak to działało w Magic Leap czy niektórych zestawach VR. Docelowo Google chciałoby jednak umożliwić współpracę okularów bezpośrednio ze smartfonem, by korzystać z jego mocy obliczeniowej – tu do gry może wejść partnerstwo z Samsungiem.

Project Aura na razie celuje głównie w deweloperów i entuzjastów AR. To swoisty dev-kit, który ma zachęcić twórców aplikacji do eksperymentowania i przygotowania oprogramowania zanim pojawi się konsumencka wersja urządzenia. Google potwierdza, że aplikacje tworzone teraz na platformę Android XR (choćby z myślą o zestawie Samsung Project Moohan) będzie można łatwo przenieść na okulary Aura. Więcej szczegółów sprzętowych mamy poznać podczas zbliżającej się konferencji Augmented World Expo (AWE) – Xreal zapowiada prezentację kolejnych konkretów już w czerwcu.

Sam produkt konsumencki prawdopodobnie zadebiutuje dopiero po dopracowaniu technologii, być może w przeciągu najbliższego roku lub dwóch. Google świadomie oddaje tutaj pierwszeństwo partnerowi – Xreal ma doświadczenie w budowie okularów (model Xreal Air cieszy się dobrą opinią jako „przenośny ekran” do telefonu czy laptopa), co zwiększa szanse, że Project Aura uniknie rynkowej porażki swego niesławnego protoplasty.

AI-okulary – fuzja technologii i mody

Drugim filarem strategii Google są inteligentne okulary z funkcjami AI, projektowane we współpracy z topowymi markami optycznymi i modowymi. Shahram Izadi, szef projektu Android XR w Google, zapowiedział podczas Google I/O, że firma pracuje nad konsumenckimi smart-okularami, które wyglądem nie będą się różnić od zwykłych korekcyjnych czy przeciwsłonecznych.

Dzięki temu użytkownicy będą chcieli je nosić na co dzień – wnioski z porażki Glass są jasne: gadżet na twarzy musi być stylowy i nie rzucać się w oczy. Dlatego Google zawiązało partnerstwo z Warby Parker (popularna w USA marka oferująca designerskie okulary w przystępnej cenie) oraz południowokoreańską firmą Gentle Monster (znaną z awangardowych okularów noszonych przez gwiazdy popkultury). To połączenie sił technologii i mody ma sprawić, że inteligentne okulary Google będą dostępne w różnych stylach – od codziennych i dyskretnych po odważne designerskie – tak by każdy mógł znaleźć model dla siebie.

Funkcje i możliwości AI-okularów

Choć ostateczna specyfikacja nie jest jeszcze ujawniona, Google zdradziło kilka funkcji prototypowych AI-okularów rozwijanych z partnerami:

  • Asystent AI „widzący” otoczenie – okulary wyposażone w kamerę i mikrofony mogą analizować to, co widzi i słyszy użytkownik. Asystent oparty na modelu Gemini potrafi opisywać scenę przed użytkownikiem, rozpoznawać obiekty, a nawet streścić tekst, na który patrzymy. Dzięki temu użytkownik może zapytać „co mam przed sobą?” – a AI udzieli odpowiedzi głosem lub wyświetli ją na szkłach.
  • Rozszerzona rzeczywistość informacyjna – prototypy demonstrowane na Google I/O pokazały, że okulary mogą nakładać przydatne informacje na obraz świata. Przykładowo wyświetlą wirtualne strzałki na drodze wskazujące zakręt podczas nawigacji, tłumaczenie tekstu napisanego w obcym języku bezpośrednio obok oryginału czy wynik wyszukiwania internetowego na temat oglądanego obiektu. To jak mieć Mapy Google, Tłumacza i Wyszukiwarkę przed oczami.
  • Komunikacja i multimedia – okulary posłużą do podstawowych zadań znanych ze smartfonów. Za pomocą wbudowanych głośniczków i mikrofonu można będzie rozmawiać przez telefon lub wydawać komendy głosowe, słuchać muzyki czy podcastów, a nawet robić zdjęcia i wideo z perspektywy oczu. Integracja z Androidem pozwoli np. wysyłać wiadomości dyktowane głosem lub odbierać powiadomienia.
  • Asysta dla niepełnosprawnych – Google dostrzega ogromny potencjał takich okularów w roli urządzeń wspomagających. Mogą one pełnić funkcję „cyfrowego asystenta wzroku” dla osób słabowidzących (opisując otoczenie, odczytując tekst na głos) albo aparatu słuchowego wspierającego osoby niedosłyszące. To kierunek, w którym firma chce się rozwijać, aby technologie AR/AI były inkluztywne.

Wszystko to ma działać w oparciu o platformę Android XR i wspomniany wcześniej model Gemini AI – co oznacza ścisłą integrację z usługami Google. Okulary będą najpewniej sparowane ze smartfonem, korzystając z jego łączności internetowej i dostępu do aplikacji. To jednak melodia przyszłości; najpierw trzeba dopracować interfejs i nawyki użytkowników, by wygodnie korzystali z np. map czy komunikatorów za pomocą okularów.

Kiedy pojawią się na rynku?

Choć Google nie podało jeszcze oficjalnych dat premiery, Warby Parker ujawniło, że pierwsze modele mogą trafić do sprzedaży po 2025 roku, prawdopodobnie w 2026. Google zainwestowało w ten projekt aż 150 milionów dolarów, z czego połowa trafi na prace rozwojowe, a druga część jako udział w firmie.

Równolegle rozwijana jest współpraca z Gentle Monster i Kering Eyewear, co może wskazywać, że Google planuje wprowadzić okulary AI w różnych segmentach rynku – od mainstreamu po premium.

Technologiczne sojusze: Samsung i Qualcomm

Projektowanie inteligentnych okularów to skomplikowane przedsięwzięcie, dlatego Google zawiązało też strategiczne sojusze technologiczne. Kluczowym partnerem jest Samsung – od lat kooperujący z Google przy urządzeniach mobilnych. Samsung wspólnie z Google pracuje nad Project Moohan – zapowiadanym na końcówkę 2025 roku zestawem mixed reality (MR), który ma konkurować z Apple Vision Pro.

Moohan to coś w rodzaju gogli VR/AR, pozwalających zarówno na zanurzenie w wirtualnym 3D, jak i przenikanie obrazu z kamer do środka (czyli tzw. passtrough AR). Urządzenie to posłuży jako platforma referencyjna – demonstrator możliwości Android XR. Ma obsługiwać zarówno klasyczne aplikacje 2D z Androida, jak i nowe aplikacje 3D oraz funkcje AI generowane przez model Gemini. Niestety, wysoka cena tego headsetu (prawdopodobnie zbliżona do kwoty 3500 dolarów) sprawi, że będzie to sprzęt dla entuzjastów, a nie masowego odbiorcy.

Drugim technologicznym filarem jest Qualcomm – największy na świecie producent chipów mobilnych. Google przyznaje, że w okularach Project Aura wykorzysta specjalny procesor z serii Snapdragon XR zoptymalizowany pod kątem AR. Zapewni on wydajność potrzebną do jednoczesnego renderowania grafiki 3D, analizy obrazu z kamer i obsługi modeli AI. Qualcomm od lat inwestuje w rzeczywistość rozszerzoną – stworzył m.in. platformę reference design dla okularów AR działających w połączeniu ze smartfonem (tzw. Wireless AR Smart Viewer).

Co ciekawe, kilku kluczowych ekspertów Qualcomm w dziedzinie XR (jak Hugo Swart) przeszło ostatnio do zespołu Google, co sugeruje przeniesienie know-how prosto do Android XR. Wsparcie Qualcomm oznacza też, że w przyszłości okulary Google będą kompatybilne z technologiami bezprzewodowej łączności z telefonem (FastConnect) i innymi rozwiązaniami mobilnymi. Innymi słowy – sprzętowo i programowo projekt jest zabezpieczony dzięki partnerstwu z doświadczonymi firmami.

Czy tym razem się uda?

Przed Google wciąż wiele wyzwań – technologicznych (miniaturyzacja komponentów, żywotność baterii, łączność 5G/6G), społecznych (prywatność, akceptacja noszenia kamer na twarzy) oraz użytkowych (znalezienie przekonującego „powodu istnienia” smart-okularów, by stały się tak niezbędne jak smartfon). Jednak firma wydaje się wyciągać wnioski z błędów Google Glass. Nowe podejście zakłada stopniowy rozwój: najpierw zapewnienie treści i aplikacji poprzez dev-kity (Aura, Moohan), potem wprowadzenie atrakcyjnych wzorniczo okularów dla early adopterów, a finalnie dojście do w pełni dojrzałych okularów AR dla mas. Google ma też asa w rękawie, którego brakowało w 2013 roku – potężną sztuczną inteligencję i chmurę, zdolną dostarczyć realnie przydatne funkcje, jakich 10 lat temu nie dało się zrealizować.

Czy smart-okulary staną się kolejną wielką platformą, zmieniającą nasz sposób korzystania z informacji tak jak kiedyś smartfony? Tego nie wiemy. Ale jedno jest pewne: Google nie zamierza pozostać w tyle. Po latach ciszy gigant z Mountain View ponownie wkracza na scenę wearable computing – tym razem bogatszy o doświadczenia, z przemyślaną strategią i silnymi sojusznikami. Jeśli plan się powiedzie, okulary naszpikowane AI mogą już za parę lat stać się dla nas tym, czym dziś są telefony – osobistym nieodłącznym asystentem. A wtedy historia zapomni o potknięciu Google Glass, pamiętając Google jako tego, który ostatecznie wyniósł inteligentne okulary na technologiczny szczyt.

źródła: cnet.com, theverge.com, blog.google

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *