#444 transkrypt – Immersyjna kreatywność: czy potrzebujemy okularów Apple?
Możesz pobrać transkrypcję w formacie .PDF.
Partnerami tego podcastu są: iDream.pl oraz Pancernik.eu – współprace płatne, a także Opus Lab.
[MUZYKA]
Tu Krzysztof Kołacz, a ty słuchasz właśnie podcastu, „Bo czemu nie?”. Usłyszysz w nim o technologiach, które nas otaczają i nas w tych technologiach zanurzonych. Sprawdzam, pytam i podpowiadam jak korzystać z nich tak, aby to one służyły nam, a nie my im.
Proszę, zostaw opinię na Apple Podcasts lub na Spotify. Twój głos ma znaczenie!
Zaczynamy.
[MUZYKA CICHNIE]
[KRZYSZTOF] Czołem, Moi Drodzy, witam Was bardzo serdecznie w kolejnym odcinku podcastu – tak jak zapowiadałem – odcinku z gościem, bo tego mojego solo gadania zdecydowanie już w ostatnich tygodniach, a właściwie po nich wystarczy. W odcinku, w którym nie będę sam, ponieważ dziś będzie tutaj ze mną Łukasz Mirocha, który już gościł w tym podcaście, ale dziś opowie nam o czymś zupełnie innym niż poprzednio. A ponieważ tamte odcinki były już szmat czasu temu, to zdecydowanie sobie jeszcze porozmawiamy ogólnie o tym, kim Łukasz jest, czym się w życiu zajmuje i co tutaj robi, co go sprowadza. Zanim zaczniemy, przypomnę, że wszelkie linki do osób, rzeczy i innych spraw, które w dzisiejszym odcinku padną, znajdziecie w jego opisie pod adresem boczemunie.pl/444. Tam znajdziecie także zapis na mój newsletter okołotechnologiczny, który bardzo często skręca w kierunku filozofii – bo ta dzisiaj się tutaj też pojawi – i który wysyłam w każdą sobotę o poranku. Tam podejmuję właśnie takie okołotechnologiczne tematy, a jeżeli interesuje Cię konkret, czyli jak zaprzęgnąć technologię do pracy dla Ciebie, to zapisz się na stałe do grona jego subskrybentów, a otrzymasz ode mnie ponad 150-stronicowego e-booka, który Ci w tym pomoże. A dziś gości u mnie człowiek, który nie jest tylko teoretykiem, ale i praktykiem w dziedzinie nowych mediów oraz oprogramowania kreatywnego, zajmujący się mediami imersyjnymi, trójwymiarem działającym w czasie rzeczywistym. O czym będziemy rozmawiać? Cóż, nie mogło być inaczej – o przyszłości Apple Vision Pro, możliwej ich ewolucji w kontekście okularów od Apple, a przede wszystkim o kreatywności, do której potrzebujemy technologicznych nowinek, a może nie? Te wszystkie pytania zadam zaraz Łukaszowi i zaczniemy od nieco szerszej perspektywy, jak obiecałem. Pozwólcie, że po pierwsze Łukasza – doktora Łukasza – przywitam, a po drugie poproszę go, żeby nam się przedstawił swoimi słowami, bo to zawsze najlepiej wychodzi. Cześć, Łukasz, miło, że wpadłeś ponownie.
[ŁUKASZ] Dzień dobry, cześć, witam wszystkich, witam siebie i oby nie do trzech razy sztuka.
[KRZYSZTOF] To odcinki z numerami 154 i 294 były tymi, w których poprzednio wystąpiłeś. I mam ogromną przyjemność, że w końcu możemy ponownie po dłuższym czasie porozmawiać – i to dobrze dla tego odcinka, i mam wrażenie, że też dla odbioru Twojej osoby przez moich słuchaczy i słuchaczki. Dlaczego? Dlatego, że dużo się u Ciebie zmieniło – to wiem zza kulis – ale też dużo zmieniło się na tym rynku. Po pierwsze, Apple Vision Pro nie jest już nowością, tak jak było wtedy, gdy ostatni raz rozmawialiśmy. Po drugie, mamy już solidne wnioski o tym, jaki ślad zostawiło na rynku ogólnie rozumianego AR/VR. No i po trzecie, mamy chyba mocne zapowiedzi tego, gdzie Apple chce w przyszłości dotrzeć. Oprócz tego mieliśmy okazję spotkać się w Warszawie ostatnio przy okazji pięćdziesięciolecia Apple w Volvo Car Warszawa. Dziękuję, że byłeś – i może od tego zacznijmy. Jaka jest Twoja perspektywa na tamten event i na tę rocznicę? Bo krótko oczywiście, bo te 50 lat, pół wieku Apple, to jest u każdego Mac Usera i Apple fana coś innego. Apple w swojej karierze również spory ślad zostawiło, nie?
[ŁUKASZ] Oczywiście. Co do tego wydarzenia – bardzo dziękuję za zaproszenie. Tak się świetnie ułożyło, że przyjechałem do Polski na kilka dni przed nim, więc jeszcze na lekkim jet lagu udałem się do Volvo w centrum Warszawy, gdzie miałem okazję wysłuchać dwóch bardzo, bardzo ciekawych paneli. Ja na samochodach nie znam się prawie w ogóle, więc cokolwiek Volvo zaprezentowało, wywoływało wielkie otwarcie oczu – gdzie już jesteśmy. Było to bardzo fajne wydarzenie. Też osobiście – ja na wielu tego typu eventach bywałem jeszcze kiedy pisałem dla iMagazine, zresztą razem bywaliśmy – więc było bardzo miło zobaczyć przynajmniej kilka znajomych twarzy. W pierwszym panelu, takim historyczno-ogólnym, świetnie się chyba udało uchwycić to, jak Apple na przestrzeni ostatnich pięćdziesięciu lat ewoluowało. Myślę, że my też mamy tę klątwę wiedzy – chciałoby się powiedzieć…
[KRZYSZTOF] …w kontekście tego, że jesteśmy w tym sosie od bardzo, bardzo dawna i się w nim taplamy, więc też zupełnie inaczej podchodzimy do tego typu wydarzeń niż osoba, która jest powiedzmy przeciętnym konsumentem ich elektroniki użytkowej. Bo tam generalnie takich sentymentów, emocji, wspomnień Steve’a Jobsa i konferencji na żywo, które Apple dawniej robiło przy premierach nowych iPhone’ów czy innych produktów, po prostu nie ma. My mamy ten – można powiedzieć – „humbajsik” trochę nadgryzionego jabłka, ale też dzięki temu, że to pamiętamy, inaczej spoglądamy na to, co jest dzisiaj. Także nie ma idealnej odpowiedzi ani idealnego układu, ale zawsze lubię to podkreślać, bo nie jest tak, że każdy podchodzi do tej marki i do tego, czym ona dzisiaj jest i jakie ma miejsce na rynku, tak samo – prawda?
[ŁUKASZ] Jasne. Pewnie jeszcze troszkę później będzie okazja, żebym podzielił się tym, z czego z Apple korzystam, ale mogę tylko powiedzieć, że u mnie zawsze w centrum zainteresowania były jednak komputery Apple. Chyba MacBook to jest to – w zasadzie nie wychodzę z domu bez MacBooka, pomimo tego, że iPhone’y mogą już bardzo wiele, z iPadami mam bardzo trudną relację, ale to chyba już poruszaliśmy w poprzednich odcinkach, więc jeśli słuchacze będą zainteresowani, to zapraszam. Ale komputer Apple, taki old-schoolowy komputer z klawiaturą, gładzikiem i ekranem i zwykłym interfejsem okienkowym – to jest to, co mnie w tym ekosystemie najbardziej interesuje.
[KRZYSZTOF] Dobrze, Łukasz, to powiedz, jak w takim razie zmieniła się Twoja kariera i Twój prywatno-zawodowy ekosystem, bo myślę, że od ostatniej rozmowy trochę się tam zadziało. Czym się dziś zajmujesz? Czy Twoja firma, o której dziś będziemy rozmawiać, czyli Opus Lab, to jest firma hongkońska, czy polska, a może tu i tu? Gdzie rezydujesz? Skoro byłeś ostatnio w Warszawie – no i jak to wygląda na dzień dzisiejszy?
[ŁUKASZ] Rozmawiamy w łączu Kraków–Warszawa. Jestem jeszcze ciągle w Warszawie. Na co dzień rezyduję w Hongkongu, bo w zasadzie od blisko 10 lat wyjechałem tam na doktorat. Potem zostałem, teraz mam tam firmę, ale oczywiście kilka razy w roku jestem w Polsce i w Europie ze względu na kwestie rodzinne, ale też projekty czy konferencje. A jeśli chodzi o moją drogę, to widziałbym tu pewną transformację. Ja od dekady – jeszcze w czasie, kiedy studiowałem w Polsce – byłem bardzo zainteresowany mediami imersyjnymi, możliwościami grafiki 3D, zarówno w kontekście przemysłów kreatywnych, jak i twardego użycia w biznesie. Będąc w akademii, potem robiąc doktorat w Hongkongu, potem robiąc tam post-doca, rozumiałem coraz bardziej, że aby to wszystko miało sens i żeby to, co robię, miało większe przełożenie na rzeczywistość, nie da się zamknąć w akademickiej wieży z kości słoniowej. I dziś w ramach Opus Lab zajmuję się transferem wszystkiego tego, czego dowiedziałem się jako naukowiec, pod kątem wdrożeniowym i biznesowym, właśnie z obszarów XR, skanowania 3D oraz – obecnie – wykorzystania modeli multimodalnych, czyli takich, które pracują głównie z obrazem, wideo, a zwłaszcza z generowaniem 3D. Pomagam firmom zrozumieć, jak te nowinki mogą zoptymalizować ich procesy i działalność. Oczywiście nadal wykładam na uczelniach w Hongkongu, ale także w Polsce, na przykład na SWPS-ie. Jestem też coraz bardziej aktywny na LinkedIn – mam tam bardzo ciekawą kilkutysięczną społeczność profesjonalistów z całego świata, gdzie dzielę się nowinkami i moimi projektami z zakresu szeroko pojętych pipeline’ów 3D.
[KRZYSZTOF] Czyli to nie jest taka społeczność linkedinowa w polskim stylu, gdzie każdy idzie szybko zarządzać, być najlepszym liderem w swojej branży i dawać kudosy swoim przyjaciołom z kółka – tylko coś więcej. To dobrze słyszeć, bo jednak da się to zrobić globalnie w mądrzejszy sposób.
[ŁUKASZ] No widzisz, ja tak dobrze – no to świetnie, a pięć minut naszego nagrania i już mam nową wiedzę. Tak i jeszcze – w kontekście globalnym – od kilku miesięcy jestem jednym z pierwszych azjatyckich ambasadorów Dell. Jest taki program Dell Pro Precision Ambassador i Dell robi go razem z NVIDIĄ. W ramach tego programu mam dostęp do bardzo potężnego sprzętu, gdzie mogę przetestować rozwiązania lokalne – są to bardzo potężne stacje graficzne, na których można odpalać w zasadzie wszystko, co da się odpalić na czymś, co nie jest wielkim serwerem. Jest to też świetne narzędzie w kontekście moich działań edukacyjnych i biznesowych, ponieważ – chętnie o tym powiem troszkę później – nie powinniśmy dać się zamknąć w rozwiązaniach chmurowych. Wartość tego, że pewne rzeczy możemy robić lokalnie, jest nie do przecenienia, czy to w kwestii bezpieczeństwa, czy w kwestii kontroli nad tym, czym dzielimy się ze światem.
[KRZYSZTOF] Założyłeś Opus Lab, jak sam piszesz na swoich stronach, żeby poszerzać granice mediów przestrzennych oraz zaawansowanego przetwarzania obrazu – właśnie tego 3D, AR, AI – przez strategiczną współpracę z branżą, wspomniane badania eksploracyjne, prezentacje i różnego rodzaju działania na rynku edukacyjnym. To wszystko pięknie brzmi, ale tak sobie myślę, że moi słuchacze – i ja też, nie ukrywam – przede wszystkim widzę Ciebie jako humanistę, który znalazł dla siebie misję i miejsce w technologii, bo potrafi ten świat przetłumaczyć na prostszy język i pokazywać te – być może – rewolucje, które jeszcze przed nami w takim globalnym ujęciu masowych wdrożeń, a jednakowoż tak, żeby nimi zainteresować. Może to jest tak, że podobnie jak ja, jesteś nazywany multiinstrumentalistą. I powiem Ci, Łukasz, że jeżyłem się do tej pory na tego typu określenia, ale kiedy sobie patrzę, co AI w ostatnich latach zrobiło chociażby na rynku pracy, to zdecydowanie jestem sobie wdzięczny, że mam te doświadczenia zawodowe z różnych dziedzin, także tych humanistycznych. Jakoś tak się życie układa, że dzięki temu spokojniej teraz śpię. Zatem – co akurat teraz, w czasach AI, jest dla Ciebie tą najgorętszą kartą leżącą na stole w kontekście tego, czym się zajmujesz? Co takiego jest, co właśnie Tobie daje ten spokojny sen?
[ŁUKASZ] Jeśli chodzi o wykorzystanie AI na moim poletku – jeśli chodzi o spokojny sen, to czasy są takie, że ze spokojnym snem jest generalnie problem, więc nie jest to takie proste. Natomiast na pewno, jeśli patrzymy na zdolność komputerów i systemów cyfrowych do poruszania się w naszym realnym, fizycznie istniejącym świecie – zawsze był z tym pewien problem. Byliśmy zamknięci w tych oknach i aplikacjach i był ten jasny podział na świat cyfrowy i świat fizyczny. Natomiast narzędzia sztucznej inteligencji, zwłaszcza w kontekście 3D, wprowadzają nas powoli w świat inteligencji przestrzennej. Inteligencja przestrzenna to zdolność komputerów do rozumienia otaczającego nas trójwymiarowego świata w zasadzie w taki sposób, w jaki robi to człowiek. Skupiając się na kwestiach technicznych – jeśli pomyślimy, w jaki sposób możemy takie środowisko 3D uzyskać dziś, to mamy w zasadzie trzy możliwe sposoby. Pierwszym byłaby digitalizacja realnie istniejących przestrzeni i przedmiotów. Możemy to zrobić np. wykonując tysiące zdjęć, możemy też użyć czujników typu LiDAR – czyli większych braci tych urządzeń, które są wbudowane w iPhone’y czy iPady – i na podstawie tych informacji ze zdjęć oraz tych informacji, nazwijmy je metaforycznie radarowo-ekolokacyjnych, takie algorytmy mogą wykreować bliźniaka 3D. Może to być od samochodu czy elementów odzieży po szereg ulic w mieście. Skala jest dowolna – możemy mieć mały przedmiot, który sobie zeskanujemy do postaci 3D, ale możemy też pokusić się o zeskanowanie całego miasta. To są cyfrowe bliźniaki. Drugą drogą – i myślę, że to najbardziej znany w szerokiej publiczności sposób – jest klasyczne modelowanie ręczne, czyli tak jak z brył i z tekstur budujemy wirtualny świat, czyli tak jak do tej pory powstawały gry komputerowe czy efekty specjalne w kinie.
[KRZYSZTOF] Czy czysta matematyka wykorzystana do tego, żeby z niej ulepić ten wirtualny świat, a nie żeby wspomóc się tym rzeczywistym i go tam po prostu przenieść – czyli zupełnie inny punkt wyjścia, nie?
[ŁUKASZ] Tak, ale to ciekawe, co powiedziałeś – czysta matematyka. Owszem, to jest czysta matematyka, jednak od wielu dekad ubrana jest ona w bardzo przyjemne interfejsy użytkownika. Od wielu lat wykorzystujemy bardzo przystępne silniki gier, takie jak Unity czy Unreal, które pomagają tworzyć takie środowiska 3D nawet osobom, które nie są wielkimi programistami, bo wiele rzeczy dzieje się tam na zasadzie „przeciągnij i upuść”. Oczywiście jakieś skryptowanie jest – im bardziej zaawansowana ma być rzecz, tym więcej tego skryptowania musi być. Ale nie jest tak, że trzeba sobie za każdym razem obliczać, jak jakaś rotacja przedmiotu będzie przebiegać, bo to wszystko jest po prostu wbudowane. Jest to droga żmudna, ale próg wejścia nie jest aż tak wysoki, jak można by myśleć. Jest też trzecia droga i to jest bardzo ciekawa droga – oparta na modelach generatywnych, które np. na podstawie opisu tekstowego czy zdjęcia mogą wygenerować bądź obiekt 3D, bądź nawet przestrzeń 3D, a nawet proste doświadczenia interaktywne. Wyobraźmy sobie zwykły model LLM, który pewnie wielu z naszych słuchaczy zna i używa. Klasyczny model LLM promptujemy tekstem i rezultat jest też tekstem. Przy modelach generatywnych wizualnych czy multimodalnych możemy promptować tekstem, ale rezultat może być np. modelem 3D, zdjęciem, filmem, a nawet sceną 3D. I tak naprawdę wszystko zależy od tego, do czego chcemy takiego środowiska 3D użyć. Jeśli ktoś jest deweloperem albo geodetą, czy np. tworzy aplikacje dla turystyki, to dokładność i relewantność środowiska 3D względem świata rzeczywistego jest ważna – tam istotne są skanery, fotogrametria, Gaussian splaty i różne ciekawe technologie. Jeśli natomiast tworzysz film albo prostą grę i potrzebujesz np. zaczarowanego lasu, to modelowanie 3D od podstaw albo nawet algorytmy generatywne zaczynają mieć swoją wartość – nie potrzebujemy iść do fizycznego lasu i go skanować, bo potrzebny nam jest jakiś zaczarowany las, a nie żaden konkretny. Są też zastosowania, gdzie te podejścia się przenikają. Na przykład NVIDIA ma narzędzia, które na podstawie dokładnego skanu prawdziwego osiedla – mamy tam szereg bloków, kilkanaście ulic – mogą wygenerować środowisko 3D, a generatywna AI może wykreować warianty tej samej ulicy z różnymi warunkami pogodowymi, różnym oświetleniem, różnymi algorytmami symulującymi ruch uliczny czy zachowanie pieszych. Ten system jest nawet używany do szkolenia autonomicznych pojazdów – zarówno latających, jak i kołowych. Coraz częściej te metody się przenikają i dlatego tak ważna jest ta uważność, o której wspominałeś w kontekście łączenia różnych bloków i różnych dziedzin.
[KRZYSZTOF] Tak, i ta wrażliwość też, myślę. Bo tu można powiedzieć, że cokolwiek AI zadasz, to ono Ci teraz wygeneruje – i to co do zasady jest prawda, coś tam wygeneruje, jakiś rezultat będzie. Ale czy on będzie, jak wspomniałeś, relewantny i będzie tym, czego oczekiwaliśmy – no to to już są dwie różne rzeczy i dwa różne pytania. Bo żeby taki był, stąd cała dyskusja o zawodzie prompterów i o tym, że nagle okazuje się, że ci, którzy najlepiej AI promptują, to są właśnie osoby niekoniecznie stricte techniczne, ale posiadające jakąś inteligencję emocjonalną, którą są w stanie przełożyć na prompt tekstowy i uzyskać efekt bliższy oczekiwaniom niż to, co ktoś inny promptuje, używając tylko żargonu technicznego. Więc dożyliśmy czasów, w których właśnie ta wrażliwość i inteligencja emocjonalna – nawet jeżeli jest ona wejściem do świata technologii – jest niezbędna, żeby to, co robią algorytmy i automatyzacja, było tym, czego my, ludzie, oczekujemy. Bo inaczej to jest po prostu znowu wytwór zer i jedynek, tak mi się wydaje, nie?
[ŁUKASZ] Wrażliwość, ale też uważność co do kontekstu, co do szerszego kontekstu, w którym się poruszamy, robiąc projekt czy myśląc. Wiem, że to Ci będzie bliskie z racji Twojej coraz bliższej relacji ze Skandynawią, ale właśnie user-centered design, user-centered projects – to jest jakby, pomimo wszystkich tych gigabajtów i procesorów, ciągle jeszcze human is in the loop. Robimy to dla ludzi, więc tak – kontekst, uważność i pilne śledzenie tego, do czego rezultat naszego generowania będzie wykorzystany, jest arcyważne.
[KRZYSZTOF] Tutaj myślę, że fajnym przykładem jest ostatni film Apple TV+, czyli „F1: The Movie”, który został zrealizowany z dużym nakładem tego, co Apple już miało z przeszłości. Po pierwsze, zbudowano specjalne kamery dla bolidów F1 z użyciem soczewek iPhone’a 15 Pro, ale też pojawił się tam LiDAR w różnych momentach nagrywania tego filmu. Co do zasady Vision Pro był gdzieś tam w centrum tej produkcji w kontekście postprodukcji – oczywiście niektóre ze scen, które nigdy się nie wydarzyły, zostały wygenerowane komputerowo, ale w taki sposób, że realizm tego filmu powala. Czytałem wiele dyskusji na ten temat w sieci i dotarłem do jednego artykułu – nie pamiętam już gdzie – ale takiego bardzo naukowego, gdzie konkluzją było stwierdzenie, że Apple może i jest firmą kojarzącą się z elektroniką użytkową, „bananową” – że tak powiem – czyli komputerem ze Starbucksa, żeby tu nie podać znowu przykładu MacBooka Neo po raz pięćdziesiąty. Ale tak naprawdę z tyłu mają takie R&D i takie zbiory danych właśnie z rynku konsumenckiego, że mogą o wiele szybciej przesuwać pewne granice w kolejnych projektach niż jakakolwiek inna firma – i mają to wszystko in-house u siebie. I tak sobie myślę, że gdy to obserwujesz jako praktyk i jako użytkownik Apple, i myślisz o wspomnianym we wstępie Vision Pro i o całym odcinku 294, kiedy ono debiutowało i rozmawialiśmy, że nie wiadomo właściwie, co to będzie – no to teraz na pewno nie jest to sukces masowy, zgodzisz się ze mną co do zasady. Ale jak się znowu przejrzy źródła – ponownie naukowe – i poczyta, co Vision Pro zrobiło w kontekście operacyjnym, w medycynie, w branży motoryzacyjnej i całym automotive, w lotnictwie czy w filmie, no to wiem, że to nie są sexy historie, które będą w Apple Newsroomie publikowane dla Kowalskiego z ulicy, ale dla tych, którzy mają się dowiedzieć – to są znaczące przełomy. Jak Ty na to patrzysz?
[ŁUKASZ] Ile mamy godzin? To jest tak – jeśli patrzymy na VR, XR, AR, bo wiadomo, co kilka lat są nowe akronimy, ale generalnie chodzi o media przestrzenne: pojawiły się one głównie z grami z jednej strony, czyli z rozrywką, albo z superspejalistycznymi zastosowaniami szkoleniowymi. I trochę ten rynek przez ostatnią dekadę wyglądał w zasadzie tak – był szereg firm, które produkowały relatywnie niedrogie gogle VR i starały się stworzyć rynek. No i jest to ciągle niszą, ciągle funkcjonuje. Były też firmy – świętej pamięci HoloLens – które skupiały się wyłącznie na bardzo poważnych zastosowaniach: wojsko, szkolenia, zaawansowany serwis samolotów, rafinerie – to teraz bardzo na czasie. A środek jakby nie istniał – to było bardzo binarne.
[KRZYSZTOF] No i oczywiście były też projekty w kontekście Metaverse’u na przykład, które upadły siłą naturalną – bo wiadomo, jakie było założenie i jaki był tego wykonanie. Ten wykonanie był tutaj, myślę, gwoździem do trumny od samego początku. No niestety – nie chcieliśmy być postaciami z Minecrafta na spotkaniach biznesowych. No tak jakoś wyszło, że ludzkość tego nie łyknęła.
[ŁUKASZ] No tak. A jeśli popatrzymy na produkty takie jak Vision Pro – pierwszym, co się rzuca, nie wiem czy miałeś okazję korzystać?
[KRZYSZTOF] Tak.
[ŁUKASZ] Okej. Pierwszym, co się rzuca, to to, że przejście między VR-em a AR-em, czyli między wirtualną a rozszerzoną rzeczywistością, trwa kilka sekund i jest bardzo płynne. Więc już widzimy, że być może to urządzenie pozycjonuje się gdzieś w środku, na przecięciu VR i AR. Ale Vision Pro powstało też w momencie, kiedy zaczyna się tworzyć nowy paradygmat pracy z informacją, z tym, co jest przestrzenne. Coraz bardziej widzę – sam to obserwuję, rozmawiając z klientami – że np. e-commerce zaczyna poszukiwać nowych dróg. Odchodzimy od płaskich zdjęć, coraz częściej pojawiają się modele 3D, różne nakładki, które pozwalają przymierzyć dane ubranie czy nawet buty. Klienci chcą więcej interakcji i więcej personalizacji. Kiedy z kolei patrzymy na branżę nieruchomości, zwłaszcza na tak rozgrzanym i konkurencyjnym rynku jak wielkie miasta azjatyckie – każdy sposób na zwrócenie uwagi na konkretną nieruchomość jest brany pod uwagę. Wirtualne spacery, ciekawe wizualizacje – to wszystko ma znaczenie i coraz rzadziej są to płaskie, statyczne filmy, a coraz częściej interaktywne spacery czy zwiedzanie takich przestrzeni. Oczywiście, jeśli chodzi o przemysł filmowy – skanery, z których ja korzystam w pracy, najczęściej wykorzystuję do nowych form location scoutingu. Kiedyś wyglądało to tak, że ktoś z produkcji jechał w plener, robił kilka zdjęć i na ich podstawie reżyser podejmował decyzję. A teraz można zeskanować taką lokację, pokazać ją na płaskim ekranie lub nawet w okularach VR i AR, i ekipa – reżyser plus osoby decydujące o kierunku artystycznym – mogą wstępnie wprowadzić wirtualne kamery i poczuć tę przestrzeń, a nie tylko zobaczyć ją na płaskiej ramce.
[KRZYSZTOF] Tak sobie myślę, że to jest od razu ta jedna rzecz, która wyróżnia Apple od samego początku istnienia tej firmy i w przypadku próby z Vision Pro jest nie inaczej. Musimy wprowadzić technologię do świata człowieka, a nie powiedzieć człowiekowi, że nagle ma być wspomnianym Minecraftem – tak jak to Mark Zuckerberg w Metaverse’ie próbował zrobić. I to jest ogromna różnica. Bo kiedy umawiasz się na zwykłe demo Apple Vision Pro w Apple Store gdzieś na świecie, to okej, masz te bariery wejścia – bo to jest największy problem tego komputera od Apple: jego waga, rozmiar, to, że to jest hełm – choć bardzo piękny hełm – jednak hełm, cholernie ciężki i niewygodny. To jednak, kiedy już trochę się tego spodziewasz, idąc na to demo – bo świat to już ocenił – kiedy już przejdziesz ten etap zakładania go na głowę, zaczyna się ten trochę magiczny świat. Nagle rozumiesz, że tam nie będzie jakiegoś wielkiego wirtualizowania świata rzeczywistego dookoła Ciebie, że nie zniknie świat i zostanie zastąpiony czymś innym – tylko wręcz przeciwnie. To, co doskonale znasz z systemu watchOS, macOS, iOS czy iPadOS, po prostu pojawi się w świecie, w którym na co dzień żyjesz. I to jest ten efekt „only Apple can do it”, który na mnie wywarł największe wrażenie. Okej, fajnie jest zobaczyć tak pikselperfektnie dopracowanego na tych soczewkach dinozaura, który na Ciebie idzie, albo ten słynny spacer nad przepaścią – okej, super. Pewnie oglądanie „F1: The Movie” też byłoby spektakularnie fajne. Ale to już gdzieś mam wrażenie widzieliśmy, może nie w takiej jakości, ale tego można się spodziewać. Natomiast mało kto – i też z rozmów z ludźmi z branży wiem, że – spodziewa się tego realizmu interfejsu, który zna, osadzonego w jego realnej przestrzeni życiowej, który oferuje Apple, nie?
[ŁUKASZ] Tak, no ja przeszedłem trudną drogę – bo od ponad 10 lat korzystam z różnych urządzeń XR i pamiętam bardzo dobrze, jak próbowano nas przekonać, że typowe kontrolery do gier są świetnym – i jedynym dedykowanym – interfejsem sprzętowym do pierwszych aplikacji productivity dla HTC czy Oculusa. No i oczywiście nie były. Potem pojawiło się sterowanie gestem i to już było bardziej naturalnie – im mniejszy bufor między użytkownikiem a treścią, im mniejsze zapośredniczenie, tym lepiej. Ale jeśli popatrzymy na Vision Pro – często usłyszymy, że to niewypał. Ja nie nazwałbym tego urządzenia niewypałem. Obecną iterację Vision Pro widzę bardziej jako drogę do weryfikacji, czy w ogóle jesteśmy gotowi na porzucenie płaskich ekranów na rzecz technologii przestrzennej jako jednego z wariantów interakcji z informacją i treścią. Jak powiedziałeś – sprzętowo jest bardzo dobrze, układy są wydajne, ekrany świetne, oczywiście wąskim gardłem jest nadal waga i bateria. Choć tutaj ukłon w stronę okularników – noszę okulary, bardzo źle czuję się w soczewkach kontaktowych – i nawet na zwykłą sesję demo Apple sprowadziło konkretne soczewki Zeissa odpowiadające mojej wadzie wzroku. Po raz pierwszy mogłem bardzo komfortowo korzystać z urządzeń VR z korekcją wbudowaną już w gogle. I to naprawdę wiele zmieniało. Jeszcze jedna ważna rzecz à propos Vision Pro – widzę je obecnie jako zaawansowane narzędzie przede wszystkim dla deweloperów. Musimy dać im czas na zrozumienie tego nowego środowiska pracy. Przypomnijmy sobie iPhone’a. Prawdziwą rewolucją – tę rewolucję iPhone’ową, którą pamiętamy – był oczywiście Steve prezentujący iPoda, telefon i urządzenie internetowe w jednym. To wszystko pamiętamy. Ale prawdziwą rewolucją nie był sam sprzęt, ale to, że otwarto App Store i setki tysięcy ludzi mogły uwolnić swoją zbiorową kreatywność, żeby wymyślić, co jeszcze da się wycisnąć z tego hardware’u. Uważam, że i tu tak będzie.
[KRZYSZTOF] Z drugiej strony App Store miał wtedy łatwiej, bo nie było nikogo wcześniej – był pierwszy. A wcześniej tym, co nazywa się dzisiaj rewolucją iPhone’ową na kartach rozmaitych publikacji i biografii – z biografii Isaacsona, czyli „Steve Jobs” – była rewolucja dotyku. iPhone pokazał, że nowym interfejsem obsługi elektroniki użytkowej będzie dotyk. I teraz chciałoby się powiedzieć, że Vision Pro próbuje zrobić to samo, mówiąc: nie ma tu nowego interfejsu, bo prawie każdy z nas ma dłonie, i te dłonie również w tym świecie rozszerzonej rzeczywistości będą naszym interfejsem wejścia. Jeżeli chodzi o samo działanie – z doświadczenia mogę powiedzieć, że visionOS działa turbo dobrze, działa tak jabłkowo, jak może tylko działać w wykonaniu firmy z Cupertino. Tutaj udało się, moim zdaniem, faktycznie zrobić to na równym poziomie, może nawet lepszym, niż kiedy debiutował iPhone. Tylko że wytłumacz to szerokiemu rynkowi, kiedy urządzenie nie odnosi spektakularnego masowego sukcesu. I wracając do tych deweloperów – mają dużo trudniejsze zadanie, bo App Store jest dla nich otwarty, jeżeli chodzi o visionOS. Tylko co tam publikować, jeżeli skala użytkowników jest na razie mikroskopijnych rozmiarów? Ale zgadzam się z Tobą, że jest to krok pierwszy, a każda wielka rewolucja w dziejach ludzkości miała taki krok pierwszy. Vision Pro na pewno nim jest – pytanie, krok pierwszy do czego? Moim zdaniem do Apple Glasses, ale to jeszcze za chwilę poruszymy szerzej.
[ŁUKASZ] To jest też kwestia – i tu możemy płynnie przejść dalej – że ogromną barierą jest też produkcja treści, które uzasadniałyby masowemu użytkownikowi zakup takiego urządzenia. I wydaje mi się, że tutaj techniki oparte na szeroko pojętej automatyzacji i sztucznej inteligencji mogą pomóc. Jest bardzo ciekawy przykład właśnie z Apple. Otóż kilka miesięcy temu Apple zaprezentowało bardzo proste narzędzie – nazywa się Apple SharpML. To hostowane na GitHubie open-source’owe narzędzie do użytku niekomercyjnego, które potrafi przekształcić płaskie zdjęcie w lekko przestrzenny obraz dający poczucie głębi. Nie jest to 360 stopni dookoła fotografowanego obiektu, bo tam nie zachodzi generowanie czegoś nowego – zachodzi raczej projekcja 3D tego, co już jest na tym zdjęciu.
[KRZYSZTOF] Tu zrobię wtrącenie i zapytam – czy to jest wzięte z tego samego frameworku, który odpowiada za to, że możemy te piękne ekrany blokady w iOS i iPadOS 26 sobie ustawiać, generując efekt 3D?
[ŁUKASZ] To nie jest ten sam framework, ponieważ pracuje na technologii, która się nazywa Gaussian splaty – czyli splaty 3D – więc są tam duże technikalia i to przestaje być klasycznym zdjęciem. Natomiast klocki takie jak te jasno wskazują, że – jak wcześniej powiedziałeś – sporo się w Cupertino dzieje. Ja też rozmawiałem z więcej niż kilkoma deweloperami Vision Pro w Europie i w Azji. Oczywiście niewiele mogą mi powiedzieć, ale jedno mi powiedzieli: że Apple współpracuje z wybranymi deweloperami bardzo blisko, nad wspólnym wymyśleniem, co dalej z tym ekosystemem, który się tworzy. Co do narzędzia SharpML – wiem na przykład, że niektóre studia filmowe korzystają z niego, bo ten efekt głębi jest na tyle przekonujący, że można wykorzystać te projekcje przestrzenne jako tło w technice virtual production – czyli mamy wielki ekran LED z tyłu i zamiast green screena tworzy nam tło nagrywane przez kamerę. Można więc wykorzystać tego typu tła wytworzone tym prostym frameworkiem w prostych teledyskach czy reklamach. Studenci na zajęciach też to wykorzystali. Mój znajomy zrobił z tego zwykłą aplikację na macOS, więc mogliśmy bez GitHuba – dla moich biednych artystycznych studentów – po prostu kliknąć i pozamieniać swoje zdjęcia. Te treści można przejrzeć na stronach Opus Laba – to chętnie też podlinkujesz pewnie potem. Bo to sporo z tego, co robię. À propos tej mojej ewolucji – przez ostatnie 10 lat byłem bardzo głęboko w silnikach gier, w Unity i Unreal. Problem z tymi treściami jest taki, że to są zwykle ciężkie aplikacje, które trzeba ściągnąć i zainstalować jak grę. A ostatnio coraz częściej patrzę jednak na potencjał webu – jak dużo interesujących rzeczy z 3D da się zrobić w przeglądarce, która dzięki coraz wydajniejszym układom ma świetną akcelerację 3D i naprawdę można tam wiele zrobić. Sporo z tego, co robimy, da się hostować na webie – są do tego linki, każdy może wejść do takiej przestrzeni.
[KRZYSZTOF] Możemy spokojnie dotknąć tego, co jest tu kluczowe w kontekście zbliżających się prawdopodobnie Apple Glasses, które samym form-faktorem wezmą, ile mogą, z Vision Pro i visionOS – zresztą myślę, że ich system operacyjny to będzie visionOS, wątpię, żeby Apple nazywało kolejny system dla swoich okularów inaczej, byłoby to trochę nienormalne. Oczywiście okulary nie będą tym, czym jest Vision Pro – nikt tak zresztą nigdy nie zakładał. Natomiast może się okazać, że wezmą najlepsze rzeczy z Vision Pro – takie, które zrozumie Kowalski czy Smith, nie? Na przykład widgety wgniecione w ścianę – śmieję się trochę z tego przykładu, bo zawsze go podaję, ale robił on efekt wow po zeszłorocznym WWDC. I Kowalski z ulicy zrozumie, że to może być catchy i fajnie byłoby móc spoglądać na swoją ścianę, na której są rzeczy, których tak naprawdę nie ma, a do tego w jakości spektakularnej. Oczywiście rodzi się pytanie, czy taka spektakularna jakość na otwartych soczewkach okularów jest w ogóle możliwa do użytku – przypuszczam, że nie. Ale czy część tej jakości w kontekście wprowadzenia do naszego zwykłego świata części ekosystemu Apple – być może widgetów, być może powiadomień, albo rzeczy wspieranych przez AI – to już inna sprawa. Sporą nadzieję pokładam w umowie z Googlem i wdrożeniu Gemini, ale nie tylko – wydaje mi się, że Apple może być tą firmą, która weźmie od każdego dużego gracza na rynku LLM-ów to, co najlepsze, oczywiście płacąc za to. I tak już jest w ich ekosystemie – użytkownik końcowy nie będzie wiedział, który model stoi za daną funkcją, czy to Claude, czy Gemini, czy inny. A czy za tym będzie stał Claude, czy Gemini, czy inna umowa – dla niego nie ma żadnego znaczenia i tak być powinno, moim zdaniem. Sporą nadzieję też sam mam nie tylko w kontekście nowej Siri – nawet trochę nie wierzę, że to będzie dalej Siri, myślę, że zmienią nazwę asystentce, bo to ten moment w historii, w którym dobrze by to było zrobić – ale w kontekście właśnie tego, że AI wsparte kolejnym wearablem od Apple może podzielić sukces Apple Watcha. Czy będzie to tak proste? No nie, bo zegarek to nie wada wzroku, zegarek to nie szkła, zegarek to nie taki proces sprzedażowy, jaki czeka te okulary, jeżeli kiedykolwiek wejdą na rynek. Zegarek miał prościej. Ale jeżeli ktoś jest w stanie teraz na rynku wprowadzić smart okulary na nowy poziom i je zredefiniować – być może podejmując ostatnią próbę w historii – to jest to Apple. Jeżeli oni tych okularów nie pokażą, to nie wiem, czy koncepcja smart okularów przetrwa w dłuższym horyzoncie. Bo to, że Meta z Ray-Banami ma już ugruntowaną pozycję na rynku, jest faktem – ale jak to Meta, ubicie tego projektu z tygodnia na tydzień jest bliższe realizmowi niż fikcji literackiej, nie?
[ŁUKASZ] Znaczy, dwa obszary. Po pierwsze – jeśli chodzi o możliwie subtelne wplecenie narzędzi AI do ekosystemu Apple, to uważam, że może się to odbyć tak, jak przejście z 4G na 5G. Zwykłego użytkownika w ogóle nie obchodzi, co jest pod spodem – obchodzi go tylko to, że nagle wszystko działa szybciej, nie ma opóźnień, jest stabilniej, a do tego nagle można mieć nowe typy automatyzacji z jeszcze bardziej ciekawymi urządzeniami fizycznymi. Pewnie to się tak właśnie odbędzie. Jeśli zaś idzie o przetrwanie bądź wywrócenie się paradygmatu okularów AR – patrząc na to, co dzieje się w Azji, jak obserwuję tam użytkowników i rozmawiam z nimi – oni czekają na to bardzo. W sensie, oni są tak przyklejeni do smartfonów, że myślę, że naprawdę dla wielu z nich byłaby to wreszcie zmiana i większy komfort użytkowania, bycia na bieżąco z informacjami, powiadomieniami, połączeniami wideo. Oni na to czekają, serio. Jak rozmawiamy ze studentami czy z nieco starszymi osobami – oni bardzo, bardzo czekają na coś, co odklei ich od smartfona i zespoli ich jeszcze bardziej ze społecznością, z którą są połączeni przez aplikacje, bez konieczności trzymania tego ciężkiego, większego z ich perspektywy urządzenia. Jednak należy pamiętać, że są pewne różnice fizjologiczne i po prostu dla nich taki wielki smartfon często jest niewygodny, ale muszą z nim chodzić, bo nie da się tak bez.
[KRZYSZTOF] A powiedz mi, czy uważasz, że w takim razie prościej nam będzie jako ludziom, jako tkance społecznej, odłożyć okulary – zdjąć je z głowy – skoro już dokonamy tego przejścia i ulżymy sobie, że nie musimy tych cegieł trzymać w dłoniach? Bo mi się wydaje, że to może być miecz obosieczny. Bo to, co Ty mówisz, to jest trochę patrzenie z nadzieją na to, że nadejdzie kolejne urządzenie zakładalne, jeszcze bardziej intymne niż smartfon – zakładane na nasze twarze – które uwolni nasze dłonie od smartfona. I może się okazać, że zamiast wyeliminować problem, wyeliminuje się tylko przedmiot. A pytaniem otwartym pozostaje w mojej głowie: czy osoby, które są już dziś uzależnione, kiedy forma konsumpcji będzie ograniczona – bo nie będzie tak szeroka jak na smartfonie, tego jestem raczej pewien – czy im będzie łatwiej zdjąć z głowy okulary niż odłożyć smartfona? No to takie pytanie, które mi gdzieś tam kołacze w głowie.
[ŁUKASZ] Chcieliby w ogóle je zdejmować. No właśnie.
[KRZYSZTOF] Ale nie myślę, że to my jesteśmy sędziami w tej sprawie. Tak mi się wydaje.
[ŁUKASZ] No bo może się na świecie zdarzyć taka sytuacja, że wpadniemy trochę w epokę paradoksu, nie? Technologia już nam umożliwi zaadresowanie pewnych problemów – choćby związanych z form-faktorem hełmów, które dziś nazywa się Vision Pro, zakładanych na głowę, czy ze smartfonem, który jest po prostu ciężką kostką, której coraz mniej osób chce zabierać na bieganie. Ja nie zabieram iPhone’a od wielu, wielu lat na treningi biegowe – i pojawił się Apple Watch. Więc może tak ma być, jeżeli chodzi o nas jako ludzkość, nie? Nie wiem – to są takie pytania, na które tu dziś nie odpowiemy, ale pytania…
[ŁUKASZ] No, ale warto je sobie stawiać, bo one nas często gruntują w tym, co się dzieje. To jest taki moment refleksji, który w bardzo szybkim dzisiejszym świecie jest na wagę złota.
[KRZYSZTOF] No tak, bo on też przygotowuje – a właściwie jego pokłosie, czyli przemyślenia, które później mamy, bez względu na to, czy okażą się trafione, czy nie – on nas przygotowuje na kolejne kamienie milowe ludzkości, kolejne rewolucje. Zobacz – ludzie, którzy przed udostępnieniem ChatGPT w jakiś sposób korzystali ze sztucznej inteligencji albo przynajmniej byli świadomi, że za usługami, z których korzystają, stoi AI, zupełnie inaczej przyjęli ChatGPT niż osoby, które sztuczną inteligencję kojarzyły z sagą Georga Lucasa, z „Gwiezdnymi wojnami” – z robotami, C-3PO. Takie osoby, kiedy dostały ChatGPT, miały wrażenie, że kosmos się dla nich otworzył. A osoby, które już wcześniej wiedziały, że ta sztuczna inteligencja istnieje, zupełnie inaczej na to zareagowały.
[ŁUKASZ] To jest też w ogóle kwestia modelu dostępu do tak zwanej sztucznej inteligencji. Bardzo ciekawe rzeczy dzieją się w Chinach. Hongkong – Hongkong ma dostęp do całego zachodniego internetu, nie jest objęty Great Firewallem.
[KRZYSZTOF] Czyli co – Google Maps i tak dalej?
[ŁUKASZ] Wszystko. Cały zachodni internet jest dostępny. Natomiast z uwagi na jakąś decyzję – nie wiem, kto o tym zadecydował – OpenAI nie działa w ogóle. Google działa, znaczy modele Google’a przeglądarkowe działają, ale po API już nie. Natomiast jeśli chodzi o chiński mainland – tam nie ma Google’a, z dużych firm są usługi Microsoftu i Apple. W związku z tym Chińczycy bardzo promują open source jako model rozwoju i dostępu do modeli LLM, 3D i wideo. Bardzo, bardzo ciekawe rzeczy dzieją się w tym zakresie – co ciekawe, wiele startupów zachodnich, żeby obniżyć koszty, korzysta z tych chińskich modeli open-source’owych, odpalanych lokalnie. I tak jest to tańsze niż korzystanie z chmurowych ofert OpenAI czy Claude’a. Tu nie są jeszcze wszystkie karty na stole i świetnie z punktu widzenia użytkowników, że jest aż taka konkurencja między różnymi paradygmatami podejścia do korzystania ze sztucznej inteligencji – czy to na szeroko pojętym Zachodzie, czy na Wschodzie. Konkurencja z naszej perspektywy konsumenckiej nigdy nie jest złym zjawiskiem.
[KRZYSZTOF] No to na pewno. Zresztą pojawienie się DeepSeeka – chyba w styczniu zeszłego roku, o ile dobrze pamiętam – to było też ogromne echo społeczne, bo nagle okazało się, że okej, Chiny trzymają nas mocno, jak pisze w tytule swojej książki Sylwia Czubkowska. Natomiast z drugiej strony te same Chiny dają możliwość odpalenia tego modelu lokalnie, o wiele taniej i mniej energochłonnie. I dlaczego? Dlatego, że mają pozycję siły. Oczywiście Stany mają największą tego typu pozycję, bo – tak naprawdę mówi się – że w branży technologicznej mogą wszystko. Tylko że Stany zawsze chcą mieć pełną kontrolę i na wszystkim zarabiać komercyjnie i masowo. Chiny – z tą kontrolą wiadomo jak jest i dlatego zawsze przestrzegam, że produkty z Chin, zwłaszcza te łączące się z internetem, należy prześwietlić bardzo mocno. A najlepiej, jak się da – unikać, choć czy to jest możliwe? Znowu pytanie bez odpowiedzi. Natomiast Chiny tę swoją pozycję siły wykorzystują trochę inaczej niż Stany. Moim zdaniem Chinom dużo łatwiej jest zaakceptować, że mogą dać jakiś model, bo on po prostu jest tańszy. A dlaczego jest tańszy – no bo to Chiny, to jest trochę masło maślane, ale chyba wiesz, o co mi chodzi, Łukasz. Chodzi o mental obu dużych graczy.
[ŁUKASZ] Tak, tak, to świetnie widać. Mental – no to kwestia modelu gospodarczego, na czym i jak szybko chcemy zarobić, czy na dywidendach, czy na tym, że ludzie będą mieć wyższe pensje. To są oczywiście tematy strasznie odległe od tego, o czym do tej pory rozmawialiśmy, ale jednak mają wpływ.
[KRZYSZTOF] No to na pewno będą się pojawiać – na przykład w branży motoryzacyjnej. Nie wiem, czy widziałeś – krąży taki viral, że samochody chińskie można otworzyć gestem dłoni i to nie działa, bo czujniki są źle umiejscowione. I pełne analizy – już doktorskie i habilitacyjne – dostępne są na X. No natomiast dlaczego ten filmik jest wszędzie? Bo ludzie drapią się w głowę: „Tylko po co ja mam otwierać drzwi samochodu gestem dłoni, skoro dotknięcie klamki jest szybsze”. I widzisz – tu dochodzimy do kolejnego paradoksu całej tej ewolucji w kontekście łączenia rzeczywistości z tym, co wirtualne. Jeśli będziemy technologię na siłę wciskać w nasze życie, żeby ułatwiła to, co poruszenie czterech liter jest i tak szybszą opcją – no to nie tędy droga. Ani nie tędy droga do masowego sukcesu i zysku w kontekście amerykańskim, ani do pokazania siły w kontekście chińskich możliwości produkcyjnych. Bo cóż z tego, że te możliwości są, skoro to jest w życiu człowieka po prostu niepotrzebne, tak mi się wydaje.
[ŁUKASZ] No chyba że wracasz z zakupami i masz dwie zajęte ręce albo niesiesz dziecko.
[KRZYSZTOF] Ale nie, bo te drzwi możesz otworzyć – auto nie wie, że wracasz z tymi zakupami – wyciągając jedną dłoń i takim gestem do siebie otwierając drzwi.
[ŁUKASZ] Dlatego pytanie – o co tu chodzi.
[KRZYSZTOF] A tak naprawdę chodzi o prężenie muskułów. Chiny przed Stanami, Stany przed Chinami i gdzieś tam z tyłu jest ten człowiek, który no właśnie…
[ŁUKASZ] Chociaż muszę Ci powiedzieć – jako osoba o słabym wzroku i bardzo dobrym słuchu – nie da się walczyć z tym, że jak sobie chodzę po sześciopasmowej drodze w Hongkongu, jest cicho. I to jest świetna rzecz związana z tym, że w czołowych chińskich miastach są w przeważającej mierze elektryki. Jakość życia z perspektywy przechodnia jest ogromna. Tu w Warszawie – na dużo, wiesz, mniejszej drodze – moje AirPodsy Pro mają problem, żeby to wszystko wygłuszyć. Tam po prostu ciszej, spokojniej. Więc to bym chciał zobaczyć wszędzie – obojętnie kto ten samochód zrobi. Fajnie, że jest cichy.
[KRZYSZTOF] To pełna zgoda i nie trzeba nawet do dalekich Chin się wybierać – wystarczy się wybrać do Skandynawii, do Oslo, a już do mniejszych miejscowości jak Bergen czy Trondheim – to w ogóle. Wiadomo, tu jest cała dyskusja o ogromnych dopłatach rządowych dla Skandynawów do samochodów elektrycznych i tak dalej. Natomiast faktem jest, że nawet jeżeli są tam jeszcze auta spalinowe, to ilość i wolumen aut elektrycznych oraz sposób ich używania przez Norwegów chociażby – są takie, że efektem jest cisza na ulicach, nawet w środku tygodnia. Tu się pewnie z Tobą zgadzam, że to jest piorunujące. I do tego stopnia piorunujące, że jak się wraca do Polski – a jak wiesz, lubię w Skandynawii przebywać dłużej – to te pierwsze dni w Polsce są frustrowujące. Bo tutaj nawet w weekend w Krakowie – względem tamtego standardu – jest po prostu turbo głośno, i to można powiedzieć wprost, nie?
[ŁUKASZ] Jesteś tam?
[KRZYSZTOF] Jestem, jestem, jestem.
[ŁUKASZ] Trochę cię przerwało, ale już jest okej.
[KRZYSZTOF] Dobra. Dobra, Łukasz, myślę, że tytułem końca chciałbym Cię podpytać o Twoją predykcję tego, gdzie zmierzamy w kontekście łączenia tych dwóch światów – bo to był fundament naszej dzisiejszej rozmowy, takie mam przynajmniej wrażenie. A zatem świata rzeczywistego i wirtualnego. Nie w perspektywie dekady – bo szaleńcem jest teraz ten, kto zadaje tego typu pytania. Nawet nie w kontekście pięciu lat – powiedzmy w kontekście najbliższych trzech, bo wiadomo, rewolucja AI postępuje mega szybko, więc myślę, że to jest dobra perspektywa.
[ŁUKASZ] Myślę, że dobrą odpowiedzią i punktem odniesienia do tego, jak to może ewoluować, jest historia firmy Niantic. Pokémon Go – to była firma, która zrobiła tę pierwszą, chyba i ostatnią, aplikację AR, która faktycznie robiła zamieszanie na rynku. Parę lat temu – rok albo dwa lata temu – Niantic sprzedał cały dział gier i przemianowali się na Niantic Spatial. Wypuścili bardzo prostą aplikację na smartfony do prostego skanowania przedmiotów i lokacji. Ja z tej aplikacji korzystam na zajęciach uniwersyteckich i na warsztatach z firmami, żeby wdrożyć ludzi w 3D i pokazać, jak proste to jest. To była wersja pierwsza tej aplikacji – była tam funkcja społecznościowa, że można było wrzucać te skany na realną mapę świata. Jeśli się otworzy galerię w tej aplikacji, widać dziesiątki tysięcy pojedynczych punkcików – zeskanowane miasta, przedmioty, ulice. A nie dalej jak…
Niedawno – kilka dni albo kilka tygodni temu – zaprezentowano drugą wersję tej aplikacji, która przetwarza nasze zdjęcia, a nawet wideo 360, w chmurze, przyspieszając niejako proces skanowania otaczającego nas realnego świata. Przy pełnej geolokalizacji, przy pełnym geotagowaniu. To jest przykład tego, jak ogromną wartość – potencjalnie biznesową, ale też w kontekście doświadczeń użytkownika – może mieć bardzo ścisłe powiązanie naszej przestrzeni z tą warstwą informacyjną i wizualną, dostarczaną w czasie rzeczywistym. Widziałbym ten kierunek na przyszłość właśnie tak – jeszcze ciaśniejsze związanie naszej przestrzeni fizycznej z tą warstwą informacyjną. Co świetnie będzie też widać, czy jakiekolwiek okulary – czy to Vision Pro, czy inne – zaskoczy, przyjmie się. Bo to będą terminale wejścia do doświadczania tej rzeczywistości. Oczywiście na płaskim ekranie smartfona też to możemy zrobić, ale jeśli połączymy różne urządzenia ubieralne z tego typu okularami, to będziemy niejako w pełni spójni z tymi światami – nawet trudno to jakoś określić.
[KRZYSZTOF] Właśnie i te trudności są dobre, bo zmuszają do refleksji, autorefleksji, która jest każdemu z nas… Myślę sobie też w kontekście danych – bo to jest właściwie Twoja odpowiedź z tego, co opowiedziałeś – że już dziś mówi się o tym, że Apple jest jedyną firmą na świecie, która posiada największe silosy zanonimizowanych, co prawda, ale bardzo szczegółowych danych zdrowotnych i medycznych – bo jest monopolistą w kontekście najpopularniejszego zegarka w historii ludzkości. Zegarka, nie smartwatcha – podkreślam. Więc Apple Watch już tych danych od groma dostarcza. I myślę sobie, że kiedy do tego doszłyby nawet nie Apple Glasses, nawet nie te okulary, ale inna plotka, która w patentach znajduje swoje potwierdzenie – a mianowicie nowa wersja AirPodsów z kamerami. Kamerami, które nie służą do robienia zdjęć, ale do mapowania tego, co jest przed człowiekiem, czyli świata rzeczywistego – to już z samych tych dwóch ruchów Apple jest w stanie uszyć kolejne pokolenia produktów i całych linii produktów, które, no właśnie, zrobią to, co powiedziałeś na końcu: zespolą te dwa światy na tyle trwale – a do tego jeszcze pewnie dorzucając subskrypcje – że po pierwsze będzie bardzo trudno z nich wyjść, kiedy się już tam raz wejdzie, chciałoby się powiedzieć za ten życiowy paywall. A z drugiej strony myślę, że będzie to niewidoczne dla wielu osób – że to wejście, postawienie pierwszego kroku w tej nowej rzeczywistości w wykonaniu przynajmniej firmy z Cupertino, będzie tak niezauważalne, że każdy będzie chciał to zrobić, trochę nie zdając sobie sprawy, co to oznacza w perspektywie długoterminowej. Ale znowu – to są dywagacje Kołacza i doktora Mirochy w tym momencie. Jak będzie, nie wiemy, ale na pewno zachęcamy Was – myślę, że obaj – żeby takie pytania sobie zadawać. Bo to jest ten czas, moim zdaniem – czas wielu przełomów przed nami. W trakcie najbliższych dekad łatwiej będzie się w tych przełomach odnaleźć, kiedy podejmuje się tego typu autorefleksje, niż gdy po prostu płynie się z prądem, wprowadzając do życia każdą nowinkę i każde rozwiązanie, które się na świecie pojawi. A będzie się ich pojawiało coraz więcej. Prawda?
[ŁUKASZ] Tak, na pewno. Czasy są ciekawe, będą jeszcze ciekawsze i tempo tych zmian przyspiesza. Warto więc wsiąść do tego pociągu, kiedy jeszcze nie jest to szybki pociąg chiński.
[KRZYSZTOF] Piękna puenta, ale mamy dla Was coś jeszcze na koniec tego odcinka, bo nie skończymy z pustymi rękoma, skoro mamy tu przybysza z dalekiego Hongkongu. Otóż Łukasz ma dla Was wyzwanie.
[ŁUKASZ] Łukasz, zamieniamy się – na czym to wyzwanie polega…
[KRZYSZTOF] …i co można odkryć, albo gdzie to znaleźć.
[ŁUKASZ] Może zanim wyzwanie – bardzo krótkie wprowadzenie. Otóż teraz w ramach Opus Lab rozpoczynamy współpracę z HTC i będziemy tworzyć interaktywne doświadczenie webowe opierające się m.in. na eksploracji realnie istniejących miejsc w Hongkongu. Część tych miejsc będzie zeskanowana w 3D, a część poziomów w tym doświadczeniu będzie wygenerowana za pomocą AI. Będziemy też obserwować, jak użytkownicy reagują na różne typy zawartości. Żeby udowodnić Wam, jak bardzo niektóre z tych technik są dostępne, mam dla Was wyzwanie. Pod adresem arrivalspace.com/opuslab/boczemunie pojawi się skan 3D charakterystycznego miejsca w Warszawie lub w Hongkongu – jeszcze nie wiem którego. Będzie tam ukryty easter egg. Trzeba będzie trochę pospacerować po tym terenie – odpali się taki awatar trzecioosobowy i jak w grze trzecioosobowej będzie można sobie pochodzić i pozwiedzać tę przestrzeń. Gdzieś tam będzie ukryty easter egg – myślę, że będziecie wiedzieć, że to ten easter egg. I bardzo proszę: zescreenujcie go i wyślijcie mi zdjęcie w prywatnej wiadomości na LinkedIn. Pierwsza osoba, która to uczyni, będzie mogła przez pół godziny porozmawiać ze mną w ramach bezpłatnej konsultacji biznesowej o tym wszystkim, co robię, i o tym, co mógłbym zrobić dla tej osoby bądź jej organizacji w kontekście szeroko pojętego 3D.
[KRZYSZTOF] Oczywiście linki do wyzwania Łukasza – żeby nie trzeba było pamiętać adresu, który przed chwilą nam wyrecytował, a którego nawet ja już nie pamiętam – znajdziecie w opisie tego odcinka pod adresem boczemunie.pl/444 lub w dowolnej aplikacji, w której właśnie go słuchacie. W opisie ten link do wyzwania Łukasza zostawiam, tak samo jak link do jego LinkedIn, żeby było Wam prościej. Łukasz, bardzo Ci dziękuję za to, że kolejna nasza rozmowa miała miejsce, ale też za to, że w każdej z tych kolejnych rozmów i spotkań – również na żywo – dochodzimy do kolejnych wniosków, które prowadzą nas, albo właściwie wyprowadzają nas, ze świata stricte technologii gigaherców do świata technologii w życiu człowieka, na tym poziomie meta również. On jest tutaj, moim zdaniem, mega istotny w najbliższych latach i będzie jeszcze bardziej. Bardzo Ci za to dziękuję i dobrze mieć osobę, z którą zawsze można pogadać o technologii, tak naprawdę gadając przede wszystkim o człowieku. Bardzo za to dziękuję.
[ŁUKASZ] Dziękuję bardzo za zaproszenie i do zobaczenia za kolejne 150–200 odcinków.
[KRZYSZTOF] Dobrze, że nie powiedziałeś lat! Trzymaj się.
[ŁUKASZ] Dziękuję.
[MUZYKA]
Raz jeszcze, na koniec, żeby nie umknęło. Przypominam, zostaw na Apple Podcasts lub na Spotify taką liczbę gwiazdek, jaką uznasz za stosowną.
Do usłyszenia w kolejnym odcinku, a za dziś bardzo dziękuję.
[MUZYKA CICHNIE – KONIEC ODCINKA]




































































