#285 transkrypt – Przydatne funkcje Dostępności dla każdego i edukacja osób niepełnosprawnych
Możesz pobrać transkrypcję w formacie .PDF.
Partnerami tego odcinka podcastu są iDream.pl oraz Synology Polska.
[MUZYKA]
Tu Krzysztof Kołacz, a ty słuchasz właśnie podcastu, „Bo czemu nie?”. Usłyszysz w nim o technologiach, które nas otaczają i nas w tych technologiach zanurzonych. Sprawdzam, pytam i podpowiadam jak korzystać z nich tak, aby to one służyły nam, a nie my im.
W dzisiejszym odcinku o przydatnych dla każdego funkcjach Accessibility, a więc Dostępności, rozmawiam z Mateuszem Ducem. Mówimy także o wyzwaniach, z jakimi mierzą się osoby z niepełnosprawnościami oraz o tym, jak ekosystem Apple pomaga im w codzienności.
Proszę, zostaw opinię na Apple Podcasts lub na Spotify. Twój głos ma znaczenie!
Zaczynamy.
[MUZYKA CICHNIE]
Dzień dobry, moi drodzy!
Witam w pierwszym, takim pełnoprawnym odcinku nowego, dziewiątego już sezonu podcastu. Ja mam na imię Krzysztof Kołacz, a dzisiaj moim i waszym gościem będzie człowiek, który z ekosystemu Apple korzysta w taki sposób, o jakim wielu z nas nie ma po prostu pojęcia.
Zanim jednak zaproszę was do rozmowy właśnie z Mateuszem, mam dla was dwie przypominajki
Pierwsza rzecz dotyczy akcji Back to School, która nieprzerwanie trwa w iDream.pl, czyli u partnera tego podcastu. Więc jeżeli jesteście studentem, uczniem lub nauczycielem i nosicie się z zamiarem kupna nowej maszyny właśnie teraz, to myślę, że to jest dobry moment, aby upolować całkiem dobrą cenę na te maszyny. To dotyczy oczywiście Maców, iPadów, także wybór spośród całego aktualnego portfolio Apple jest naprawdę spory. Dodatkowo jeszcze, iDream potwierdził, że będzie realizował Bony dla nauczycieli, czyli te dopłaty, które rząd obiecał nauczycielom oferować. Także również w iDream.pl możecie to wydawać na sprzęt Apple. Odnotowuję z dziennikarskiego obowiązku, bo to jest coś, co może Was rzeczywiście, na tym etapie roku, zainteresować.
Jest jeszcze jedno przypomnienie dla Was, a mianowicie 30 września będę występował na konferencji PyrCaster, w Międzynarodowy Dzień Podcastów. Tam będę prowadził specjalną prelekcję o tym, jak korzystać z automatyzacji, aby odzyskiwać potrzebny do budowania relacji czas. Także jeżeli chcecie wziąć udział i zbić piątkę na żywo w Poznaniu, to razem z organizatorami przygotowaliśmy specjalny kod rabatujący bilety o 30%. Szczegóły znajdziecie w opisie tego odcinka pod adresem boczemunie.pl/285 oraz na podstronie z rabatami, czyli boczemunie.pl/rabaty.
No dobra moi drodzy, to pora przejść do głównego tematu tego odcinka.
Dzisiaj pogadamy, tak jak powiedziałem, o dostępności i w kontekście nowości, które nadchodzą w nowych systemach, ale też tego, co już od dawna mamy u siebie w naszych nadgryzionych urządzeniach, a z czego nie do końca wiemy, że można skorzystać, nawet będąc osobą pełnosprawną.
Moim i waszym gościem raz jeszcze jest dzisiaj Mateusz Duc, po raz drugi w tym podcaście. Dobry wieczór Mateusz, nagrywamy to wieczorem.
[MATEUSZ] Dobry wieczór, witam cię serdecznie.
Dawno się nie słyszeliśmy, już parę lat nawet minęło i dużo się u ciebie w życiu zmieniło i dużo się także u mnie zmieniło i zmienia. Więc poproszę ciebie, mimo że już tutaj gościłeś, o to, żebyś powiedział swoimi słowami, kim dzisiaj jest Mateusz Duc, czym się zajmuje na co dzień, zawodowo przede wszystkim. Myślę, że to będzie najbardziej atrakcyjne dla moich słuchaczy.
No właśnie, gdzie w tym wszystkim jest nasza marka, którą obaj bardzo lubimy, czyli Apple? Oddaję ci głos.
[MATEUSZ] Dziękuję za zaproszenie. Już po raz któryś, więc dużo się pozmieniało od tamtego czasu, od ostatnich nagrań. Zarówno zawodowo, jak i edukacyjnie, ponieważ w lipcu 2022 roku, po długiej przerwie, wróciłem na studia i obroniłem tytuł inżyniera na kierunku informatycznym, jako osoba praktycznie niewidoma, tworząc projekt IoT, de facto takiego bridge’a, który łączy systemy klasyczne, typu jakieś Philips Hue i wpina je do HomeKit w sposób niestandardowy. Tak żeby one się zgłaszały zgodnie z wytycznymi platformy, bo niestety te systemy często wpinają się, nie tak jak powinny.
[KRZYSZTOF] Co to znaczy?
[MATEUSZ] Czyli nasz ten kafelek od lampki Hue, z serii Play, kojarzysz zapewne?
[KRZYSZTOF]Tak.
[MATEUSZ] To on się wpina, jako niestandardowa paleta kolorów, zamiast klasycznych kafelek typu Włącz/Wyłącz.
[KRZYSZTOF] Okej.
[MATEUSZ] Ja oparłem project na Raspberry Pi i po prostu na customowych pluginach i to działa normalnie, tak jak powinno. Zgodnie z tym, co Apple nakazało.
Dodatkowo od lipca 2022 jestem Apple Certified Support Professional 11. Certyfikacja za mną. Kolejna wersja Apple Certified Support Professional w oparciu o systemy jeszcze bieżące, przede mną.
[KRZYSZTOF] I to jest bardzo ważne, bo ty jesteś jedną z nielicznych osób niewidomych, niewidomych, które taką certyfikację w ogóle na świecie posiadają. To się pochwal, bo to ważne!
[MATEUSZ] Na świecie są tylko trzy osoby niewidome, z czego dwie w Stanach, w Europie tylko ja.
[KRZYSZTOF] Słuchajcie, moi drodzy, to Mateusz jest jedynym rodzynkiem na całą Europę z takim certyfikatem! Także wielkie gratulacje i za studia, i za to, co zrobiłeś w kontekście Apple. No i domniemywam, że życie po tej certyfikacji też czy to zmieniało Ci się jako osoby, która teraz dużo szkoli?
[MATEUSZ] Szkolenia mniej, bardziej się zajmuję innymi kwestiami niż szkolę. Wpadają czasami, ale tych szkoleń jest niedużo. Bardziej mi się zdarza pracować jako consulting, właśnie na uczelni, gdzie skończyłem te studia. Tam byłem specjalistą do spraw dostępności na uczelni, jako właśnie support studentów, consulting technologiczny, wspieranie właśnie wykładowców w kontekście tego, jak można wykorzystać technologię, jak dostosować sprzęt, cała masa różnych rzeczy.
[KRZYSZTOF] O tym sobie porozmawiamy, o tym wątku edukacyjnym jeszcze w drugiej części naszej rozmowy, bo będzie ona podzielona na takie dwie części. W pierwszej pogadamy trochę o tym, co już powiedziałem, czyli o tym, co przed nami, o tym, co już mamy w każdym z naszych urządzeń w kontekście Accessibility, czyli dostępności, a później wiem, że chcesz, to jak najbardziej jestem również chętny na to, w ogóle o edukacji w kontekście osób z niepełnosprawnościami w Polsce.
Także to przed nami, myślę, że takie usystematyzowanie tej naszej rozmowy będzie dzisiaj dobre. Czy coś jest jeszcze, co byś chciał na rozbiegówkę dodać, czy możemy powoli przejść do tego, co przygotowałem?
[MATEUSZ] Jeszcze dwa aspekty. Tak, po certyfikacji bardzo wybuchło, jeśli chodzi o moje zawodowe życie. Najpierw powiedzmy, tak mocno na uczelni, potem po tej certyfikacji, ja tam się pochwaliłem, to zauważyli mnie, ponieważ i tak potrzebowali człowieka od dostępności.
Potem trafiłem do Fundacji Aktywizacji Zawodowej, gdzie pracuję jako wsparcie techniczne, konsultant, no […] jako złota rączka technologiczna! Ale po prostu dzieje się wokół mnie sporo. Niebawem będę konsultował nawet system biletomatów na Litwie. Mogę powiedzieć o sobie, że obecnie przez to ile się zajmuję, zawodowo już od lat, dostępnością (od 2015 roku), mówię o sobie powiedzieć, że jestem już seniorem w tej dziedzinie.
[KRZYSZTOF] Ty przerobiłeś już właściwie chyba wszystko, co się da, nie? Od miast, w których nie da się poruszać, przez komunikację, do której nie da się wsiąść, po urządzenia, których nie da się używać, komunikatory itd. Myślę, że tak przekrojowo powiedziałem.
[MATEUSZ] Dokładnie. Paradopsy architektoniczne typu winda z dodatkowym panelem. No różne przygody były, ale dzieje się i to.
Po prostu dzisiaj Mateusz Duc to jest człowiek, który się rozwija zawodowo.
[KRZYSZTOF] Bardzo dobrze.
[MATEUSZ] Bo wtedy to był pasjonat, który szukał swojej przestrzeni, a dzisiaj to jest człowiek, który jest stabilny, wie czego chce, i się rozwija twardo.
[KRZYSZTOF] To zapytam w kontekście twojej niepełnosprawności. Jak ta perspektywa, takiego właśnie szybkiego, jak sam to powiedziałeś, rozwoju i znalezienie swojego miejsca na ziemi, działa na ciebie w codzienności? Czy jest ci po prostu łatwiej, bo jest ten driver, czyli siła, motywacja i to wszystko, czy po prostu traktujesz to jako takie płynne do następnego etapu? No i tak naprawdę jest podobnie, tylko jakby wiesz, operacyjnie zmieniło się to, czym się zajmujesz? Jak to jest?
[MATEUSZ] Nie, właśnie jak teraz jest ta praca, studia, to wszystko się dzieje, to jest mi łatwiej żyć, bo ja jestem człowiekiem, który nie potrafi usiedzieć nad tyłku. Musi siedzieć w życiu, bo inaczej bym nie wytrzymał. Nie cierpię nudy, bezczynności, a staram się łączyć po prostu pasję z pracą.
[KRZYSZTOF] Bardzo dobrze, to chyba najlepsze z możliwych wyjść. O ile to się oczywiście udaje, bo to też nie jest tak, że jest to prawo, które wszystkich i zawsze obowiązuje.
Dobra, to tak. Ja bym dzisiaj chciał się podzielić jeszcze ze swojej strony tym, z czego ja na co dzień korzystam w kontekście Accessibility. Od tego myślę, że sobie możemy zacząć. No i później przejść oczywiście do tego, o czym już wspominałem.
Dla ciebie pewnie Mateusz będą to rzeczy może trochę śmieszne, może trochę oczywiste, a być może takie, że nawet miejscami możesz się dziwić. Natomiast ja wychodzę z założenia i też to w tym podcaście próbuję realizować, że technologia ma służyć nam, a nie my mamy służyć jej.
Więc jeżeli wielki woreczek, który nazywa się Apple, czy jakkolwiek inaczej oferuje pewien zestaw funkcjonalności, to my, jeżeli chcemy tego intencjonalnie używać – to jest w naszej gestii, żeby każdą z tych funkcji poznać i spróbować znaleźć zastosowanie dla niej w życiu! O ile oczywiście jest to uzasadnione, no i może nam pomóc w czymś, ułatwić coś itd. Jakiś proces zoptymalizować czy coś w tym stylu.
No i właśnie ten worek dostępności jest dla mnie takim miejscem w systemie iOS, iPadOS i macOS również, chociaż w mobilnych najbardziej, gdzie mogę się zawsze zdziwić, zaglądając tam co jakiś czas, jak Apple dba o, nie tylko w ogóle wszystkie rodzaje niepełnosprawności, ale o to, żeby patrzeć na klienta, na użytkownika poprzez pryzmat jednostki ludzkiej. Inaczej tego nie umiem powiedzieć. Człowiek jest jakby rzucony w ten ekosystem i musi się w nim odnajdywać najlepiej zawsze tak samo sprawnie, bez względu na wszystko.
I to jest jedyna chyba taka firma, dla której mam wrażenie w wielu miejscach, to jest punktem wyjścia do projektowania kolejnych produktów, usług, integracji w ramach tego ekosystemu.
A nie tak jak dla większości konkurencji, że najpierw wymyślam sobie produkt, usługę, system, a dopiero potem zastanawiam się, jak to zintegrować, żeby było dostępne dla wszystkich grup.
[MATEUSZ] Bo nie jesteś świadomy, że ty elementów Accessibility używasz często nawet nieświadomie. Może ty świadomie, ale wielu użytkowników nieświadomie. Poza tym ty i wielu użytkowników używają LiveText na co dzień, prawda? Ale nie wiem, czy jesteś świadomy, że pod spodem to jest fragment VoiceOver! Przetwarzanie obrazu, ten cały OCR dla nas, który przetwarza zdjęcia, żebyśmy mogli sobie przeczytać jego skan. To jest fragment VoiceOver.
[KRZYSZTOF] No właśnie, czyli początkiem tej funkcji w tym przypadku jest Accessibility. A końcowy klient tak naprawdę ma już nakładkę, nazwę to normalizującą Accessibility dla całej reszty świata.
[MATEUSZ] Tak, bo jest to uniwersalne, projektowanie uniwersalne, wdrożone w pełnym wymiarze. No i o takich funkcjach właśnie zaraz powiem.
[KRZYSZTOF] Więc zaczynając od takich rzeczy, z których korzystam absolutnie na co dzień, moi drodzy, to tak. Pierwsza rzecz – wyłączanie w 50% mocy podświetlenia ekranu. Teraz o co chodzi? Już tłumaczę.
Pamiętacie pewnie taką sytuację, że siedzicie wieczorem na kanapie, zmniejszacie jasność ekranu iPhone’a do maksa i tak świeci za mocno, żeby nawet w przyłączonym Dark Mode, żeby nie wkurzać np. partnera czy partnerki, która siedzi obok. I da się to obejść! Tak samo jest to mega przydatne, jeżeli chodzi o czytanie treści w nocy, czy to w Books, czy to w Instapaper, czy w ogóle jakiekolwiek konsumpcję treści na iPadach zwłaszcza w godzinach popołudniowych lub jesienią, zimą, gdzie to podświetlenie ekranów jest bardzo mocne i dla wielu osób za intensywne. I ta słynna dyskusja, o tym co by było, gdyby iPad był Kindle, właśnie tutaj może mieć ujście dla siebie.
W sensie, ja korzystając z tej funkcji, która wyłącza fizycznie 50 % mocy każdej diody, która podświetla ekran w iPhonie czy w iPadzie, jakby emituje mi albo robi mi trochę z iPada, no taki ekran zbliżony do e-inka. On po prostu zachowuje się łagodniej dla oczu. Gdzie to włączam? To jest w menu Accessibility i dalej Zoom > Zoom filter >Low light. Tak to się nazywa. I ja to mam załączone i skrót do tego mam zrobiony tak, że jak użyję dwa razy przycisku blokady ekranu, no to po prostu zjeżdża to to podświetlenie do tych 50% mocy.
Genialne i wiem, że korzystam w ten sposób z czegoś, co zupełnie pewnie zostało stworzone do czegoś innego, ale dla mnie, dla mojego wzroku, dla mojej wygody, ta funkcja jest używana codziennie wieczorem przeze mnie, od już trzech lat. Tak że to jest taka pierwsza rzecz na mojej liście.
[MATEUSZ] I to używają przede wszystkim osoby z jaskrą najczęściej, które mają problem z tym, że jest za jasno. Osoby, które chorują na bardzo specyficzny wariant choroby Stargarda oraz osoby, które mają potrzebę wysokiego kontrastu, gdzie muszą obniżać kolory, bo inaczej nie widzą barwy poprawnie. Więc zjeżdżamy z mocą światła, ale podbijamy kontrast też w innych opcjach.
[KRZYSZTOF] Tak, to się zgadza.
Druga opcja, blokowanie dotyku całego ekranu, gdy dajemy komuś czy dzieciom podtrzymać telefon. To już kiedyś omawiałeś w innym podcaście. Chciałbym powiedzieć, że to istnieje i w wielu przypadkach, jak będziecie u rodziny, która ma dzieci, to warto z tej funkcji skorzystać, bo jest to trochę problemo-odporne. Mam rację Mateusz?
[MATEUSZ] Oj tak.
[KRZYSZTOF] Powiększenie tekstu per aplikacja, czyli ja nie mam jakiegoś super złego tego wzroku, ale w okularach przed kompem muszę. Natomiast to i tak nie wystarczy do tego, żebym ja komfortowo pracował z wszystkimi aplikacjami na rozdzielczości np. Studio Display, która jest dla mnie taka wygodna pod kątem wyglądu elementów na ekranie.
Ja nie lubię, jak wszystko jest przeskalowane i wszystko jest w takiej niższej rozdzielczości, natomiast też nie lubię się męczyć. Więc np. to, że mogę per aplikacja w notatkach chociażby, na które teraz spoglądam, ustawić sobie radykalnie większy font i to samo zrobić też na iPhone. Odkąd to weszło, już nie pamiętam, który to był iOS, ale dla wielu osób, zwłaszcza starszych, ale nie tylko, z czego ja jestem przykładem, jest mega pomocne.
[MATEUSZ] Nie fonty można ustawiać, ale jest całe menu Accessibility, czyli ustawienia dostępności per aplikacja. Bodajże chyba przedostatnia opcja, albo trzecia od dołu. I pozwala ona na konfigurację per aplikacja wszystkich opcji dostępności. W aplikacji może się to zachowywać w różny sposób. Cała dostępność może się zmieniać. Tam tych opcji jest bardzo dużo.
[KRZYSZTOF] I deweloperzy mogą się wpinać do ich dużej ilości lub wybranych, ale są aplikacje takie do tworzenia czegoś, gdzie jak jest dobry deweloper, Pixelmator jest na przykład tego przykładem, jeden z moich ulubionych, to deweloper już zadba o to, żeby tam było ile się da. Także tak.
Kolejna rzecz.
Reach the top of the screen, czyli ściąganie sobie góry interfejsów na ekranie iPhone’a, tam gdzie macie zasięg, baterie, sygnał Wi-Fi. W dół i jak macie iPhone’y serii Pro Max albo Plus, do tego nie macie gigantycznych dłoni typu Hagrid, to zdecydowanie się przydaje!
I to po prostu działa tak, że jak zrobicie jest od połowy ekranu w dół, kciukiem, no to po prostu ekran zjeżdża w dół, w sensie interfejs ekranu zjeżdża w dół, tak jakby go ktoś, nie wiem, wycinał jego część w połowie i po prostu zmniejszał wam fizycznie iPhone’a. No tak można to obrazowo pokazać. Mało osób o tym wie. Jak ja to pokazuję znajomym, to się za głowę łapią, że w ogóle się da rozwiązać ich wieczny problem, że nie sięgają góry iPhone’a, np. żeby sobie użyć wstecz. Już pomijam, że wstecz też jak jest dobrze napisana, powinno być zaimplementowane jako swipe w prawo, ale to już pomijmy. Także polecam. To jest w menu Touch i Reachability, to się nazywa w systemie.
Dobra, idąc dalej.
Podwójne, czyli wywołujące powiększenie lub potrójne, u mnie robiące screenshot, tapnięcie w plecki iPhone’ów. Świetna sprawa, absolutnie nie robię tego przypadkiem, choć wiem, że niektóre osoby na to narzekają w związku z tym, np. używające różnych samochodowych uchwytów. Ja akurat do tej grupy nie należę, więc nie narzekam na to. Natomiast to, że możemy ten gest podwójnego tapnięcia w plecki lub potrójnego przypisać temu gościowi gestowi jakąś konkretną funkcję, w ramach ustawienia dostępności. Bardzo, bardzo fajna rzecz. I ja mam, tak jak mówię, na podwójne zoom, a na ekranu, a na potrójne robienie screenshota.
Z takich rzeczy, o których Ty Mateusz powiedziałeś, że nawet nie jesteśmy świadomi, że ich używamy, to tap to wake, czyli to, że pukniemy w ekran telefonu i tam się coś pokaże godzina, kiedy nie mamy Always On Display albo kiedy ono jest wyłączone.
To jest też w sumie funkcja dostępności, prawda?
[MATEUSZ] Pewnie.
[KRZYSZTOF] Ja na przykład używam dużej ilości Skrótów. W sensie skróty w ogóle jako Shortcuts trochę uznaję za funkcję dostępności. To jest kontrowersyjne. Gdzie tu jest dostępność?
Ja w ogóle na to przejęcie Workflow przez Apple i później wdrożenie tego pod nazwą Skróty patrzę jako taki kamień milowy w rozwoju systemów i całego ekosystemu, który był taką ciężarówką możliwości, którą wyładowało Apple, po prostu zostawiło ludziom, w sensie niech was ogranicza wasza kreatywność i to ma bardzo dużo wspólnego z dostępnością, też rozumianą pod kątem tego, żeby ten sprzęt pomagał nam i upraszczał nam codzienność. Co w ogóle myślisz o tym?
[MATEUSZ] Ja czekam na jedno, jeżeli chodzi o Skróty. Na iPhone mamy gesty dedykowane dla VoiceOver, żeby się poruszać po niewidomemu. I mamy takie coś jak polecenie, czyli możemy sobie przepisywać gesty. Tutaj jeszcze mamy specjalne monitory dla niewidomych, czyli takie urządzenie, które potrafi wyświetlać w Braille tekst, gdy jest podłączone do Maca, iPhone, iPada, tak?
[KRZYSZTOF] Mhm.
[MATEUSZ] I generalnie jest tam panel wprowadzania Brailla, bo na iPhone można pisać dotykowo z użyciem właśnie tego pisma! Po prostu się otwiera taki panel, ta wirtualna klawiatura, która symuluje ten ośmiopunkt, w zależności od ustawienia. I ja czekam na moment, kiedy na iPhone stanie się to samo co jest na macOS, w ramach Automatora i co jest teraz w ramach Skrótów. Kiedy na iPhone będzie można sobie w VoiceOverze podpinać rzeczy ze Skrótów, do gestów bądź do jakichś Skrótów w panelu Braille’a, co można na Macu robić. I wtedy widzący jest daleko w tyle za niewidzącym, w jakichś konkretnych operacjach. Ja się na Macu opieram na skrótach klawiaturowych, pod które mam podłączone masę rzeczy, post-scriptów, automatyzacji. Praca na macOS w moim przypadku, to jest jak gra na pianinie.
[KRZYSZTOF] Piękne porównanie.
[MATEUSZ] Bo skróty klawiaturowe uruchamiają różne operacje pod spodem automatyczne i naprawdę, w pracy zanim się przyzwyczaili do mojego tempa, w tym momencie, gdzie pracuję, to po prostu nie potrafili ogarnąć, jak ja to robię, że zrzucają mi ileś zadań, myśląc, że mają mnie na tydzień z głowy, za przeproszeniem. Automatyzacja.
[KRZYSZTOF] No właśnie, to wynika z automatyzacji, ale to też wynika z tego, Z tego, o czym mówiliśmy wcześniej, że twoim naturalnym środowiskiem pracy i interakcji z systemami jest ta pierwsza warstwa, jeszcze nie znormalizowana dla reszty świata. I to jest chyba też ta prędkość.
[MATEUSZ] Tak, ale jeżeli niewidomy chce, to może. Po prostu leci z prędkością światła w życiu zawodowym i na co dzień. Bo się da. I mówię, czekam właśnie na to podłączenie Skrótów do Visualware. Wtedy to już będzie magia do kwadratu, bo teraz już jest dobrze, bo Skrótami można sobie ułatwić wiele rzeczy różnych, ciekawych i naprawdę przyspieszyć na co dzień pracę.
[KRZYSZTOF] To, co przed nami, z tego co wiemy też z rozmaitych wersji demo, czy z tego co pojawia się w różnych doniesieniach czy materiałach, to jest też imponujące, bo zacznę od takiej rzeczy, przechodząc trochę do tych nowości, które pojawią się m.in. w iOS 17 czy iPadOS 17, w ogóle w systemach, które już za mniej niż miesiąc zobaczymy produkcyjnie, no to powiem tak. My się tutaj bardzo cieszymy, że dostajemy przewidywanie tekstu w klawiaturze na iOS, poprawiono autokorektę itd.
To nie znaczy, że wy w ramach VoiceOver nie dostajecie właśnie tej waszej przetłumaczenia, albo właściwie powinienem odwrotnie teraz mówić w związku z tym, do czego nawiązywaliśmy, i implementacji tego samego. Na przykład VoiceOver dostaje rozbudowaną szczegółowość komunikatów. Ma zawierać ustawienia VoiceOver dla tej funkcji predykcji, o której wspomniałem, którą dostajemy wszyscy, także dla języka polskiego. Dla niezorientowanych to chodzi o podpowiadanie treści, które wy też będziecie mieli podpowiadane. Powiedz, jak to działa po twojej stronie.
[MATEUSZ] To, co ja obserwowałem różne rzeczy, które się pojawiły w różnych mediach, to działa to bardzo ciekawie. Zaczynamy wpisywać, piszemy klawiaturką, czyli z VoiceOverem, możemy sobie eksplorować klawiaturę dotykową, klasyczną QWERTY i w momencie, kiedy puszczamy, to się wpisuje, albo przez dwukrotne tapnięcie wpisujemy jakąś literę, a następnie ustawiamy klawiaturę, jeżeli piszemy klasyczną. I w momencie, kiedy zaczynasz wpisywać fragment, pojawiają się predykcje. Będzie wybór czynności, wybór tych w ramach czynności, tej predykcji i double tap będzie zatwierdzał, co ma się wstawiać. Czyli zaczniesz pisać kilka liter, pojawia Ci się przybornik, masz to co chcesz, tąpnięcie i gotowe.
[KRZYSZTOF] No to super, że to też dla was będzie jakby pełni dostępne. Co to jest pokrętło? To jest moje pytanie do ciebie, z punktu widzenia Accessibility, bo to było od dawna już. I dlaczego w waszym środowisku tutaj wszyscy się cieszą, że pokrętło i tak zwane czynności na pokrętle, to drugie pytanie co to one są, i będzie połączone w iOS 17?
[MATEUSZ] To jest bardziej skomplikowany wątek. Generalnie pokrętło jest od lat wielu. To jest coś, co sprawia, że wielu nowych użytkowników, którzy przychodzą na platformę, zakochują się w niej dość szybko. Mówimy o niewidomych. Bo na innych platformach niestety mamy jakieś trudne do zapamiętania skróty, np. po czymś się poruszać. To jest uciążliwe na konkurencyjnych platformach. A na iPhonie czy w iPadzie, kładziesz dwa palce na ekran i zaczynasz nimi obracać jak gałką manualną. To tak zwane pokrętło, czyli takie podręczne menu i VoiceOvera. I kiedy go obracasz palcami, to się zmieniają opcje na tym pokrętle. I w ramach tych opcji są właśnie wspomniane przez Ciebie – czynności. Kiedy ustawiasz pokrętło na czynności, zaczynasz maziać, to po prostu te maźnięcia, czyli swipe w górę, w dół, lewo, prawo – działają cuda. Zaczynasz swajpować w dół albo w górę i poruszasz się po opcjach.
Upraszczając, to tak jakbyś wziął na przykład gdzieś przytrzymał dłużej palcem, tak? I ci wyskakuje menu, jako widzącemu, prawda? To to jest takie jakby właśnie menu, ale dla niewidzących. Schowane w tym pokrętle. I ono jest zależne. Pokrętło się zmieni w zależności, gdzie jesteś. W Safari są inne elementy na pokrętle, a jak jesteś na home screenie, to masz mniej rzeczy. Jak jesteś w Safari, to masz dodatkowo czerne główki, linki i tabele łączą. Jesteś w Pages to masz coś innego. To pokrętło jest zależne od aplikacji, a czynności są o tyle fajne, że developerzy third-party od iOS 15 mogą dodawać swoje akcje do tego zbioru czynności. Wcześniej się nie dało, od iOS 15 można, co pozwala robić dużo fajnych rzeczy, bo w tych czynnościach. Ułatwiać jeszcze bardziej pracę. Wcześniej był konkretny zbiór typów akcji i można było do nich etykietki dodać, tam były jakieś ustandaryzowane akcje, a w tym momencie można robić cuda!
[KRZYSZTOF] I tutaj myślę, że takie nawiązanie, w którym ja mogę to kojarzyć, i pewnie to jest ten sam mechanizm od środa, który znowu jest protoplastą tego, co my nazywamy inaczej właśnie my użytkownicy końcowi. Mowa o Final Cut Pro. On na macOS i na iPadzie ma coś jak takie pokrętło. Ono ma mega dużo różnych zastosowań. Mam podejrzenie, że to są te same trzewia.
[MATEUSZ] Tak, dobrze podejrzewasz, bo tak jest! To się opiera na tym.
[KRZYSZTOF] Super. Idąc dalej, czy można obsługiwać interfejs watchOS z ekranu iOS? Słuchajcie, okazuje się, że można. Z tego co doczytałem, to w sekcji ruch i motoryka również pojawia się jakaś taka nowa funkcja, w ramach której, to się nazywa „Klonuj Apple Watch” i za jej pomocą osoby z niepełnosprawnością manualną mogą podobno znacznie wygodniej obsługiwać inteligentny zegarek z Cupertino, korzystając z większego ekranu iPhone’a. Czyli literalnie przenosząc watchOS na ekran iOS, bo tam jest wygodniej obsłużyć zegarek. I to jest dla mnie w ogóle szalone, ale no.
[MATEUSZ] To nie tylko watchOS można obsługiwać z iPhone’a. Jak na przykład, leży CI iPad, który jest aktywny, obok albo masz iPhone’a, siedzisz w kuchni, gotujesz, a nagle chcesz skorzystać z Ferrite na iPadzie – to możesz przychwycić ekran iPada! Masz dostęp zdalny w ramach VoiceOver. Ja tylko czekam jeszcze na jedną rzecz, żeby można było tak, tylko to nie jest w ramach swojego Apple ID. Ja czekam, kiedy Apple się pokusi i da nam możliwość zaproszenia, że wysłania prośby o pozwolenie do innego API, tak? Jako zdalna pomoc.
[KRZYSZTOF] Dla ciebie byłoby to super, bo względem tego, że pomagasz innym też, nie?
[MATEUSZ] To rewelacja. Ten remote control w ramach Wiadomości na macOS działa, i z VoiceOverem da się jednego Maca, z drugiego kontrolować. Bez problemu.
[KRZYSZTOF] Dobra, to zanim przejdziemy do takiego ostatniego wątku w ramach tej nowości, który rozwala głowy absolutnie i jest związany z takimi trzema rzeczami: LiDAREM, lupką i głosem, to jeszcze jedna rzecz. Doczytałem właśnie, że też iOS ma rozpoznawać nowe dźwięki i tła. To już jest jakby zaszyte w iOS 16 teraz. Tam dochodzi miauczenie kota, pokasływanie czy odgłos płonącego ognia. I teraz znajdźcie mi firmę drugą na świecie i odetnijmy na razie cały temat przy tym wątku niepełnosprawności czy dostępności. W ogóle znajdźcie mi firmę, która na etapie developmentu czegokolwiek, wymyślania produktu, zada sobie w ogóle pytanie w ramach działu: Słuchajcie, a gdybyśmy tak chronili ludzi albo mówili im, no wiecie, że coś się może palić dookoła nich, bo w sumie mogą nie zauważyć? W sensie, to naprawdę nie jest oczywiste, a oni to robią! I to mnie fascynuje jako po prostu fanboya też, ale jako czy w ogóle jako klienta, kurczę, nie? Osoby pełnosprawną, a mnie to totalnie fascynuje.
[MATEUSZ] Dokładnie. To jest to.
Ja chciałbym jeszcze dodać jedną rzecz, która dojdzie nam właśnie w iOS 17, a która z tego, co obserwowałem dokumentację, mi się podoba. Bardziej rozbudowane zarządzanie powiadomieniami, bo to, że wy macie powiadomienia, wiadomo, te różne tam wizualne rzeczy, tak? My dostaniemy taką możliwość większej konfiguracji w ramach szczegółowości VoiceOver, jak się może to rozgłosić. Na przykład załóżmy mamy baner na odpowiednią ekranie, to będzie można skonfigurować, czy on ma być nam przeczytany. Jak na przykład pracujemy sobie na głośnikach, a jesteśmy w publicznym miejscu. Czy on ma być przeczytany? Nie musi. Możemy dostać to samo, ale tylko przez haptykę, dającą nam znać, że coś może wymagać naszej akcji.
Tam będzie można skonfigurować, co się ma dziać. Czy mają być odczytywane treści powiadomień, ile powiadomień, czy sama haptyka, więc to będzie fajne z perspektywy prywatności, tak?
Druga kwestia, która też robi wrażenie. Jak masz osobę głucho-niewidomą, która nie widzi i nie słyszy. Pytanie, jak ona funkcjonuje z naszą platformą?
VoiceOver z podłączonym monitorem Braille, który wyświetla w Braille i ona korzysta z niego. No i fajnie, ale chcielibyśmy, żeby nigdy żaden dźwięk nie wyszedł z tego iPhone’a, bo sobie osoba może nie życzyć. Pod iOS 17 będzie nowa funkcja, tzw. kurtyna dźwiękowa VoiceOver dla tych osób. To sprawi, że żaden dźwięk z iPhone’a się nie wydobędzie. Żaden.
[KRZYSZTOF] No to też wyobrażam sobie, że dla tych osób, ale też rozszerzając jakby to stwierdzenie i ich otoczenia, to taki duży kamień milowy.
[MATEUSZ] Osoby, które tracą głos, że nie będą w stanie mówić, dostaną mowę na żywo.
[KRZYSZTOF]Właśnie, to przejdźmy do tej mowy na żywo.
[MATEUSZ] Osoby głuche, niemówiące, będą w stanie wpisywać tekst i to będzie za nich mówiło. Ich głosem prywatnym będzie jakiś nagrany, jeżeli ktoś użyczy, bo to już zależy. Ale to będzie działało normalnie w aplikacjach typu VoIP, czyli telefon, FaceTime, WhatsApp, itp. To co będzie miało wpięcie do tego API. Więc takie osoby będą mogły się komunikować z kimś, normalnie dostając w ramach live caption w krajach, w których to jest obsługiwane, bo to jest jeszcze kwestia prawna, że nie wszędzie jest Tam gdzie jest już działa, osoba, która ma połączenie na jakimś Skype, Zoomie czy FaceTime, dostaje w locie translację tego, coś ktoś mówi i sama pisząc, będzie mogła zacząć mówić! Magia.
[KRZYSZTOF] Magia o tyle też, że zwróć uwagę Mateusz, że to jest offline, a druga rzecz, to zwróć też uwagę, że ten indywidualny głos, który najprościej rzecz ujmując będzie syntezatorem mowy, takim bardzo high-endowym, powiedzmy to wprost, to jest tak naprawdę uczłowieczenie trochę tych systemów, tej technologii. Jakkolwiek to dziwnie nie brzmi, to to się wkrótce wydarzy. I oczywiście, że YouTuberzy, podcasterzy, mówię też o sobie, będziemy to pewnie próbowali testować po angielsku i chwalić się, że o, rany, rany, zobaczcie, tutaj być może ja nie jestem niepotrzebny, bo AI za mnie. Zresztą to się już dzieje. No okej, to się już dzieje, ten rocket science już jest, ale w życiu osób, które nie mają tego, to jest po prostu nowe życie.
[MATEUSZ] Dokładnie. A teraz uwaga, wbijam znowu ćwieka. Komponent, na którym to działa, używane jest na co dzień przez – Siri. To jeszcze odnosi się do Siri, że będzie można wyregulować jej tempo.
[KRZYSZTOF] Tak, to doczytywałem, że Siri będzie mogła mówić nawet o 200 czy 400 razy szybciej. To jest w ogóle szalone dla mnie, niż mówi teraz i podobno dla Was może to być turbo ułatwienie.
[MATEUSZ] Tak, bo można korzystać z głosu Siri jako syntezy. Ona ma być przyspieszona i ma nie tracić jakości w tym tempie identycznym. To jest w ogóle rocket science. Że ona nie będzie traciła głosek. Bo co z tego, że mamy dzisiaj syntezatory, które mogą mówić piekielnie szybko, jak one tracą na jakości. Zaczynają się rozjeżdżać na głośnie po prostu.
[KRZYSZTOF] To jest znowu świat, o którym nie napiszą media technologiczne, także te, w których ja się pojawiam, bo to jest trochę hashtag #nikogo. Nikogo, a tak naprawdę, gdyby nie to, to byśmy nie mieli wodotrysków, o których to już bardzo chętnie piszemy, w tym systemie dostępnym dla każdego. I teraz tak sobie jeszcze myślę o Siri. W ogóle zachęcam was do subskrybowania newslettera tego podcastu – boczemunie.pl/newsletter/. Jakoś w najbliższych tygodniach, we wrześniu w każdym razie, chcę napisać takie wydanie o tym, czy VoiceOver jest dla Apple ważniejszy, czy Siri jest dla Apple ważniejsza. Mateusz już na pewno zna odpowiedź.
Natomiast dlaczego chcę to zrobić, bo ta dyskusja mnie po prostu zaczęła cholernie wkurzać a propos tego, że nie ma tej polskiej Siri, czy będzie polska Siri, czy w ogóle Siri jest potrzebna, że w ogóle zaorać Siri i tak dalej. Tak naprawdę to nie o Siri tu chodzi. Także chcę się nad tym pochylić, bo to jest temat, o którym się za mało mówi, cały w ogóle VoiceOver, a który jest chyba takim małym perpetuum mobile stworzonym przez Apple na tą skalę. Mówię o skali masowej, masowego klienta.
[MATEUSZ] Jakość tego screenreadera, VoiceOvera, to jest potęga, zwłaszcza na Macu. I o tym jeszcze będzie w drugiej części, przy edukacji właśnie.
[KRZYSZTOF] Dostęp wspomagany jeszcze, to żeby nam nie uciekło, czyli że dedykowana użytkownikom o ograniczonych zdolnościach kognitywnych funkcja nowa, to nie jest rzecz, która poszła w ogóle z osobną informacją prasową przez centrum prasowe Apple, także Apple Polska. Bo jest się czym chwalić, zupełnie mówiąc wprost. Coś więcej o tym.
[MATEUSZ] Realnie to jest to, że można sobie dopasować pewne elementy w systemie do osób, które mają, powiedzmy, ograniczoną możliwość percepcji, tak? Poznawczej. Różnej. Można sobie dopasować do różnej percepcji poznawczej, że te elementy w konkretnej aplikacji będą prostsze, tak?
[KRZYSZTOF] Bardzo fajne.
[MATEUSZ] Dla mnie to jest ciężkie do określenia, bo ja też jestem osobą, która, klasyfikuje się jako niewidoma, ale ma resztki wzroku, więc ciężko mi określić, na ile to jest super fajne. Natomiast jest kilka komponentów w systemie, które sprawiają, że mózg eksploduje. Czy moglibyśmy do nich przejść?
[KRZYSZTOF] Tak.
[MATEUSZ] Wszyscy się zachwycają Apple Vision Pro, tym sterowaniem, jak on śledzi oczy, to wszystko. Tylko, że jakby to wam powiedzieć słuchacze, to sterowanie nie wyszło dzisiaj z Vision Pro. To sterowanie mamy od trzech generacji iPadOS. Jako Accessibility dla osób, które nie są w stanie poruszać kończynami. Osoby te mogą używać w ramach sterowania na iPadzie i na Macu. W ramach też Head Control. Sterowanie głową całe w ramach macOS. Voice Control. To wskazanie słowienie, w które element chcemy klikać. To już było!
A teraz wszystko jest pięknie spięte w Vision Pro. Jako całość, którą się zachwycają ludzie dziś, a to mamy od kilku systemów,.
[KRZYSZTOF] I to jest znowu ten rdzeń, o którym ty mówisz. Ten rdzeń jest widoczny w materiałach promocyjnych Apple, w reklamach pięknych o tym, jak ludzie z niepełnosprawnościami że ludzie sobie żyją lepiej, podnoszą sobie rolety, różne rzeczy robią, sterują iPadami, ruszają z głową. Tylko wiesz co? Nikt na to nie zwraca na tych reklamach uwagi. Ludzie jak usłyszą Siri i zobaczą HomeKit i roletę, to myślą, że to jest wszystko. Niestety, a to jest zupełnie inna galaktyka.
[MATEUSZ] Dokładnie. Ale przy Vision Pro właśnie to zobaczą. Przy Vision Pro ludzie zobaczą, co mogą. Jak zobaczą, że to działa i że mogą sterować oczami […] Tutaj ludzie dopiero zrozumieją.
[KRZYSZTOF] A ty widzisz dla siebie zastosowanie Apple Vision Pro?
[MATEUSZ] Tak, ale zostawię sobie na za sekundkę. Dobrze, więc przejdziemy teraz do LiDARU, bo on przez długo, długo, długo był mało wykorzystywany, dopóki nam Neural Engine nie przyspieszył do granic absurdu. W iPhone’ach procesor A14 Bionic przyspieszył do absurdalnych wartości. Ja myślałem po prostu, że to jest marketing, ale zobaczyłem co on potrafi już wtedy. Jak widzę jak to się rozwija, to to jest miazga! W iPhoniee 14 Pro dodali dla widzących, ISP do fotografii. Ten nowy Neural ISP, który ma około 4 tera operacji na sekundę i może pracować w ramach obliczeń równoległych dla sieci neuronowych.
[KRZYSZTOF] Ja się już łapię za głowę, ale kontynuuj.
[MATEUSZ] I jak dostajesz opisy scen, tak, no to jest Meksyk, tak? Ja tutaj na posesji mam rodzinkę, brat ma dzieci i mają plac zabaw, tak? Ten plac zabaw jest 20 metrów od domu. Ja stałem sobie w salonie rodziców, odpaliłem sobie aplikację, narzędzie do rozpoznawania scen, stojąc w domu, przez okno, w deszczowy dzień, iPhone mi rozpoznał i opisał fragment terasu, plac zabaw i trampolinę, która stoi obok niego. Około 5 metrów.
[KRZYSZTOF] Po polsku?
[MATEUSZ] Tak, po polsku to robi.
[KRZYSZTOF] Niesamowite.
[MATEUSZ] Narzędzie jest third-party, ale korzysta z całej masy systemów, komponentów, tak?
[KRZYSZTOF] No jasne.
[MATEUSZ] Większość offline, ale część musi zrealizować z serwerem w ramach weryfikacji poprawności danych. To są tam bardziej złożone rzeczy. Ale samo rozłożenie danych i przetworzenie się dzieje lokalnie. To tam jest porównywanie wyniku z bazą. To się dzieje natychmiastowo. Już w tym momencie mamy do czynienia z nowymi oczami.
[KRZYSZTOF] A powiedz trochę o tej mikrofalówce i pralce.
[MATEUSZ] Po prostu, że idzie sobie niewidomy, ma iPhone’a, jest w budynku, w urzędzie. Słyszy: Panie, dobra, pójdzie pan na drugim piętrze, na lewo, drzwi numer tam ileś, tak? Co robi niewidomy? Jak myślisz?
[KRZYSZTOF] Ja myślę, że wyciąga iPhone’a, tylko musi mieć LiDAR i następnie odpala sobie być może nawet zwykły wizjer kamery, jak jest włączone coś w Aaccessibility i zapewne ten iPhone mówi mu do głowy, że widzi teraz drzwi z numerem 248, skręca w prawo, jest długi korytarz i jak się zbliży do jego końca, to będą pewnie jakieś drzwi i pewnie to będą te, o których pani Helenka powiedziała. Czy mam rację?
[MATEUSZ] Mniej więcej.
Konkretnie, jak wchodzi na drugie piętro, kręca w to lewo, tak jak powiedziano człowiekowi, odbierze iPhone’a, wykonuje gest w ramach VoiceOver, odpala się mechanizm, który się nazywa rozpoznawanie w ramach systemowej aplikacji lupka, która działa offline, uruchamia się rozpoznawanie, wykrywanie drzwi.
Jak idzie w AirPodsach, to nie dość, że dostaje informację, że one są w danej odległości, jak wykryje drzwi, na lewo, czy na prawo, to jeszcze dostaje dźwiękową pomoc, użyciem Spatial Audio, gdzie te drzwi są.
[KRZYSZTOF] Aha, czyli żeby pomóc mu zlokalizować się jakby w kubaturze budynku.
[MATEUSZ] Nie wiem, gdzie są, to po pierwsze, są różne drzwi, a on dostaję informację o tych drzwiach różnych, tak? Dźwiękowo. I jak wytrwa numery na tych drzwiach, to też mu je odczytuje.
Bajer, masz piktogram toalety, który jest duży, to też mu rozpoznać!
[KRZYSZTOF]To jest taki problem z życia codziennego, dokładnie tak, no masz rację, oczywiście.
[MATEUSZ] Tak, to jest pierwsza kwestia. Jeżeli mamy bazę osób, zrobioną w ramach rozpoznawania, i ta funkcja wychwyci tego ludzia, to nam powie, że to jest np. Krzysiek Kołacz. Przed tobą.
[KRZYSZTOF] Niesamowite.
[MATEUSZ] To się dzieje offline wszystko. Od iOS 17 dochodzą jeszcze dwie nowe funkcjonalności. Short Text, czyli coś co mają aplikacje third-party, już. Czyli czytanie spod kamery w locie tekstu, który ona widzi. Tylko tu jest jeden mały szkopuł, w przypadku systemowej aplikacji. Offline. A aplikacje third party robią to przy użyciu serwerów innych.
Najważniejsza funkcja, która nadchodzi wraz z iOS 17, Point and Speech, czyli właśnie mamy tą przykładową mikrofalówkę, która ma panel dotykowy i ma namalowane piktogramy przy tych przyciskach, czy opisy testowe. Odpalamy aplikację, potem VoiceOvera. Odpalamy Point and Speech, pokazujemy iPhone’owi nasz palec, żeby złapała go kamera oraz LiDAR i w momencie kiedy pokażemy mu ten palec, a dalej wskażemy na dany przycisk, to iOS będzie potrafił nam powiedzieć do czego służy.
No bajka, po prostu wskazujesz i on stara się rozpoznać i przeczytać, co to jest.
[KRZYSZTOF] Wiesz, bo to jest taki case, że to może wyeliminować potrzebę takiej akcji z cyklu emergency, kiedy np. są osoby już w takim stopniu niepełnosprawności, że potrzebują właściwie opieki 24 godziny na dobę. Chociażby po prostu, bo jest ryzyko, że będą chciały podgrzać wodę i użyją nie tego palnika, guzika, whatever, co trzeba. Bo z prostego powodu, bo nie wiedzą, co tam jest przy tym guziku, nie?
I to już jest ratunek dla nich, nie?
[MATEUSZ] Dokładnie, naprawdę. Dlatego to przytaczam. To rewelacja. Znajoma ma piecyk gazowy, z którym sobie obecnie nie jest w stanie poradzić, tak? Niewidząca. No to od iOS 17 i proszę bardzo!
[KRZYSZTOF] I wiesz, jeszcze jedno mi przychodzi do głowy, co jest już zintegrowane dla wszystkich, czyli w iOS 17 to będzie i będzie się wyświetlał jeszcze dodatkowy opis, o co w tym chodzi. To jest rozwiązanie jednego z problemów ludzkości pt. co do jasnej cholery jest na tych metkach przy ubraniach, mówiących jak je prać? I co to oznaczają te piktogramy?
[MATEUSZ] Do tego już jest masa aplikacji, a teraz system będzie to przez wizjer kamery rozpoznawał. Przez API VoiceOver.
[KRZYSZTOF] Dokładnie. Niesamowicie. I to znowu zaczęło się od dostępności.
[MATEUSZ] iPhone z iOS 17, w tej funkcji, będzie w stanie określić, że ten przycisk, który my wskazujemy, jest dotykowy. Dzięki temu, że ma LiDAR powie też, że mamy stycznoś z fizyczny przyciskiem i będzie w stanie nas naprowadzić na ten guzik. Nie mamy windy, gdzie jest fizyczny, tak? Ale nie wiemy gdzie ten klawisz jest, bo to jest nowy budynek. Nie znamy go jeszcze, albo mało znamy. No i szukamy tego nieszczęsnego guzika, bo chcemy zjechać na dół, bo jesteśmy na szóstym piętrze, nie? No to nie dość, że w ubranych AirPodsach Pro dostaniemy dźwięk kierujący lewo, prawo, górę, dół dzięki Spatial Audio, to jeszcze będą nam anonsowały to górę, dół, w lewo, w prawo.
[KRZYSZTOF] No to po prostu jest prowadzenie za rękę, literalne.
[MATEUSZ] Dokładnie.
A do tego jest dla aplikacji third-party API, które pozwala generować mapy wewnątrz budynków w oparciu o dane z LiDAR i nawigować. Teraz uwaga, całe na biało wjeżdża, co?
Apple Vision Pro! Tak, właśnie teraz sobie wyobraź, że zamiast machać tym iPhone’em, co nie jest do końca wygodne ogólnie w jakichkolwiek zastosowaniach, masz okulary, którym się rozglądasz, nie wiem, rozglądanie się po świecie. Właśnie tej funkcji, załóżmy, że wybieramy sobie, że chcemy znaleźć na półce sklepowej masło jakieś, tak? No to zaczyna nam czytać, co jest przed nami. Vision Pro, tak sobie wyobrażam, zacznie nam czytać, znajdziemy to, co chcemy, wyciągniemy po to rękę, a nasz system (ten Point and Speech), naprowadzi nas, żebyśmy się nie macali tych wszystkich produktów, tylko sięgnęli po te właściwe masło.
[KRZYSZTOF] Pamiętajmy, że będą dedykowane API i frameworki, które mają decydować o sposobie interakcji w ogóle z Vision OS, bo przypominam, że tam mamy głównie dłonie i które będą mapowane tymi dwunastoma kamerami, więc naprowadzenie na produkt na półce sklepowej w przypadku osoby, załóżmy niewidomej, wykorzystując ten sam mechanizm, który służy do pisania i wprowadzania tekstu, czy interakcji z całym systemem Vision OS, który nadchodzi, będzie w stanie prawdopodobnie do mniej niż centymetra obliczyć jak daleko jest ten produkt i naprowadzić dłoń, to jest coś niesamowitego.
[MATEUSZ] Nie macasz po prostu, nie macasz tego produktu, więc już ci odpala ten dyskomfort, że ludzie często się krępują przed zakupami. Siedzisz sobie na przystanku, podjeżdża autobus, rozglądasz się i wizjer od razu ci mówi, że to podjechał, na przykład, 807. I nie musisz wiedzieć, gdzie jest guzik do otwarcia drzwi, bo system Cię naprowadzi.
[KRZYSZTOF] To naprawdę nie jest tak, że Apple sobie wymyśla, że a dobra, teraz gogle, bo wszyscy mają gogle. Oni te gogle to już projektowali zanim jeszcze w iPadach się LiDAR pojawił. Jestem o tym przekonany. Tak to jest właśnie, tak te połączenia widać i bardzo się cieszę na to, że ta pierwsza część rozmowy upłynęła pod znakiem eksplozji percepcji i świadomości w ogóle.
Mam nadzieję, że wasze również zazwyczaj słuchacze, a teraz mi opowiedz, bardzo cię proszę, Mateuszu, jak to jest z takiego lotu ptaka, bo mówimy tutaj, że nasz ekosystem, nasza bańka jest taka uprzywilejowana, dobra, cudowna i wszystko super. Trzeba promować, trzeba mówić. No i dobrze, i można sobie coś kupić i być w tym naszym sosie. Tylko czy to już wystarczy, żeby w ogóle zmienić, mówiąc tak górnolotnie, system edukacji osób niepełnosprawnych w tym kraju, bo chyba nie jest z tym najlepiej?
[MATEUSZ] Ja sobie pozwolę się troszkę cofnąć w historii, dobrze?
[KRZYSZTOF] Dobrze, to skaczemy, tylko nie do prehistorii.
[MATEUSZ] Bo ja jestem z tą samą, która traciła wzrok powoli. W 2004 roku widziałem już coraz słabiej. Do końca trzeciej klasy podstawowej, pracowałem jako osoba widząca. Od razu zacząłem tracić wzrok. Dzięki temu, że rodzice mieli możliwość zapewnienia mi warunków, normalności. Zacząłem pracę z komputerem i z opracowaniem ułatwiającym samodzielne funkcjonowanie, które kiedyś trzeba było kupować na komputery i telefony. W 2004 to niestety był Windows z oprogramowaniem, które kosztowało około 10 tysięcy złotych, żeby móc ruszyć i które też nie było super stabilne. Wgrywało się je na dyskietkach!
[KRZYSZTOF] Właśnie miałem pytać, czy to płyty, ale to już rozwiałeś moją wątpliwość.
[MATEUSZ] Nie, panie, dyskietki, dyskietki. Jeszcze czas dyskietek. Dzięki temu, że rodzina się zaparła i pomogła, byłem w stanie po prostu skończyć szkołę masową, podstawówkę, gimnazjum. Mama tam była po prostu nauczycielką, więc starała się pomóc ile mogła, tak? Żebym mógł normalnie pracować. A to była masa wyrzeczeń! W 2006 roku, kiedy miałem egzamin po podstawówce, czy w 2010, to wyobraź sobie, że Ministerstwo Edukacji Narodowej nie miało pojęcia o tym, jak się pracuje po niewidomemu, szczególnie po niepełnosprawnemu. Mama tam z siostrą się dobijały. Mówiłem, OK, ja w Olsztynie, potem do Warszawy, chciałbym się wybrać, żeby walczyć, mimo że może w ogóle jakiegokolwiek normalnego zdawania egzaminów mogę nie doświadczyć, tak?
Mogłem zdawać z nauczycielami wspomagającymi ze słuchu, i to było wszystko nagrywane, co było bardzo stresujące. W gimnazjum już miałem możliwość pisać na laptopie i wydruk z tego był dołączany, jako dowód. Normalne karty egzaminacyjne + nagrywanie, ale później już osoby, powiedzmy, dyrektorzy szkół, dostali dużo większe możliwości. Po tym jak została zrobiona całkowita demolka wśród urzędników. Bo to się inaczej nie da się tego nazwać. Już rok później dyrektorzy szkół dostali dużo większe możliwości dostosowań do potrzeb osób niepełnosprawnych. Ja później poszedłem do szkoły, do środka edukacji, gdzie były osoby niewidome, co miało swoje plusy i minusy, bo nie byłem w stanie kontynuować edukacji w szkole masowej czy integracyjnej, bo nie było po prostu warunków w moim rejonie. No i te ośrodki w Polsce kiedyś były OK.
Dzisiaj niestety są gorszej jakości, bo tych osób niewidzących jest mniej, a przyjmuje się też osoby niepełnosprawne inaczej, do ośrodków dla osób niewidzących. Więc to po prostu jakość bardzo spadła. Ja skończyłem ten ośrodek, bo musiałem się trochę zaprzeć, poradzić z różnymi rzeczami, bo mimo że się starano, to też nie posiadano wiedzy o różnych aspektach. Ja przez to, że pasjonat, rodzinę mam kochającą, rodzeństwo starsze, kuzynostwo starsze, to zawsze z nimi byłem, więc dużo tych technologii się łapało, tak? Od dziecka.
[KRZYSZTOF] No i teraz tak naprawdę możesz wykorzystywać ten cały bagaż, już jakby mając jeszcze certyfikacje, znając świat Apple i tak dalej, no trochę żeby ten skostniały, w dużej mierze jeszcze nadal świat, zmieniać i to robisz, i to jest super, i to rzeczywiście jest takie budujące. Natomiast moją uwagę zwróciła jedna rzecz, jak słyszałem tę twoją opowieść. Padło określenie szkoły integracyjnej, które jest powszechnie znane. To są szkoły, które mieszają pełnosprawnych z niepełnosprawnymi. I teraz ja się zastanawiam, czy to nie jest tak, że jak się próbuje zrobić jeden worek na wszystko, to nikt na tym nie korzysta?
[MATEUSZ] Nie, to nie o to chodzi. Chodziło po prostu o zatwardziałość władz. Po prostu mówiono nam, że nie ma na wystarczającej liczby uczniów, żeby utworzyć klasę. Natomiast raczej to wynikało ze złej woli urzędników.
[KRZYSZTOF] Bo wiesz, dlaczego to wyjmuję? Dlatego, że ciężko mi sobie wyobrazić, że jest się w stanie prowadzić taką klasę w pojedynkę. A mamy do czynienia z różnego rodzaju niepełnosprawnościami. I teraz to, co ty mówisz, że nie było w twojej miejscowości, w twojej regionie, czy w ogóle w państwowych placówkach, tak takiego miejsca, które dałoby ci full możliwości jako osobie niewidomej. I o to mi chodzi, że gdybym może zrobić większą specjalizację, wiem, że to musi się zebrać grupa osób, tylko zastanawiam się, czy to nie powinno być tak, że nawet jak tych osób jest dwie, to one powinny mieć możliwość nauki? W sensie, rozumiesz, na godnym poziomie?
[MATEUSZ] Uważam, że integracyjne szkoły mają sens, jeżeli są dobrze zorganizowane.
[KRZYSZTOF] Co to znaczy?
[MATEUSZ] Już tłumaczę. Klasy muszą być odpowiednie rozmiarowo. W szkołach, które probują to robić poważnie, jest po 20 osób w klasie. 15 osób pełnosprawnych i 5 osób niepełnosprawnych. Maksymalnie 15 i 5 bądź 10 i 10. Tak się to łączy. I w takiej, poważnej szkole/klasie, jeżeli jest na przykład 5 niepełnosprawnych, to jest jeden nauczyciel wspomagający. To jest poważna szkoła. Ten główny nauczyciel ma asystujących, którzy są odpowiedzialni za te konkretne osoby. Z perspektywy czasu widzę, że kiedyś się nie dało, to było w 2010 roku, aby te integracyjne szkoły lub klasy działały. To była porażka, bo technologia też nie pozwalała na to, na co dzisiaj pozwala. Dziś Accessibility jest potężne. Wtedy to nie było go praktycznie w ogóle. W 2014, jak zdawałem maturę, to również nie było. Wtedy poszedłem na studia na Uniwersytecie Śląskim, gdzie się dostałem i wtedy Accessibility leżało w wielu aspektach. Ja poszedłem na Informatykę i to była droga przez mękę. W podstawie nauczania jest np. programowanie w języku Java. Jako niewidomy, na Windowsie wtedy jeszcze byłem, programowanie w Java to było pisanie kodów w notatniku i kompilacja w wierszu poleceń. Bo niestety narzędzia deweloperskie były niedostępne, tak? Ale w 2015 krew mnie zalała! A że miałem dostęp do pobawienia się tam komputerem Apple na uczelni, to zobaczyłem parę rzeczy.
Podjąłem decyzję, że kupuję Maca.
[KRZYSZTOF] Czyli to wtedy się zaczęło!
[MATEUSZ] Zaczęło się z komputerem Mac, ale on nie jest pierwszym urządzeniem Apple u mnie. Pierwsze urządzenie to był iPod Shuffle!
[KRZYSZTOF] To tak jak u mnie, możemy się przybić piątkę wirtualnie, tak?
[MATEUSZ] Z klipsem, potem był iPad Air pierwszej generacji, potem był MacBook Pro 15-calowy CTO, to była wysoka konfiguracja, chyba na maxa podbite wszystko. To było wtedy i się zaczęło, potem dołączył iPhone, doszedł Apple Watch. I w 2015, jak zobaczyłem, że to jest całkowicie dostępne, że da się normalnie programować, to oniemiałem! Dzisiaj konkurencja zobaczyła, że to jest ważne i programowanie na konkurencyjnej platformie jest możliwe. Nie jest to do końca wygodne, ale się da. Apple próbuję zawiesić poprzeczkę na wielu aspektach bardzo wysoko i konkurencja próbuje to gonić, bo widzi, że to jest ważne!
Niestety w pewnym momencie przerwałem studia, bo właśnie uczelnia państwowa i ta, na której studiowałem, dostępność miała wpisaną na papierze. Co z tego, że mieli Biuro Osób Niepełnosprawnych? Tam jest taka akcja, że my zapewniamy usługę asystentką, ale asystenta to sobie pan ma znaleźć sam. Więc po prostu w pewnym momencie psychicznie nie dałem rady i przerwałem studia, bo się nie dało/ Zajmowałem się innymi działalnościami. Wolontariatem lub występowałem na konferencjach.
[KRZYSZTOF] Na dobre ci wyszło to.
[MATEUSZ] Na dobre mi wyszło? Tak! Cztery lata przerwy, potem wróciłem, bo znalazłem uczelnię, która może i niestety jest uczelnią prywatną, ale się da. Naprawdę się da. Złożyłem dokumenty w piątek, we wrześniu 2021 roku. Powiedziano mi, że dostanę kontakt do asystenta. W poniedziałek zostanie ustalony plan działania z nim, więc będzie to wyglądało super, tak? Przyjeżdżam na jeden zjazd, ponieważ część zjazdów była odbywała się stacjonarnie. Była sytuacja, że przedmiot inżynieria oprogramowania miał dużo schematów niestety. Ja niewidomy, koledzy też. Ja zgłaszam, że przydałby się sprzęt, który przeczyta nam te schematy, aby normalnie studiować.
Przyjeżdżam za dwa tygodnie na kolejny zjazd, podchodzę pod salę, a pani z Biura Osób Niepełnosprawnych, podchodzi do mnie i mówi: „Panie Matuszu, proszę podpisać odbiór sprzętu”.
[KRZYSZTOF] Czyli proaktywność! To jest w ogóle, nie tylko w kontekście tego rodzaju edukacji, ale w ogóle systemu edukacji w Polsce bardzo ważne.
[MATEUSZ] Student niepełnosprawny może studiować na uczelni prywatnej i jest w stanie, bo PFRON (Państwowy Fundusz Rehabilitacji Osób Niepełnosprawnych) to dofinansowuje.
[KRZYSZTOF] A widzisz, to ciekawa informacja.
[MATEUSZ] Naprawdę dofinansowuje i jest dużo programów pomocowych!
[KRZYSZTOF] Ja to rozumiem Mateusz, że jakby ktoś ze słuchaczy, czy może rodzina któregoś ze słuchaczy, czy ze słuchaczek, miała taki problem, to może się z tobą kontaktować śmiało?
[MATEUSZ] Tak, w opisie załączymy dane, które pozwolą się kontaktować.
[KRZYSZTOF] W opisie, czyli pod adresem boczemunie.pl/285.
[MATEUSZ] Już niedługo, moim zdaniem, Apple Vision Pro będzie odpowiedzią dla osób przykutych do łóżka. Nie długo będę zresztą rozmawiał z osobą, która ma problemy takie, że nie rusza kończynami, tylko głównie rusza głową. W tej chwili korzysta z rozwiązań, które są specyficzne i jest to utrudnione dla niej, żeby funkcjonować normalnie.
A właśnie Apple Vision Pro to jest coś, co będzie atrakcyjne dla niepełnosprawnych, moim zdaniem, ponieważ pozwoli im, zwłaszcza tym z niepełnosprawnością manualną, na zaznanie normalności. Na pewno w kontekście edukacji, ale też pracy zawodowej.
[KRZYSZTOF] Będzie bariera wejścia cenowa na początku, ale zawsze tak było i ja głęboko wierzę, że to jest początek i kolejny produkt tańszy z tego segmentu special computing. To już będzie masowa rewolucja przede wszystkim dla tych osób, o których ty mówisz. Bo to jest zupełnie nowe życie.
[MATEUSZ]Ty mówisz drogie, a ja ci znowu wbiję szpilkę.
[KRZYSZTOF] No tak, bo te systemy, które są dedykowane, chociażby te klawiatury dla niewidomych, są jeszcze droższe.
[MATEUSZ] W tej chwili, jak chcesz kupić monitor taki, jak ja posiadam, 40-znakowy, to jest 15 tysięcy złotych. Taki sensowny, pod względem jakości działania, funkcjonalności i tutaj oświadczam, że będę walczył z PEPRON-em, aby Apple Vision Pro został zaklasyfikowany, jako sprzęt rehabilitacyjny.
[KRZYSZTOF] Ja już trzymam dzisiaj kciuki za ciebie w tym kontekście! To naprawdę, to oczywiście będzie to wtedy musiało być dostępne oficjalnie zapewne w Polsce, z czym może być pod górkę, ale jak znając ciebie, to dasz radę.
[MATEUSZ] Nie odpuszczę.
[KRZYSZTOF] Mateusz, wiem, że mógłbyś gadać godzinami o tym wszystkim. Natomiast czas się nam powoli kończy i tak na koniec chciałbym jeszcze ci podpytać o to: Co my możemy zrobić lepiej, jako zwykli pełnosprawni użytkownicy technologii tej, której używamy, ekosystemu Apple, żeby wam i innym osobom pomóc? Nie wiem, czy krzewić tę nowinę o tym, że to jest, działa i się da, czy zwracać uwagę właśnie być może tego całej reszty świata, nie na to, że to nie jest tylko to, że są Memoji?
[MATEUSZ] Walczyć o kilka rzeczy. Trzeba walczyć z deweloperami. Po pierwsze o to, żeby aplikacje były pisane jako aplikacje natywne! To jest podstawa. Kolejna rzecz, żeby wszystkie strony aplikacji były pisane zgodnie z WCAG, czyli Web Content Access Guideline. To są dwa ważne aspekty, które niestety często nie są realizowane, bo deweloperzy po prostu często nie rozumieją, bo nie mają wiedzy.
Tu przede wszystkim co jest ważne, to trzeba żeby nieść szkolenia do środowiska deweloperskiego.
[KRZYSZTOF] Albo kontakt do ciebie, to jest inna sprawa, bo jest to ważne i rzeczywiście jesteś takim rodzynkiem na mapie Europy, a w Polsce taką osobą, która zawsze od serducha pogada o tym i w żadną stronę nie skręcając za bardzo, co bardzo ja sobie na przykład cenię u ciebie.
I jak mogę powiedzieć tak od siebie, dam ci taki feedback tutaj na wizji przy słuchaczach, że jak ostatni raz rozmawialiśmy, to od tego czasu widać u ciebie ogromną zmianę też w sposobie przekazywania tej wiedzy, formułowanie myśli i takiego konkretyzmu. W sensie to naprawdę jest inny Mateusz! Muszę ci to powiedzieć, bo to jest bardzo widoczne w naszym nagraniu. Bardzo ci za to dziękuję, bo ten odcinek wyszedł bardzo merytoryczny.
Dajcie też w ogóle znać, jak wam się podobał w dowolnym medium, które chcecie, przekażę Mateuszowi.
I oczywiście, jeżeli chcielibyście poznać te materiały, na których bazowaliśmy, to wszystkie te linki znajdziecie jeszcze raz pod adresem boczemunie.pl/285.
Mateusz, ja ci życzę w dniu, kiedy to nagrywamy, dobrego Apple Eventu, ten już 12 września. I niech tam wszystko wybuchnie i pokaże się jeszcze szybsze, zwłaszcza te Neuron Engine’y, które są dla was tak szalenie istotne, a dla nas to tylko cyferki na planszy. No i niech to będzie wprowadzane na kolejny poziom.
[MATEUSZ] Zobaczymy, co się pokaże.
[KRZYSZTOF] I zanim się tak totalnie pożegnamy, to jeszcze wiem, Mateusz, że jest jedna rzecz, na której ci bardzo, bardzo, bardzo zależało. Więc to jest ten czas dla ciebie na sam koniec.
[MATEUSZ] Dla ludzi, którzy by chcieli zrobić coś dobrego. Moja bliska znajoma niestety boryka się z bardzo poważnym problemem ze swoją córką. Choruje na bardzo, praktycznie mało, spotkaną chorobę. To się nazywa Zespół Crouzona. To jest bardzo skomplikowany zespół chorobowy, polegający na tym, że niepoprawnie rosną kości czaszki, a więc praktycznie się nie rozwijają. Obecnie jest konieczna kolejna operacja u tej dziewczynki, 11-letniej, i jest założona zbiórka, bo koszt jest gigantyczny. Kobieta samotnie wychowuje, sama jest niewidoma i musi sobie poradzić z tym tematem. Jeżeli ktoś by chciał wspomóc, po prostu, to proszę, bo temat jest bardzo złożony i bardzo poważny. Operacja jest u tej dziewczynki konieczna i teoretycznie ma być w październiku, ale niestety są problemy. Choroba postępuje i nie wyklucza się, że niestety operacja będzie musiała być przyspieszona, a koszt to ponad 700 tys. zł.
[KRZYSZTOF] Możemy powiedzieć tylko na koniec, ja od siebie na pewno, że po prostu zostawię link w opisie tego odcinka. Adres do niego podawaliśmy już tutaj wystarczającą ilość razy. Możecie albo jakkolwiek wyrazić wdzięczność też za wiedzę, którą Mateusz dzisiaj przekazał, dowolną kwotą oczywiście, to po prostu to zróbcie. Od siebie proszę i postawmy tutaj kropkę.
Dziękuję bardzo Mateusz i do następnego razu zdecydowanie trzeba się będzie znowu umówić na wieczorne nagrania i pogaduchy na temat tego, co było pierwsze.
Bardzo dziękuję.
[MATEUSZ] Dziękuję jeszcze raz i do następnego. Bo czemu nie?!
[MUZYKA]
Raz jeszcze, na koniec, żeby nie umknęło. Przypominam, zostaw na Apple Podcasts lub na Spotify taką liczbę gwiazdek, jaką uznasz za stosowną.
Do usłyszenia w kolejnym odcinku, a za dziś bardzo dziękuję.
[MUZYKA CICHNIE – KONIEC ODCINKA]



































































