Dostępność a innowacje technologiczne: przyszłość i możliwości
Dostępność cyfrowa oznacza projektowanie technologii tak, aby każdy użytkownik – niezależnie od niepełnosprawności – mógł z nich swobodnie korzystać. Nowoczesne innowacje otwierają niespotykane dotąd możliwości w edukacji i pracy, pomagając niwelować bariery dla osób z różnymi ograniczeniami. W niniejszym raporcie omawiamy, jak technologie takie jak sztuczna inteligencja (AI), rzeczywistość rozszerzona i wirtualna (AR/VR), Internet Rzeczy (IoT), a także technologie głosowe i inne technologie wspomagające mogą wspierać rozwój dostępności cyfrowej. Skupiamy się na praktycznych zastosowaniach tych rozwiązań dla osób z czterema głównymi kategoriami niepełnosprawności:
- Wzrokowe – osoby niewidome i słabowidzące;
- Słuchowe – osoby niesłyszące i niedosłyszące;
- Ruchowe – osoby z ograniczeniami mobilności (np. poruszające się na wózkach, z niedowładem kończyn);
- Poznawcze – osoby z zaburzeniami uczenia się, neurozróżnicowane (np. dysleksja, spektrum autyzmu).
Omówimy zastosowania tych technologii zarówno w środowisku edukacyjnym (szkoły, uczelnie, e-learning), jak i zawodowym (miejsce pracy, rekrutacja, narzędzia pracy, komunikacja w zespołach). Raport przedstawia również kierunki przyszłego rozwoju oraz podkreśla znaczenie projektowania uniwersalnego i tworzenia inkluzywnych rozwiązań cyfrowych od podstaw. Język i struktura raportu zostały dobrane tak, by treści były zrozumiałe dla osób nietechnicznych, pokazując realne przykłady ułatwień i korzyści płynących z nowych technologii.
Sztuczna inteligencja (AI) w służbie dostępności
Sztuczna inteligencja odgrywa kluczową rolę w tworzeniu bardziej dostępnego świata. Systemy AI potrafią uczyć się i wykonywać zadania, które dawniej wymagały ludzkich zmysłów lub inteligencji – co idealnie sprawdza się w pokonywaniu barier dla osób z niepełnosprawnościami. Już dziś AI znajduje zastosowanie w wielu narzędziach wspierających codzienne życie: od rozpoznawania mowy i obrazu, przez asystentów głosowych, po tłumaczenie tekstu na język migowy[1]. Przykładowo, aplikacje wykorzystujące Computer Vision (widzenie komputerowe) potrafią automatycznie opisywać zdjęcia i grafiki, co jest nieocenione dla osób niewidomych – dzięki nim mogą „usłyszeć”, co przedstawia obraz[2]. Z kolei systemy rozpoznawania mowy umożliwiają generowanie napisów na żywo do filmów, wykładów czy spotkań online, co zapewnia osobom niesłyszącym pełny dostęp do treści audio w czasie rzeczywistym[3]. Coraz częściej testowane są także algorytmy tłumaczące tekst lub mowę na język migowy – np. wyświetlając awatara migającego zdania – co w przyszłości może ułatwić komunikację z osobami g/Głuchymi[1].
Przykłady działających rozwiązań AI dla dostępności można mnożyć. Istnieją mobilne aplikacje asystujące osobom niewidomym, takie jak Microsoft Seeing AI czy polska aplikacja Be My Eyes z wbudowaną obsługą AI, które na życzenie użytkownika opisują otoczenie, rozpoznają przedmioty i odczytują tekst z fotografii[4]. Dla osób słabosłyszących dostępne są narzędzia zamieniające mowę na tekst – przykładem jest aplikacja Ava, która w rozmowie na bieżąco wyświetla napisy, ułatwiając komunikację osobom niesłyszącym[5]. Osoby z niepełnosprawnościami ruchowymi mogą korzystać z AI poprzez asystentów głosowych (Siri, Google Assistant, Alexa itp.), by sterować urządzeniami domowymi czy komputerem za pomocą komend głosowych – eliminuje to konieczność użycia rąk przy obsłudze technologii[6][7]. AI wspomaga także czytniki ekranu (np. VoiceOver na iPhone, TalkBack na Android), które odczytują na głos zawartość ekranu osobom niewidomym – inteligentne algorytmy poprawiają płynność takiego odczytu i potrafią identyfikować elementy interfejsu. Wreszcie, nawet zaawansowane modele językowe pokroju ChatGPT mogą służyć jako asystenci – np. pomagając przekształcić skomplikowany dokument na łatwiejszy język lub odpowiadając na pytania użytkownika, co zwiększa samodzielność osób z niepełnosprawnościami intelektualnymi[4].
W edukacji AI zapewnia nowe formy inkluzji cyfrowej. Dzięki narzędziom opartym na sztucznej inteligencji możliwe jest dostosowanie procesu nauczania do indywidualnych potrzeb uczniów. Przykładowo, systemy e-learningowe z AI mogą automatycznie personalizować tempo i sposób przekazywania wiedzy – uczniowie z trudnościami poznawczymi (np. dysleksją czy ADHD) mogą otrzymywać bardziej dostosowane materiały i ćwiczenia, a system na bieżąco analizuje postępy i podpowiada nauczycielom, gdzie potrzebne jest dodatkowe wsparcie. AI ułatwia także dostęp do wiedzy osobom z niepełnosprawnościami sensorycznymi: wykłady online mogą być automatycznie transkrybowane na tekst, prezentacje – wzbogacane o audio deskrypcje dla niewidomych, a treści wizualne – opisywane. W okresie popularyzacji nauki zdalnej okazało się to zbawienne – AI pomogła zapewnić równość dostępu do lekcji online, generując np. napisy do wideolekcji czy podsuwając nauczycielom alternatywne opisy materiałów[8]. Sztuczna inteligencja wspiera także diagnozowanie i terapię zaburzeń rozwojowych u dzieci – istnieją rozwiązania analizujące zachowanie dziecka pod kątem objawów dysleksji czy autyzmu, co pozwala wcześniej zaimplementować odpowiednie metody nauczania[8].
W pracy zawodowej AI również stwarza nowe możliwości. Systemy rekrutacyjne oparte na AI mogą pomóc wyeliminować nieświadome uprzedzenia przy selekcji kandydatów, promując bardziej inkluzyjne procesy rekrutacji[8]. Oznacza to np. ocenę realnych kompetencji i potencjału kandydatów z pominięciem danych sugerujących niepełnosprawność, co zwiększa ich szanse na zatrudnienie czysto merytoryczne. Na etapie wykonywania pracy AI może pełnić rolę inteligentnego asystenta w miejscu pracy: asystować w organizacji zadań (co jest pomocne dla osób z trudnościami w koncentracji), automatycznie tworzyć napisy do firmowych wideokonferencji (dla pracowników z ubytkiem słuchu) czy tłumaczyć dokumenty na różne formaty dostępne (np. brajl dla pracownika niewidomego). Przykładowo, osoba niewidoma może za pomocą AI szybko uzyskać opis wykresu w raporcie finansowym, a osoba głucha – otrzymać natychmiastowy transkrypt wypowiedzi kolegi z działu. Sztuczna inteligencja wspiera też szkolenia zawodowe – platformy e-learning w firmach mogą dzięki AI dostosować sposób prezentacji treści szkoleniowych pod kątem potrzeb np. pracownika z dysleksją (większa interaktywność, więcej materiałów audio). Wreszcie, AI wspomaga komunikację wewnątrz zespołów międzynarodowych, co pośrednio pomaga osobom z niepełnosprawnościami – translatory oparte na AI umożliwiają komunikację w różnych językach, a chatboty mogą służyć pracownikom do szybkiego uzyskania informacji bez potrzeby dzwonienia (co jest korzystne np. dla osób z wadą słuchu, które preferują tekst).
Warto zaznaczyć, że wraz z ogromnym potencjałem AI pojawiają się też wyzwania: kwestie etyki, prywatności danych czy rzetelności algorytmów. Aby AI faktycznie służyła osobom z niepełnosprawnościami, musi być tworzona z ich udziałem. Doświadczenie pokazuje, że technologie projektowane bez konsultacji z przyszłymi użytkownikami często rozmijają się z ich realnymi potrzebami. Kluczem jest więc uwzględnianie głosu osób z różnymi niepełnosprawnościami na etapie planowania i testowania rozwiązań[9]. Takie inkluzywne podejście sprawia, że AI staje się narzędziem realnej zmiany, zwiększając niezależność i równy dostęp do edukacji czy pracy, zamiast tworzyć nowe bariery. Podsumowując, sztuczna inteligencja już teraz udowadnia swój potencjał jako technologia asystująca, a w przyszłości – przy odpowiedzialnym wdrożeniu – może stać się fundamentem świata bez barier.
Rzeczywistość rozszerzona i wirtualna (AR/VR)
Rzeczywistość rozszerzona (AR) oraz wirtualna (VR) to innowacyjne technologie immersyjne, które także niosą ogromny potencjał w kontekście dostępności. AR polega na nakładaniu cyfrowych elementów (grafik, napisów, dźwięków) na obraz rzeczywistego świata, zaś VR tworzy w pełni wygenerowane komputerowo środowisko otaczające użytkownika. Obie te technologie mogą pomóc zmniejszyć bariery fizyczne, jeśli zostaną zaprojektowane z myślą o integracji. Dzięki AR/VR osoby z niepełnosprawnościami mogą doświadczać usług i miejsc, do których dostęp w świecie rzeczywistym bywa utrudniony – na przykład poprzez udział w wirtualnych spotkaniach czy zwiedzanie symulowanych przestrzeni, co niweluje ograniczenia geograficzne i mobilnościowe[10][11]. Co więcej, urządzenia AR/VR wyposażone w rozmaite czujniki i możliwości interakcji są wysoce adaptowalne, co oznacza, że można je dostosować do potrzeb konkretnego użytkownika, minimalizując wpływ jego ograniczeń[12][11]. W praktyce AR może pełnić funkcję technologii wspomagającej – wzbogacając otoczenie o wirtualne elementy ułatwiające dostęp. Przykładowo, osoba niewidoma może korzystać z okularów AR, które rozpoznają napisy i znaki w otoczeniu, a następnie przekładają je na komunikaty głosowe, ułatwiając nawigację w przestrzeni publicznej. Z kolei osoba z ograniczonym słuchem może używać inteligentnych okularów wyświetlających w czasie rzeczywistym napisy dialogów prowadzonych w jej otoczeniu – tak, jakby oglądała świat z włączonymi napisami na żywo. Takie prototypy już istnieją – np. aplikacja XRAI Glass z Wielkiej Brytanii konwertuje mowę otoczenia na tekst na ekranie okularów, umożliwiając osobie głuchej widzenie rozmowy w formie napisów.
AR w edukacji może uczynić zajęcia bardziej przystępnymi i angażującymi. Nauczyciel może używać aplikacji AR do wizualizacji trudnych pojęć – np. wyświetlić na tablecie trójwymiarowy model komórki czy układu planetarnego. Dla uczniów z niepełnosprawnością poznawczą (np. trudnościami w pojmowaniu abstrakcji) taka forma nauki jest bardziej intuicyjna i namacalna. Ponadto, AR może dostarczać dodatkowych wskazówek w otoczeniu klasy – np. po nakierowaniu aparatu tabletu na tablicę wyświetli powiększony tekst o wysokim kontraście dla ucznia słabowidzącego, albo przekaże na słuchawki lektora odczytującego tekst z prezentacji. W ten sposób AR rozszerza rzeczywistą klasę o warstwy informacji dostosowane do indywidualnych potrzeb uczniów.
VR w edukacji z kolei pozwala uczniom zanurzyć się w świecie, który inaczej byłby poza ich zasięgiem. Uczeń poruszający się na wózku może dzięki VR odbyć wirtualną wycieczkę po niedostępnym terenie – np. wspiąć się na wirtualne wysokie góry albo zwiedzić średniowieczny zamek dostosowany w symulacji, choć w rzeczywistości brak tam wind. VR umożliwia też bezpieczne eksperymentowanie – np. uczniowie niewidomi mogą w symulatorze poczuć układ przestrzenny cząsteczek chemicznych za pomocą sprzężenia haptycznego (wibracji), a osoby neuroatypowe mogą poćwiczyć sytuacje społeczne w kontrolowanym, wirtualnym środowisku. Badania pokazują, że wirtualna rzeczywistość jest obiecującym narzędziem wspierającym terapię i naukę osób ze spektrum autyzmu (ASD) – symulacje VR pomagają trenować umiejętności społeczne i radzenie sobie w różnych sytuacjach dnia codziennego w sposób angażujący, ale pozbawiony nadmiernych bodźców świata realnego[13]. Przykładowo, stworzono program VR, w którym młoda osoba z ASD uczy się samodzielnie robić zakupy: w wirtualnym sklepie może ćwiczyć interakcję z kasjerem czy reagowanie na nieprzewidziane zdarzenia, a AI na bieżąco daje jej podpowiedzi i ocenia postępy[14]. Tego typu trening w VR przekłada się potem na większą pewność siebie w prawdziwych sytuacjach.
AR/VR w miejscu pracy znajdują coraz więcej zastosowań, zwłaszcza w szkoleniach i zdalnej współpracy. Pracodawcy zaczynają wykorzystywać wirtualne symulacje do szkoleń zawodowych, co bywa szczególnie korzystne dla pracowników z niepełnosprawnościami. Na przykład we Wrocławiu opracowano system AIDAR LMS oparty na VR/AR, który pozwala przenieść całe stanowiska pracy do świata wirtualnego i tam uczyć nowych pracowników obsługi urządzeń czy procesów produkcyjnych[15]. Dzięki takiemu rozwiązaniu osoba z niepełnosprawnością może najpierw w wirtualnym warsztacie nauczyć się obsługi maszyny przemysłowej – bez presji czasu i zagrożeń fizycznych – a dopiero potem przejść do realnego stanowiska, już przygotowana i pewna swoich umiejętności. Systemy VR tego typu często wykorzystują też elementy grywalizacji, aby szkolenie było ciekawsze, oraz sztuczną inteligencję, która dostosowuje poziom trudności i udziela wskazówek[16]. Ważne, że technologia AR/VR wspiera nie tylko sam proces nauki, ale i aktywizację zawodową osób z niepełnosprawnością – opisywany system AIDAR został wdrożony we współpracy z rządowym programem Dostępność Plus, właśnie w celu umożliwienia osobom o szczególnych potrzebach łatwiejszego wejścia lub powrotu na rynek pracy[17][18]. Innym przykładem jest zastosowanie VR w fabryce silników w Jaworze – tam stworzono wirtualny model całego stanowiska montażu silnika, aby każdy pracownik (także z ograniczeniami zdrowotnymi) mógł przećwiczyć montaż krok po kroku w VR. Co ciekawe, model odwzorowuje nawet wagę realnego silnika, co pozwala wypracować pamięć mięśniową, a dzięki VR pracownik może trenować bez obciążenia fizycznego, stopniowo nabierając wprawy[19]. Takie podejście okazało się korzystne nie tylko dla osób z niepełnosprawnościami, ale dla wszystkich nowych pracowników – pokazuje to, że rozwiązania poprawiające dostępność często służą szerokiemu gronu (np. bardziej efektywne szkolenia dla każdego).
AR i VR sprzyjają również nowym formom pracy zdalnej i zespołowej. Przestrzenie wirtualne (tzw. metawersum) mogą być wykorzystane do organizowania spotkań, w których awatary uczestników przebywają wspólnie w symulowanym biurze czy sali konferencyjnej. Dla pracowników z niepełnosprawnościami ruchowymi, którym trudno jest podróżować, taka forma telepracy może zapewnić poczucie obecności w zespole bez potrzeby wychodzenia z domu. Co więcej, wieloosobowe doświadczenia VR/AR pozwalają tworzyć społeczności i sieci wsparcia osób inaczej odizolowanych – dzięki nim pracownicy czy studenci z ograniczeniami mogą w pełni uczestniczyć w życiu grupy na równi z innymi, mimo że są fizycznie w innym miejscu[20].
Oczywiście, aby AR/VR były naprawdę inkluzywne, trzeba zadbać o ich dostępność. Obecnie projektanci pracują nad standardami dostępności dla rzeczywistości wirtualnej – przenosząc sprawdzone praktyki z tradycyjnych mediów (jak powiększanie elementów, opisy tekstowe, audiodeskrypcja w VR)[21][22]. Rozwiązania powstają też w odpowiedzi na wyzwania: np. dla osób z niepełnosprawnością ruchową, które nie mogą obsługiwać kontrolerów VR, opracowano systemy śledzenia ruchu gałek ocznych lub głosu do poruszania się w wirtualnym świecie[23]. Innym problemem jest waga i noszenie headsetu VR – dla niektórych użytkowników z niepełnosprawnością może to być trudne, dlatego firmy pracują nad lżejszymi, wygodniejszymi konstrukcjami. Mimo pewnych ograniczeń, potencjał AR/VR jest ogromny: dobrze zaprojektowane mogą zniwelować wiele barier i otworzyć nowe możliwości dla osób z niepełnosprawnościami w edukacji, pracy i życiu społecznym[24].
Internet Rzeczy (IoT) i inteligentne otoczenie
Internet Rzeczy (IoT) to sieć połączonych ze sobą inteligentnych urządzeń i czujników, które komunikują się i automatyzują różne czynności. W kontekście dostępności IoT tworzy fundament inteligentnego otoczenia, które samo dostosowuje się do potrzeb użytkownika lub pozwala mu zdalnie kontrolować świat fizyczny. Taka technologia potrafi uwolnić osoby z niepełnosprawnościami od wielu codziennych trudności, dając im większą niezależność w domu, szkole czy miejscu pracy.
Najbardziej rozpowszechnionym przykładem IoT wspierającego osoby z niepełnosprawnościami są inteligentne domy. Dzięki wyposażeniu mieszkania w urządzenia połączone z Internetem, dom reaguje na polecenia mieszkańca – często wydawane za pomocą smartfona albo głosu. Osoba mająca problemy z poruszaniem się może z poziomu telefonu lub za pomocą komendy głosowej włączyć światło, otworzyć drzwi, nastawić termostat czy włączyć ekspres do kawy, nie ruszając się z miejsca. Zdalne sterowanie sprzętami domowymi znacząco zwiększa samodzielność takich osób i komfort życia[25]. Przykładowo, dla kogoś poruszającego się na wózku wyjście z łóżka w nocy, by zgasić światło, bywa dużym wyzwaniem – ale jeśli może to światło zgasić przez aplikację albo mówiąc „Siri, zgaś światło”, staje się to banalnie proste. Inteligentne lodówki mogą z kolei wysyłać powiadomienia, gdy brakuje jedzenia, a inteligentne piekarniki – same wyłączą się po upływie ustalonego czasu, co podnosi bezpieczeństwo (ważne np. dla osób z zaburzeniami pamięci). Wszystko to sprawia, że IoT usuwa wiele barier w obsłudze tradycyjnych urządzeń – gałki, przełączniki, pokrętła zastępowane są aplikacją lub automatyzacją, co jest bardziej dostępne dla osób z ograniczoną motoryką dłoni.
IoT wychodzi też poza dom, zmieniając przestrzeń publiczną na bardziej przyjazną. W nowoczesnych smart cities (inteligentnych miastach) testuje się rozwiązania wspomagające np. osoby niewidome czy seniorów w poruszaniu się po mieście. Dobrym przykładem są inteligentne sygnalizacje świetlne wyposażone w czujniki i połączone z aplikacją w telefonie. Gdy osoba z niepełnosprawnością wzroku lub ruchu zbliża się do przejścia dla pieszych, taka sygnalizacja może automatycznie wydłużyć zielone światło, dając więcej czasu na bezpieczne przejście przez ulicę[26]. W Holandii powstała aplikacja CrossWalk, która właśnie w ten sposób komunikuje się ze specjalnymi światłami drogowymi – użytkownik (np. poruszający się wolniej wskutek niepełnosprawności lub wieku) jest wykrywany, a system wydłuża zielone światło, umożliwiając mu dotarcie na drugą stronę jezdni bez stresu[26]. Inne miejskie rozwiązania IoT to np. czujniki na przystankach autobusowych, które informują kierowcę, że czeka osoba na wózku (dzięki czemu wie, by podjechać blisko krawężnika i opuścić platformę) albo nadajniki beacon, za pomocą których osoba niewidoma otrzymuje na smartfon komunikat głosowy, że zbliża się do wejścia do budynku czy peronu.
W środowisku edukacyjnym IoT może przejawiać się poprzez inteligentne klasy. Są to sale wyposażone w automatyczne systemy regulacji oświetlenia, dźwięku i warunków, reagujące na potrzeby uczniów. Jeśli w klasie jest uczeń z nadwrażliwością słuchową (np. w spektrum autyzmu), system może zmniejszyć natężenie dzwonka szkolnego dla jego aparatu słuchowego lub powiadomić go migającym światłem o przerwie, zamiast głośnym dźwiękiem. Czujniki mogą też monitorować jakość powietrza i temperaturę – ważne dla uczniów z problemami zdrowotnymi – i automatycznie włączać wentylację lub ogrzewanie. IoT wspiera również e-learning – np. platforma edukacyjna może wysyłać przypomnienia na smartwatch ucznia o zbliżającym się terminie oddania pracy domowej, co jest świetną pomocą organizacyjną dla uczniów z deficytami uwagi.
W pracy zawodowej IoT przyczynia się do powstawania inteligentnych biur. Pracownik z niepełnosprawnością ruchową może dzięki aplikacji otworzyć sobie drzwi wejściowe do biura lub wezwać windę zanim do niej dotrze (oszczędzając czas i unikając kłopotliwej obsługi paneli dotykowych). Biurka z regulacją wysokości mogą automatycznie dostosować się do ustawień zapisanych dla danego pracownika (np. wyższa pozycja dla osoby na wózku, żeby wygodnie podjechała). Czujniki obecności mogą wykryć, że osoba niewidoma została sama w pokoju po wyjściu kolegów i automatycznie zgasić światło (oszczędność energii) – a gdy wraca, włączyć je lub inną sygnalizację, jeśli jest osobą słabowidzącą, by czuła się bezpiecznie. W razie ewakuacji, IoT może pomóc służbom zlokalizować pracownika z niepełnosprawnością i skierować do niego pomoc w pierwszej kolejności.
Noszone urządzenia (wearables) będące częścią IoT również są cennym wsparciem. Opaski monitorujące funkcje życiowe mogą np. wykryć atak padaczki u pracownika/ucznia i natychmiast powiadomić wskazaną osobę lub służby ratunkowe. Smartwatche z GPS pomagają opiekunom osób z demencją lub trudnościami poznawczymi – jeśli taka osoba oddali się i zgubi drogę, wysyłany jest alert z lokalizacją, co zapewnia bezpieczeństwo i szybkie udzielenie pomocy[27]. Dla osób mających kłopoty z pamięcią dostępne są też inteligentne aplikacje przypominające o codziennych zadaniach – na przykład o wzięciu leków czy spakowaniu potrzebnych dokumentów przed wyjściem do pracy[27]. W ten sposób IoT działa jak dodatkowa para oczu i uszu, czuwając nad użytkownikiem.
Na szczególną uwagę zasługuje wykorzystanie IoT do zdalnej obecności i komunikacji, co stało się przełomowe zarówno w edukacji, jak i w pracy dla osób z niepełnosprawnościami. Mowa tu o robotach teleobecności – urządzeniach (często przypominających niewielki poruszający się peryskop z kamerą i głośnikiem), które mogą fizycznie być w danym miejscu, reprezentując osobę zdalną. Takie rozwiązanie zastosowano już z sukcesem w edukacji: w Austrii wprowadzono roboty AV1, które stawiane na ławce szkolnej pozwalają uczniom długo nieobecnym (np. z powodu choroby lub niepełnosprawności uniemożliwiającej przyjście do szkoły) uczestniczyć w lekcjach zdalnie[28]. Uczeń pozostaje w domu, ale poprzez aplikację łączy się ze swoim robotem w klasie – robot przekazuje obraz i dźwięk z klasy do tabletu ucznia i jednocześnie odtwarza głos ucznia dla nauczyciela i kolegów[29]. Dziecko może nawet zdalnie obracać kamerę robota, by rozejrzeć się po klasie, zadawać pytania, brać udział w dyskusjach, a na przerwie „pójść” z kolegami na korytarz (robot jest przenośny i może być zabrany na szkolny plac zabaw czy na wycieczkę)[29]. Takie poczucie obecności sprawia, że uczniowie nie tracą więzi społecznych i mogą kontynuować naukę, jakby fizycznie byli na miejscu – co ma olbrzymie znaczenie dla ich pewności siebie i rozwoju[28]. Podobnie w środowisku pracy – pracownik, który nie może opuszczać domu (np. z powodu ciężkiej choroby lub paraliżu), może sterować robotem obecnym w biurze i w ten sposób brać udział w spotkaniach przy tablicy, rozmawiać „twarzą w twarz” z klientami poprzez awatara robota, a nawet prowadzić zdalnie np. oprowadzanie po muzeum czy sklepie.
Technologie tego typu tworzą też nowe miejsca pracy dla osób, które dawniej były całkowicie wykluczone z rynku. Przykładem jest kawiarnia Dawn Cafe w Tokio, gdzie kelnerami są roboty sterowane zdalnie – a operatorami tych robotów są osoby całkowicie sparaliżowane, leżące w domach[30]. Japoński startup Ory opracował robota OriHime-D o wysokości 120 cm, którym osoba sparaliżowana kieruje za pomocą drobnych ruchów – nawet ruchów oczu – dzięki czemu robot może poruszać się po kawiarni, rozmawiać z klientami i podawać im zamówienia[31]. Taka praca z łóżka, kiedyś będąca jedynie marzeniem, dziś staje się rzeczywistością – pokazuje to, jak IoT i robotyka przełamują tradycyjne bariery zatrudnienia. Również w Polsce idee pracy zdalnej dla osób o bardzo ograniczonej mobilności są rozwijane – np. Fundacja „Leżę i Pracuję” organizuje zespoły, w których osoby sparaliżowane pracują w domu korzystając z internetu i technologii do komunikacji, udowadniając, że – cytując założycielkę fundacji – „skoro w XXI wieku wystarczy komputer i dostęp do sieci, można pracować nawet z łóżka”[32].
Podsumowując, Internet Rzeczy tworzy wokół nas ekosystem wspierający niezależność – od inteligentnej lodówki po zdalnie sterowanego robota. W połączeniu z AI (która nadaje tym urządzeniom „inteligencję”) oraz technologiami głosowymi (ułatwiającymi sterowanie) IoT może uczynić zarówno domy, jak i miasta czy miejsca pracy znacznie bardziej przyjaznymi i bez barier. Ważne jest jednak, by projektować te systemy z uwzględnieniem bezpieczeństwa (np. prywatności danych medycznych zbieranych przez wearables) oraz by edukować użytkowników w korzystaniu z nich – tak, aby technologia była narzędziem wzmacniającym samodzielność, a nie kolejnym skomplikowanym gadżetem.
Technologie głosowe i interfejsy mowy
Technologie głosowe odgrywają szczególną rolę w dostępności, ponieważ mowa jest najbardziej naturalnym sposobem komunikacji dla człowieka. Dzięki postępom w dziedzinie rozpoznawania mowy (ASR – Automatic Speech Recognition) oraz syntezy mowy (TTS – Text To Speech), interfejsy głosowe stają się codziennością i przynoszą korzyści wielu osobom z niepełnosprawnościami, zarówno w domu, jak i w szkole czy pracy.
Asystenci głosowi – tacy jak Siri, Google Assistant czy Amazon Alexa – to dziś popularne narzędzia, które pierwotnie projektowano z myślą o wygodzie, a okazały się zbawienne dla użytkowników z ograniczeniami ruchowymi czy wzrokowymi. Osoba niewidoma może zapytać asystenta głosowego o pogodę, odczytanie nowej wiadomości SMS czy uruchomienie wybranej aplikacji, bez potrzeby patrzenia na ekran. Z kolei osoba, która nie może posługiwać się rękami (np. wskutek choroby czy urazu), za pomocą głosu wykona czynności na smartfonie, które normalnie wymagałyby dotyku – np. napisze e-mail dyktując treść, zadzwoni do współpracownika wypowiadając jego nazwisko, albo poprosi o włączenie ulubionej muzyki, by się zrelaksować[7]. Co ważne, asystenci głosowi integrują się z ekosystemem IoT: ta sama komenda głosowa może włączyć światło, podać godzinę i odczytać plan dnia, co daje w pełni bezdotykową kontrolę nad otoczeniem osobom z paraliżem czterokończynowym. Wśród osób o ograniczonej mobilności nie bez powodu mówi się, że to właśnie technologia rozpoznawania mowy „dała im głos” – głos, którym mogą sterować światem cyfrowym[6].
Dyktowanie mowy na tekst jest równie przełomowe. W edukacji uczniowie z dysleksją lub innymi trudnościami w pisaniu mogą korzystać z funkcji zamiany mowy na tekst, aby tworzyć wypracowania mówiąc, zamiast pisać ręcznie czy na klawiaturze. Zmniejsza to frustrację i pozwala pokazać wiedzę bez barier technicznych. Wiele systemów (jak Microsoft Word czy Google Docs) ma wbudowaną opcję dyktowania, co czyni je przyjaznymi dla uczniów z niepełnosprawnościami. W miejscu pracy podobnie – pracownik, który np. stracił sprawność dłoni, może nadal wykonywać swoje obowiązki biurowe, dyktując raporty, e-maile czy kod programistyczny. Współczesna technologia osiągnęła już wysoki poziom precyzji rozpoznawania mowy, nawet w języku polskim, więc takie rozwiązania są praktycznie gotowe do użycia na szeroką skalę.
Dla osób niesłyszących i niedosłyszących rozwój technologii głosowych przyniósł automatyzację odwrotnego procesu – zamiany mowy na napisy. Jeszcze dekadę temu obecność napisów podczas rozmowy na żywo wydawała się futurystyczna, dziś zaś stała się dostępna w wielu aplikacjach. Wspomniana wcześniej aplikacja Ava czy funkcja Podpisy na żywo (Live Caption) w systemie Android potrafią na ekranie smartfona wyświetlać na bieżąco tekst tego, co mówi nasz rozmówca lub co słychać dookoła[33]. Dzięki temu osoba głucha może np. przeczytać wykład nauczyciela w czasie rzeczywistym, patrząc na telefon lub tablet, albo zrozumieć wypowiedzi kolegów podczas zebrania w pracy – bez tłumacza migowego. Również platformy do wideokonferencji, jak Zoom, Microsoft Teams czy Google Meet, mają wbudowane automatyczne transkrypcje mowy: w trakcie spotkania online każdy uczestnik może włączyć sobie napisy generowane na żywo przez AI. Chociaż algorytmy nie są jeszcze doskonałe, dokładność stale rośnie, a nawet 80-90% poprawnie rozpoznanych słów może czynić rozmowę zrozumiałą. To olbrzymi postęp w dostępności, który doceniają nie tylko osoby z wadą słuchu – napisy na spotkaniach okazały się pomocne także dla ludzi pracujących w hałaśliwym otoczeniu czy znających słabo język prelegenta.
Synteza mowy (TTS), czyli generowanie mowy z tekstu, to kolejny filar technologii głosowych, z którego korzystają m.in. osoby niewidome, słabowidzące i z trudnościami w przyswajaniu tekstu pisanego. Współczesne syntezatory (jak polski Ivona czy głosy wbudowane w systemy operacyjne) potrafią odczytywać tekst naturalnie brzmiącym głosem, co umożliwia „przesłuchanie” artykułu, książki czy wiadomości. Uczniowie mający problemy z czytaniem mogą skorzystać z TTS, by wysłuchać lektury szkolnej zamiast ją czytać – co często pozwala lepiej zrozumieć treść i nie wyklucza ich z dyskusji na lekcji. Pracownik, który np. doznał pogorszenia wzroku, może w ten sposób przyswajać dokumenty firmowe. Co więcej, dostępne są zaawansowane rozwiązania, gdzie AI czyta tekst z odpowiednią intonacją i pauzami, a nawet tłumaczy skróty czy symbole na słowa (ważne np. przy odczycie formuł matematycznych niewidomemu matematykowi).
Technologie głosowe mają też bardziej specjalistyczne zastosowania. Osoby, które utraciły zdolność mówienia (np. w wyniku choroby neurologicznej jak SLA/ALS), mogą skorzystać z urządzeń generujących mowę na podstawie wpisywanego tekstu – tak jak robił to Stephen Hawking. Dziś idziemy krok dalej: istnieją projekty „bankowania głosu”, gdzie osoba zanim straci mowę nagrywa próbki własnego głosu, a potem syntezator mowy używa jej głosu do czytania wypowiedzi. Dzięki temu komunikator osoby niemówiącej nie brzmi syntetycznie, lecz oddaje jej unikalny głos i intonację. Takie rozwiązania wzmacniają poczucie tożsamości i są bardziej naturalne w interakcji z otoczeniem.
Warto zauważyć, że interfejsy głosowe są również istotnym elementem projektowania uniwersalnego – choć powstały głównie z myślą o wygodzie (np. w samochodach, by móc wydawać polecenia bez odrywania rąk od kierownicy), to okazały się zbawienne dla wielu użytkowników z niepełnosprawnościami. Dlatego twórcy stron internetowych i aplikacji powinni dbać, by ich produkty były kompatybilne z obsługą głosową[7]. Przykładowo, serwis internetowy powinien mieć dobrze opisane przyciski i linki, aby asystent głosowy mógł je jednoznacznie zidentyfikować i aktywować na żądanie użytkownika (tzw. voice control). Podobnie, systemy telefoniczne IVR powinny uwzględniać osoby z wadami wymowy czy obcym akcentem, by rozpoznawanie mowy działało dla nich poprawnie.
Podsumowując, technologie głosowe – od asystentów po syntezatory – czynią interakcję z technologią bardziej naturalną i dostępną. Dla wielu osób z niepełnosprawnościami są pomostem do cyfrowego świata: dają samodzielność w wykonywaniu czynności, pozwalają komunikować się bez barier i usprawniają naukę oraz pracę. Jak pokazują badania i codzienne doświadczenia, interfejs głosowy bywa najszybszym sposobem obsługi urządzeń (wystarczy powiedzieć, zamiast klikać), co sprawia, że jest chętnie używany także przez osoby w pełni sprawne. W ten sposób technologie głosowe wpisują się w ideę „dostępności dla każdego”.
Nowoczesne technologie wspomagające (assistive technology)
Oprócz wielkich trendów technologicznych, istnieje cała gama specjalistycznych urządzeń i oprogramowania wspomagającego, które zostały stworzone z myślą o osobach z niepełnosprawnościami. Często to właśnie one stanowią pierwszą linię wsparcia, zapewniając podstawowy dostęp do edukacji, pracy i życia codziennego osobom z różnymi ograniczeniami. Wiele z tych technologii rozwija się dziś niezwykle dynamicznie, czerpiąc z osiągnięć AI, IoT czy miniaturyzacji elektroniki.
Kluczowym narzędziem dla osób niewidomych są czytniki ekranu. To programy komputerowe (np. JAWS, NVDA czy wbudowany w systemy mobilne VoiceOver/TalkBack), które analizują zawartość wyświetlaną na ekranie i przekładają ją na mowę syntetyczną lub alfabet Braille’a. Dzięki czytnikom ekranu osoby niewidome mogą obsługiwać komputer, smartfon czy internet – o ile oczywiście treści zostały poprawnie zaprojektowane (zgodnie ze standardami dostępności). Współczesne czytniki wykorzystują elementy sztucznej inteligencji, np. do inteligentnego opisywania nieopisanych obrazków lub rozpoznawania układu strony, co czyni je coraz bardziej niezawodnymi. Uzupełnieniem są brajlowskie linijki dotykowe – podłączane do komputera urządzenia, które wyświetlają tekst w brajlu przy pomocy wysuwających się punktów. Pozwala to osobie znającej brajla czytać e-maile, dokumenty czy nawet kod programistyczny bezpośrednio w formie brajlowskiej. Co ważne, nowe modele linijek brajlowskich stają się tańsze i lżejsze, a także integrują dodatkowe funkcje (jak notatnik czy zegar), co zwiększa ich użyteczność.
Osoby słabowidzące korzystają z kolei z różnego rodzaju lup elektronicznych i oprogramowania powiększającego. Lupy cyfrowe to przenośne urządzenia z kamerą i ekranem, które pozwalają powiększyć oglądany tekst lub obraz nawet kilkadziesiąt razy, z poprawą kontrastu i opcją zmiany kolorystyki (np. żółty tekst na czarnym tle, co bywa czytelniejsze przy niektórych wadach wzroku). W świecie cyfrowym niemal każdy system operacyjny ma funkcję zoom, a przeglądarki umożliwiają powiększanie stron internetowych – to proste udogodnienia, które decydują o dostępności np. e-podręczników dla ucznia niedowidzącego. Dodatkowo, technologie AR mogą wspierać osoby słabowidzące: gogle takie jak Apple Vision Pro mają wbudowany VoiceOver i możliwość zlokalizowania dźwięku dochodzącego z określonej części przestrzeni[34], co oznacza, że użytkownik słabowidzący może usłyszeć, gdzie dokładnie w wirtualnej przestrzeni znajduje się interesujący go element interfejsu. Choć to dopiero pierwsze kroki, pokazują one kierunek – nawet VR/AR będzie obsługiwalne przez osoby z dysfunkcją wzroku dzięki integracji tradycyjnych technologii wspomagających.
Dla osób z niepełnosprawnościami ruchowymi istnieje wiele alternatywnych metod wprowadzania danych i sterowania urządzeniami. Przykładem są przyciski pneumatyczne typu sip-and-puff – użytkownik steruje komputerem, wdmuchując lub zasysając powietrze przez rurkę, a czujnik rozpoznaje te sygnały jako kliknięcia myszą czy naciśnięcia klawiszy. Osoby, które mogą poruszać tylko głową, korzystają z nawigacji głowowej – kamera śledzi ruchy głowy i przesuwa za nią kursor na ekranie. Dostępne są również wirtualne klawiatury ekranowe ze specjalnymi wierzchołkami do śledzenia wzroku: technologia eye-tracking pozwala sterować kursorem i wpisywać tekst samym ruchem oczu. To ogromne udogodnienie dla osób sparaliżowanych od szyi w dół – mogą one komunikować się i pracować przy komputerze, patrząc na kolejne litery na ekranie. Obecnie precyzja eye-trackingu jest tak duża, że możliwe jest nawet granie w gry komputerowe za pomocą wzroku. Kolejnym szczeblem tej drabiny innowacji są interfejsy mózg–komputer (BCI), które w przyszłości mogą zrewolucjonizować dostępność. Firmy takie jak Neuralink testują implanty pozwalające na sterowanie urządzeniami za pomocą samych myśli – to wciąż technologia eksperymentalna, ale potencjalnie przełomowa dla osób w najcięższym stanie (np. całkowicie sparaliżowanych)[35]. Wyobraźmy sobie osobę z zespołem locked-in, która jedynie myśląc, będzie w stanie napisać wiadomość czy obsłużyć wózek inwalidzki – naukowcy intensywnie pracują, by to umożliwić.
Komunikacja alternatywna i wspomagająca (AAC) to kolejny istotny obszar technologii wspomagających. Dotyczy osób niemówiących lub mających trudności z mową – np. z dziecięcym porażeniem mózgowym, autyzmem czy po udarach. Tradycyjne metody AAC to tablice obrazków czy książki do pokazywania symboli, ale dziś do gry wchodzą tablety i aplikacje. Specjalne programy AAC wyświetlają zestawy symboli/piktogramów lub klawiaturę, a użytkownik wybiera (dotykiem, wzrokiem lub przyciskiem) odpowiednie pozycje – następnie urządzenie odczytuje na głos zbudowane zdanie. Osoby posługujące się takim komunikatorem mogą przekazać wszystko, od podstawowych potrzeb („pić”, „zimno mi”), po złożone wypowiedzi. Co ważne, nowoczesne aplikacje uczą się słownictwa użytkownika i pozwalają na pewną personalizację wypowiedzi. Dla dzieci dostępne są nawet gry uczące posługiwania się komunikatorem, tak by maluch opanował zasadę budowania wypowiedzi. Tablety z oprogramowaniem do komunikacji AAC stały się cennym narzędziem edukacyjnym – umożliwiają dzieciom niemówiącym brać aktywny udział w lekcji, odpowiadać na pytania nauczyciela, a nawet żartować z rówieśnikami, co wcześniej bywało niemożliwe[36]. Sprzyja to integracji i rozwojowi kompetencji społecznych takich uczniów.
Protetyka i urządzenia wspomagające mobilność również przeżywają innowacyjny rozkwit. Elektroniczne wózki inwalidzkie stają się coraz bardziej zaawansowane – mają np. tryby autonomiczne (same utrzymują tor jazdy lub omijają przeszkody), sterowanie głosowe czy możliwość podniesienia siedziska, by użytkownik mógł dosięgnąć wyżej położonych przedmiotów[37]. Pojawiają się wózki terenowe, pozwalające na wyprawę po plaży czy lesie, co dawniej było poza zasięgiem. Protezy bioniczne natomiast zbliżają się funkcjonalnością do prawdziwych kończyn – reagują na sygnały mięśniowe lub nerwowe użytkownika, umożliwiając precyzyjne ruchy palcami czy chodzenie w dość naturalny sposób[37]. Dzięki wykorzystaniu sztucznej inteligencji protezy te potrafią uczyć się stylu chodzenia użytkownika i adaptować, by zapewnić mu maksymalną wygodę[38]. Dla osób po amputacjach rąk dostępne są mechaniczne dłonie zdolne chwytać delikatne przedmioty (np. jajko) bez rozbicia go – co jeszcze kilka lat temu stanowiło duży problem techniczny. Ponadto, coraz częściej w procesie tworzenia protez czy ortez korzysta się z druku 3D, co umożliwia pełną personalizację urządzenia do anatomii i potrzeb użytkownika[39]. Protezy drukowane w 3D mogą być lżejsze, tańsze i kolorowe (co doceniają zwłaszcza dzieci). Technologia druku 3D bywa także używana do produkcji innych pomocy – np. dotykowych map dla niewidomych uczniów (mapa wypukła przedstawiająca teren) czy spersonalizowanych uchwytów i przełączników dla osób o nietypowej mobilności dłoni. Ta demokratyzacja produkcji sprzętu wspomagającego oznacza, że potrzebne rozwiązania można tworzyć szybciej i lokalnie, bez czekania na masową produkcję.
Na pograniczu technologii wspomagających i mainstreamu znajdują się także różne innowacje ułatwiające rehabilitację i terapię. Przykładowo, roboty rehabilitacyjne pomagają osobom po udarach powtarzać ćwiczenia ruchowe – motywują do wysiłku przez element gry (np. zbieranie punktów za wykonane ruchy), a czujniki śledzą postępy i dostosowują poziom trudności. Są też roboty asystujące w codziennym życiu, jak choćby mały robo-pies Aibo ułatwiający aktywizację osób starszych, czy wspomniany już japoński robot-foka Paro, który działa terapeutycznie – reaguje na głaskanie i wydaje dźwięki, przynosząc ukojenie osobom w depresji lub z demencją[40]. Choć Paro to bardziej urządzenie terapeutyczne niż pomoc w pracy czy nauce, pokazuje szerszy obraz: technologia może także wspierać dobrostan psychiczny osób z niepełnosprawnościami, redukując stres i poczucie osamotnienia.
Wszystkie te nowoczesne technologie wspomagające razem wzięte mają jeden cel: zwiększyć niezależność i możliwości osób z niepełnosprawnościami. Co istotne, coraz częściej łączą się one z omawianymi wcześniej głównymi nurtami technologicznymi. Widzimy konwergencję: asystent głosowy (AI) steruje wózkiem elektrycznym (urz. wspomagające) przez moduł IoT; aplikacja AR wyświetla obraz z kamery wózka i wykrywa przeszkody, podpowiadając trasę; proteza ręki wyposażona jest w sztuczną inteligencję do poprawy precyzji ruchu; a komunikator AAC działa w chmurze, umożliwiając terapeutom podgląd, jak dziecko z niego korzysta, i zdalną konfigurację. Taki ekosystem dostępności stale się rozwija. Dzięki niemu osoby z niepełnosprawnościami mogą uczyć się, pracować, komunikować i realizować swoje pasje w sposób, który jeszcze kilkanaście lat temu nie był możliwy.
Projektowanie uniwersalne i inkluzywne rozwiązania cyfrowe
Najwspanialsze nawet technologie nie przyniosą pełni korzyści, jeśli nie będą projektowane z myślą o dostępności od samego początku. Dlatego kluczową ideą, którą dziś kierują się liderzy innowacji, jest projektowanie uniwersalne (ang. universal design) – tworzenie produktów i środowisk w taki sposób, by były użyteczne dla wszystkich ludzi w jak największym stopniu, bez potrzeby adaptacji lub specjalistycznych przeróbek[41]. Zasada ta, wywodząca się pierwotnie z architektury (np. budynek od razu wyposażony w rampy i windy, zamiast dokładanych później udogodnień), przenosi się obecnie na grunt cyfrowy i edukacyjno-zawodowy.
W praktyce uniwersalne projektowanie cyfrowe oznacza m.in. trzymanie się standardów dostępności, takich jak WCAG 2.1 przy tworzeniu stron WWW, aplikacji i dokumentów. Oznacza to np. zapewnienie tekstów alternatywnych dla obrazków (by czytnik ekranu mógł je odczytać), nawigacji klawiaturowej (by dało się obsługiwać interfejs bez myszy czy ekranu dotykowego) czy odpowiedniego kontrastu kolorów (dla osób słabowidzących). Tworząc nowy e-podręcznik, wydawca powinien od razu zadbać, by był on elastyczny: możliwy do odczytania przez syntezator mowy, dostępny w różnych formatach (HTML, EPUB, audiobook), wzbogacony o multimedia z napisami i audiodeskrypcją. To podejście „od początku dla wszystkich” jest bardziej efektywne i tańsze niż późniejsze dostosowywanie treści do potrzeb poszczególnych grup.
Inkluzywne projektowanie idzie o krok dalej, kładąc nacisk na włączanie użytkowników z niepełnosprawnościami w proces tworzenia technologii. Chodzi o to, by osoby te nie tylko były odbiorcami gotowych rozwiązań, ale współtworzyły je jako testerzy, konsultanci, a nawet projektanci. Ich doświadczenie jest bezcenne – dzięki temu można uniknąć błędów i stworzyć produkt faktycznie odpowiadający na realne potrzeby. Organizacje pozarządowe zajmujące się dostępnością, jak Fundacja Challenge Europe czy Fundacja Integracja, często podkreślają: „Nic o nas bez nas”. Przykładem może być tu rozwój aplikacji dla osób niewidomych – jeśli od wczesnej fazy testów biorą w nich udział użytkownicy niewidomi, wskażą oni problemy niewidoczne dla reszty zespołu (np. nieintuicyjne opisy elementów) i zaproponują rozwiązania. Tylko taki proces gwarantuje, że powstanie rozwiązanie naprawdę dostępne i wygodne, a nie teoretycznie spełniające normy[9].
Projektowanie uniwersalne to także zrozumienie, że technologie asystujące powinny być traktowane jako narzędzie, a nie cel sam w sobie[42]. Celem jest pełna równość szans – narzędzia są środkiem do jego realizacji. Dlatego firmy technologiczne coraz częściej angażują się w inicjatywy i partnerstwa na rzecz dostępności. Wspomniany wcześniej rządowy program Dostępność Plus zachęca przedsiębiorców do wdrażania rozwiązań ułatwiających samodzielne funkcjonowanie osobom ze szczególnymi potrzebami[43]. W skali międzynarodowej wchodzą w życie regulacje prawne, takie jak Europejski Akt o Dostępności (EAA), które obligują m.in. dostawców usług cyfrowych, producentów terminali płatniczych, bankomatów, e-booków czy e-commerce do zapewnienia dostępności ich produktów dla osób z niepełnosprawnościami. To sprawia, że dostępność staje się standardem jakości, a nie dodatkiem.
Należy podkreślić, że dostępne rozwiązania służą wszystkim. Klasycznym przykładem jest tu napisy w filmach – konieczne dla osób niesłyszących, ale korzystają z nich chętnie również osoby słyszące (oglądając film w hałasie lub chcąc zrozumieć dialogi w obcym języku). Podobnie rampy przy wejściach do budynków ułatwiają życie nie tylko użytkownikom wózków, ale i rodzicom z wózkami dziecięcymi czy dostawcom towarów na wózkach transportowych. W świecie cyfrowym, dobrze zaprojektowana strona internetowa, czytelna i intuicyjna dla osoby z niepełnosprawnością poznawczą, będzie łatwiejsza w obsłudze także dla przeciętnego użytkownika – szybciej znajdzie on potrzebne informacje, co podnosi ogólną użyteczność (UX). Personalizacja interfejsu, wprowadzona z myślą o np. osobach z epilepsją (możliwość wyłączenia animacji), cieszy też tych, którzy po prostu nie lubią ruchomych elementów na stronach[44][45]. Obsługa głosowa zaprojektowana dla osób z niedowładem rąk staje się wygodną alternatywą dla wszystkich w sytuacjach, gdy ręce są zajęte. Te przykłady wpisują się w nurt tzw. projektowania dla ekstremalnych przypadków – jeżeli system działa dobrze dla użytkownika z najpoważniejszymi ograniczeniami, to będzie działał świetnie dla reszty.
Projektowanie uniwersalne wymaga holistycznego podejścia i często – innowacyjnego myślenia. Pojawiają się nowatorskie koncepcje, jak empathetic design (projektowanie empatyczne), gdzie twórcy najpierw sami próbują wczuć się w sytuację osoby z niepełnosprawnością (np. zakładają gogle symulujące różne wady wzroku, zatykają uszy na dzień, siadają na wózku), by lepiej zrozumieć jej perspektywę. Firmy technologiczne zaczynają zatrudniać konsultantów ds. dostępności i tworzyć zespoły inclusive design. Coraz popularniejsze są hackathony technologiczne poświęcone wymyślaniu prototypów ułatwień dla osób z niepełnosprawnościami – angażują one zarówno programistów, jak i samych zainteresowanych. To wszystko sprawia, że dostępność nie jest już niszowym tematem, ale staje się integralną częścią rozwoju technologii.
Podsumowanie i perspektywy na przyszłość
Rozwój innowacji technologicznych wyraźnie wskazuje, że przyszłość może być bardziej dostępna i inkluzywna niż kiedykolwiek wcześniej. W ciągu ostatnich lat dokonano ogromnego postępu: wiele rozwiązań, które niedawno istniały tylko w laboratoriach, dziś trafia „pod strzechy” – do szkół, biur i domów osób z niepełnosprawnościami. Sztuczna inteligencja otworzyła nowe drzwi: automatyczne tłumaczenia, opisy i asystenci stały się dostępne na zwykłym smartfonie, co odmieniło codzienność tysięcy ludzi[4]. Rzeczywistość wirtualna i rozszerzona pokazały, że świat cyfrowy można kształtować tak, by każdy mógł w nim znaleźć przestrzeń dla siebie – czy to ucząc się w wirtualnej klasie bez barier architektonicznych, czy pracując zdalnie poprzez awatara VR/robota. Internet Rzeczy sprawił, że otoczenie fizyczne zaczęło słuchać potrzeb użytkownika – dom potrafi sam zadbać o komfort i bezpieczeństwo, a inteligentne miasta zaczynają uwzględniać różnorodność swoich mieszkańców w projektowaniu infrastruktury. Technologie głosowe zhumanizowały interakcję z maszynami, pozwalając nam rozmawiać z nimi jak z pomocnymi asystentami – co dla wielu osób z niepełnosprawnościami bywa przełomowym doświadczeniem, bo technologia staje się bardziej „przyjazna”. Z kolei urządzenia wspomagające zyskały nowe moce dzięki miniaturyzacji i integracji – współczesna proteza, tablet komunikacyjny czy wózek inteligentny to małe cuda techniki, które jeszcze niedawno należały do sfery science-fiction.
Patrząc w przyszłość, możemy spodziewać się kontynuacji tych trendów. Sztuczna inteligencja będzie coraz lepiej rozumiała kontekst i intencje użytkowników – być może doczekamy się osobistych asystentów AI, które poznają preferencje danego ucznia czy pracownika z niepełnosprawnością i proaktywnie pomogą mu w zadaniach (np. przypomną, żeby zrobić przerwę dla zdrowia, podpowiedzą łatwiejszą drogę dojścia na spotkanie bez schodów, zasugerują trudniejsze ćwiczenie kiedy wykryją, że obecne są zbyt łatwe). Rzeczywistość mieszana (MR), łącząca elementy AR i VR, może umożliwić jeszcze bardziej płynne przejścia między światem cyfrowym a fizycznym – co oznacza np. że osoba pracująca zdalnie w goglach MR będzie mogła jednocześnie obserwować realne otoczenie i nakładać na nie elementy wirtualne integrujące ją z zespołem. IoT nowej generacji prawdopodobnie przeniesie inteligencję na poziom całych społeczności: szkoły i biura będą się komunikować z urządzeniami osobistymi pracowników/uczniów, by dostosować przestrzeń do ich potrzeb (np. gdy do sali wejdzie osoba na wózku, stół konferencyjny automatycznie się obniży). Interfejsy multimodalne (łączące dotyk, głos, gesty, wzrok) staną się standardem – już nie będziemy mówić o interfejsach specjalnych dla osób z niepełnosprawnościami, bo każdy będzie mógł używać dowolnej kombinacji sposobów interakcji, jaka mu pasuje. Ktoś może wybrać sterowanie oczami i głosem jednocześnie, inny – myślami i dotykiem; systemy będą do tego przygotowane.
Na horyzoncie są też nowe obszary innowacji, które mogą przynieść przełom. Technologie ubieralne (wearables) coraz bardziej zlewają się z naszym ciałem – pojawiają się np. inteligentne soczewki kontaktowe rozszerzające rzeczywistość dla osób słabowidzących, czy opaski na kręgosłup dające niewidomym zmysł echolokacji poprzez wibracje informujące o przeszkodach. Neurotechnologie wspomniane wcześniej mogą za kilkanaście lat pozwolić sterować komputerem z precyzją myśli, bez żadnego widocznego interfejsu – co byłoby spełnieniem marzeń wielu osób uwięzionych we własnym ciele. Druk 3D i 4D może wytwarzać nie tylko protezy, ale i spersonalizowane urządzenia wspomagające naukę (np. dotykowe modele pojęć dla uczniów z niepełnosprawnością intelektualną, tworzone „na poczekaniu” pod konkretne potrzeby). Sztuczna inteligencja emocjonalna (rozpoznająca stan emocjonalny użytkownika) może pomóc np. dostosować tempo lekcji, gdy wyczuje zmęczenie ucznia z ADHD, lub przerwać ćwiczenie rehabilitacyjne, gdy osoba zaczyna odczuwać ból.
Należy jednak pamiętać, że technologia to nie panaceum. Aby obietnica przyszłości bez barier się spełniła, konieczne jest równoległe działanie na polu świadomości i edukacji. Nauczyciele, pracodawcy, projektanci – wszyscy muszą znać możliwości oferowane przez te innowacje i umieć je wykorzystać. Równie ważne jest ciągłe zaangażowanie osób z niepełnosprawnościami w rozwój tych rozwiązań, by były one naprawdę trafione. Kwestie przystępności cenowej też będą wyzwaniem – np. nowoczesne protezy czy urządzenia elektroniczne muszą być refundowane lub produkowane taniej, by trafiły do szerokiego grona potrzebujących, a nie tylko najzamożniejszych.
Reasumując, żyjemy w czasach, w których technologia może zapewnić osobom z niepełnosprawnościami bezprecedensowy poziom niezależności i integracji. Już teraz wiele barier znika – komputery widzą i słyszą za tych, którzy nie mogą, mówią do tych, którzy nie słyszą, i słuchają tych, którzy nie mogą mówić. Kluczowe jest, aby podążać dalej tą drogą w duchu uniwersalnego projektowania i empatii. Jeśli tak się stanie, przyszłość edukacji i pracy będzie środowiskiem, w którym różnorodność jest normą, a technologia dyskretnie dba o to, by każdy mógł w pełni realizować swój potencjał. Jak ujął to jeden z ekspertów: AR, VR, AI, IoT – te wszystkie skróty nabiorą prawdziwego znaczenia dopiero wtedy, gdy będą oznaczać dostępność (Accessibility) i inkluzję dla wszystkich. Dzięki wysiłkom inżynierów, nauczycieli, pracodawców i samych osób z niepełnosprawnościami – jesteśmy na dobrej drodze, by tak właśnie się stało.
Źródła:
- Fundacja Challenge Europe – Sztuczna inteligencja wspierająca osoby z niepełnosprawnościami – potencjał, który już działa[1][4][8][9]
- Women in Tech Day – Technologie wspomagające osoby niepełnosprawne: od aplikacji po urządzenia adaptacyjne[5][25][46]
- Nasze Sprawy – Technologia AR/VR wspiera pracowników z niepełnosprawnością[17][15][18]
- ITIF – Current and Potential Uses of AR/VR for Equity and Inclusion[11][20][24]
- Cogniteq – IoT for People with Disabilities: Enhancing Lives with Tech[26][27]
- Delante – Projektowanie dostępnych interfejsów w dobie Web 5.0[7][35][47][48]
- Stowarzyszenie Level Up – Roboty dla osób niepełnosprawnych[30][28][29]
- Wikipedia – Projektowanie uniwersalne[41]
[1] [2] [3] [4] [8] [9] [42] Sztuczna inteligencja wspierająca osoby z niepełnosprawnościami – potencjał, który już działa – Fundacja Challenge Europe
[5] [25] [33] [36] [37] [38] [39] [46] Technologie wspomagające osoby niepełnosprawne: od aplikacji po urządzenia adaptacyjne
[6] Jak sztuczna inteligencja wspiera osoby z niepełnosprawnościami?
https://sektor3-0.pl/blog/jak-sztuczna-inteligencja-wspiera-osoby-z-niepelnosprawnosciami/
[7] [35] [44] [45] [47] [48] Europejski Akt o Dostępności a UX – jak Web 5.0 zmienia projektowanie interfejsów? | Agencja SEO / SEM: Delante
[10] [11] [12] [13] [14] [20] [21] [22] [23] [24] Current and Potential Uses of AR/VR for Equity and Inclusion | ITIF
https://itif.org/publications/2021/06/01/current-and-potential-uses-arvr-equity-and-inclusion/
[15] [16] [17] [18] [19] [43] Technologia AR/VR wspiera pracowników z niepełnosprawnością – Magazyn Informacyjny Osób Niepełnosprawnych „Nasze Sprawy”
https://naszesprawy.eu/praca/technologia-ar-vr-wspiera-pracownikow-z-niepelnosprawnoscia/
[26] [27] How IoT Is Helping People with Disabilities | Cogniteq
https://www.cogniteq.com/blog/iot-people-disabilities-how-technology-makes-their-lives-better
[28] [29] [30] [31] [40] Roboty dla osób niepełnosprawnych – Stowarzyszenie LEVEL UP
https://levelupngo.com/roboty-dla-osob-niepelnosprawnych/
[32] Osoby z niepełnosprawnościami mają moc. Pozwólmy im ją pokazać także w pracy | Sektor 3.0
[34] Okiem niewidomego. Rozszerzona rzeczywistość z Apple Vision Pro – Kinaole
https://kinaole.co/okiem-niewidomego-rozszerzona-rzeczywistosc-z-apple-vision-pro/
[41] Projektowanie uniwersalne – Wikipedia, wolna encyklopedia
