Dostępność treści multimedialnych (audio i wideo) w internecie i aplikacjach mobilnych
Wytyczne WCAG 2.1/2.2 dotyczące audio i wideo
W najnowszych Wytycznych dotyczących dostępności treści internetowych (WCAG) 2.1 i 2.2 szczególny nacisk położono na zapewnienie równoczesnego dostępu do treści audio-wizualnych dla osób z niepełnosprawnościami. Wytyczne te zawierają cały rozdział „Media zmienne w czasie” (guideline 1.2), opisujący wymogi dla nagrań dźwiękowych i wideo[1]. W praktyce oznacza to konieczność przygotowania alternatywnych form przekazu dla wszelkich treści multimedialnych, tak aby były one postrzegalne także dla osób, które nie mogą ich oglądać lub słuchać w standardowy sposób. Przykładowo, WCAG wymaga dostarczenia transkrypcji tekstowej dla materiałów audio (np. podcastów) oraz napisów dla niesłyszących (tzw. napisy rozszerzone) do materiałów wideo[2]. Napisy takie powinny być dostępne dla treści nagranych (offline), a nawet – na wyższych poziomach dostępności – dla treści transmitowanych na żywo[3]. Ponadto, dla materiałów wideo zawierających istotne informacje wizualne, które nie wynikają z samej ścieżki dźwiękowej, wymagana jest audiodeskrypcja lub inna forma opisu tych elementów[4]. Standard WCAG przewiduje także dodatkowe zalecenia na najwyższym poziomie AAA, m.in. zapewnienie tłumaczenia na język migowy ważnych nagrań oraz tzw. rozszerzonej audiodeskrypcji (czyli pauzowania obrazu, by zmieścić dodatkowy opis w przypadku bardzo dynamicznych scen)[5]. Warto podkreślić, że WCAG 2.2 nie wprowadził rewolucyjnych zmian w tym obszarze – kontynuuje on podejście znane z WCAG 2.1, rozszerzając je o kilka nowych kryteriów (głównie związanych z dostępnością mobilną i kognitywną), lecz zasady dotyczące multimediów pozostają w dużej mierze takie same. Podsumowując, zgodność z WCAG 2.1/2.2 na poziomie AA oznacza, że wszystkie treści audio i wideo muszą mieć zapewnione odpowiednie alternatywy: napisy, transkrypcje lub audiodeskrypcję, w zależności od rodzaju materiału[4][2]. Dzięki temu osoby niesłyszące lub niedosłyszące mogą zapoznać się z warstwą dźwiękową poprzez tekst, a osoby niewidome lub słabowidzące – z warstwą wizualną poprzez dodatkowy opis słowny.
Dobre praktyki dostępności audio i wideo
Aby spełnić powyższe wytyczne w praktyce, należy wdrożyć kilka sprawdzonych rozwiązań. Poniżej omówiono kluczowe dobre praktyki w zakresie zapewniania dostępności nagrań audio-wizualnych:
Napisy dla niesłyszących (napisy rozszerzone)
Napisy rozszerzone (ang. captions) to wyświetlany na ekranie tekst zawierający transkrypcję dialogów oraz opis istotnych dźwięków w filmie[6]. Takie napisy pozwalają osobom głuchym lub mającym problemy ze słuchem zrozumieć, co mówią bohaterowie oraz jakie ważne zdarzenia dźwiękowe towarzyszą obrazowi. W odróżnieniu od zwykłych napisów (stosowanych np. do tłumaczenia filmów na inne języki), napisy rozszerzone uwzględniają wszelkie sygnały audio istotne dla zrozumienia treści – na przykład opisy muzyki w tle, śmiechu, wystrzałów, telefonów etc.[7]. Dzięki temu widz, który nie słyszy, otrzymuje pełny kontekst. Przykładowo, napis rozszerzony może wyglądać tak: „[telefon dzwoni] Halo? – powiedział Jan”. Tworząc napisy, należy dbać o ich czytelność (odpowiednia wielkość czcionki, kontrast) oraz synchronizację z obrazem, aby pojawiały się równocześnie z dźwiękiem, który opisują.
Dodawanie napisów do materiału wideo może odbywać się na kilka sposobów. Najbardziej precyzyjną metodą jest ręczne przygotowanie napisów (np. w formacie .srt), co jednak bywa czasochłonne przy dłuższych nagraniach. Pomocne mogą być narzędzia wspomagające – obecnie istnieje wiele serwisów i aplikacji generujących automatyczne napisy na podstawie mowy (np. funkcja auto-napisy na YouTube). Należy jednak pamiętać, że automatycznie wygenerowane napisy wymagają korekty – poprawienia błędów rozpoznawania mowy oraz dodania opisów dźwięków[6]. W przypadku korzystania z własnego odtwarzacza wideo na stronie internetowej, trzeba zapewnić możliwość włączenia/wyłączenia napisów – najczęściej realizuje się to poprzez dołączenie pliku .vtt/.srt i odpowiedniego przycisku w kontrolkach odtwarzacza. Jeśli zaś wideo jest osadzane z platform zewnętrznych (YouTube, Vimeo itp.), warto włączyć napisy bezpośrednio na tych platformach. Dobrą praktyką jest także udostępnienie pliku z napisami do pobrania (dla osób, które wolą np. przeczytać cały dialog osobno)[8]. Warto wspomnieć, że napisy są przydatne nie tylko dla osób z wadą słuchu – korzystają z nich chętnie także osoby oglądające filmy w hałaśliwym otoczeniu lub, przeciwnie, w miejscu gdzie nie chcą włączać dźwięku (np. w komunikacji miejskiej), a także osoby uczące się języka obcego czy nawet wyszukiwarki (tekst napisów umożliwia indeksowanie treści filmu)[9].
Transkrypcje tekstowe audio i wideo
Transkrypcja to pełny tekstowy zapis materiału audio lub wideo – obejmuje dosłowne dialogi, narrację oraz opisy istotnych dźwięków pojawiających się w nagraniu[10]. Transkrypcje są absolutnie kluczowe dla materiałów audio bez obrazu (np. audycje radiowe, podcasty) – stanowią wówczas jedyną formę przekazania treści osobom niesłyszącym. Zgodnie z WCAG każde nagranie audio powinno mieć taką alternatywę tekstową[4]. Transkrypcje są też bardzo przydatne dla osób słyszących, które np. wolą czytać niż słuchać (choćby z powodów językowych lub kognitywnych). Dobrze przygotowana transkrypcja powinna zawierać nie tylko same słowa, ale również identyfikować kto je wypowiada (jeśli to dialog kilku osób) oraz zaznaczać inne istotne sygnały dźwiękowe (np. „[aplauz]”, „[muzyka w tle]” itp.), podobnie jak napisy rozszerzone. Technicznie transkrypcję można udostępnić na stronie w formie dodatkowego tekstu – np. w postaci rozwijanej sekcji pod odtwarzaczem (tak, by nie rozpraszała odbiorców filmu, ale by była łatwo dostępna dla potrzebujących)[11]. Można także oferować ją jako osobny plik (HTML, PDF, DOC) do pobrania. Istotne, by informacja o dostępności transkrypcji była dobrze widoczna przy materiale multimedialnym. Transkrypcję można sporządzić ręcznie, odsłuchując nagranie i spisując treść, lub skorzystać z narzędzi automatycznego rozpoznawania mowy – te drugie przyspieszają pracę, lecz wymagają późniejszego sprawdzenia i edycji tekstu.
W przypadku materiałów wideo transkrypcja opisowa (zawierająca zarówno dialogi, jak i opisy wizualne scen) może pełnić rolę alternatywy dla osób jednocześnie niesłyszących i niewidomych (tzw. użytkownicy Deaf-Blind). Taka transkrypcja opisuje nie tylko co zostało powiedziane, ale też co pokazano – stając się połączeniem napisów i audiodeskrypcji w formie tekstu[12]. Jest to rozwiązanie stosowane rzadziej, ale bywa wymagane w specjalistycznych sytuacjach (np. udostępnianie filmów edukacyjnych dla osób głuchoniewidomych). Na co dzień jednak osobne transkrypcje stosuje się głównie dla treści audio lub jako uzupełnienie napisów dla tych, którzy chcą szybko przekartkować treść nagrania.
Audiodeskrypcja (opis audio do materiałów wizualnych)
Audiodeskrypcja (AD) to werbalny opis treści wizualnych zawartych w materiale wideo, przeznaczony dla osób niewidomych lub niedowidzących[13]. Audiodeskrypcja dodawana jest zwykle jako dodatkowa ścieżka dźwiękowa – narrator w przerwach między dialogami opowiada, co dzieje się na ekranie, opisując elementy istotne dla zrozumienia akcji. Mogą to być informacje o scenerii, wyglądzie postaci, ich mowie ciała, mimice, kostiumach, akcjach, które wykonują, a które nie wynikają z samego dialogu[13]. Celem audiodeskrypcji jest zapewnienie osobom, które nie widzą obrazu, doświadczenia możliwie zbliżonego do tego, jakie ma osoba widząca. Dlatego opis powinien skupiać się na tych elementach, które są kluczowe dla fabuły czy przekazu (np. że postać wyciąga tajny dokument, że na ekranie pojawia się istotny napis, że ktoś nagle opuszcza pomieszczenie z określonym wyrazem twarzy, itp.). Nie opisuje się natomiast rzeczy oczywistych lub nieistotnych dla zrozumienia historii, aby nie zagłuszać narracji zbyt dużą ilością szczegółów[14].
Przygotowanie audiodeskrypcji wymaga pewnego kunsztu – trzeba zmieścić się w ciszy między dialogami i jednocześnie dobrać słowa tak, by oddać klimat sceny. W praktyce często zatrudnia się do tego profesjonalistów (specjalistyczne firmy lub lektorów przeszkolonych z AD). WCAG na poziomie AA wymaga, by wszystkie publikowane filmy zawierające istotną akcję wizualną miały zapewnioną audiodeskrypcję[4]. Warto dodać, że jeżeli wideo składa się wyłącznie z mówiącej osoby (tzw. „gadająca głowa”) lub prezentuje informacje już opisane w samej narracji, to osobna audiodeskrypcja może nie być potrzebna – wszystko jest już przekazane słowami. Natomiast w filmach fabularnych, reklamach, instruktażach itp., gdzie obraz niesie dodatkową treść, audiodeskrypcja bywa niezbędna, by osoba niewidoma w pełni zrozumiała przekaz.
Dodanie audiodeskrypcji może przybrać kilka form. Najlepiej planować ją od razu na etapie produkcji wideo, integrując opisy ze scenariuszem – np. prowadzący może wpleść w wypowiedź informacje typu „(pokazując wykres) Jak widać na ekranie, sprzedaż gwałtownie wzrosła…”, co czyni osobny opis zbędnym[15]. Jeśli jednak gotowy film wymaga audiodeskrypcji post factum, najczęściej tworzy się drugą wersję filmu lub drugą ścieżkę audio. Druga wersja filmu to np. wariant z dogranym narratorem opisującym sceny (czasem kosztem przycięcia/dopauzowania oryginalnego obrazu, by dać czas na opis)[16]. Alternatywnie, nowoczesne odtwarzacze umożliwiają dołączenie dodatkowej ścieżki audio z opisem – użytkownik włącza wtedy audiodeskrypcję z poziomu ustawień odtwarzacza, podobnie jak wybór ścieżki językowej. Ta druga opcja jest bardziej elegancka, bo pozwala utrzymać jeden plik wideo. W obu przypadkach trzeba jednak zadbać, by użytkownik wiedział o istnieniu audiodeskrypcji i miał do niej łatwy dostęp (np. poprzez podpisany przycisk „AD” w odtwarzaczu). Tworzenie audiodeskrypcji zwykle wymaga pracy eksperta – opracowania tekstu opisów i nagrania lektorskiego[17]. Mniejsze organizacje, które nie mają na to zasobów, mogą ewentualnie przygotować opisową alternatywę tekstową zamiast nagrania audio (co spełnia minimalne wymogi WCAG na poziomie A[4]), jednak dla komfortu użytkowników docelowym rozwiązaniem powinna być pełna audiodeskrypcja dźwiękowa.
Tłumaczenie na język migowy (PJM)
Dla części użytkowników niesłyszących język polski (w formie pisanej) nie jest językiem natywnym – ich pierwszym językiem jest polski język migowy (PJM). Dlatego tłumaczenie ważnych treści na PJM bywa nieocenioną pomocą w zrozumieniu przekazu. WCAG traktuje dodawanie tłumacza migowego do nagrań jako kryterium na poziomie AAA (zalecane, choć nie obowiązkowe)[5], ale w praktyce warto rozważyć je wszędzie tam, gdzie grupa docelowa obejmuje osoby Głuche komunikujące się migowo. Przykładem mogą być materiały kierowane do społeczności Głuchych – np. komunikaty publiczne, ogłoszenia w urzędach czy ważne treści edukacyjne. Dodanie tłumaczenia PJM odbywa się najczęściej poprzez wstawienie do wideo dodatkowego okienka z tłumaczem (migającym na żywo lub nagranym wcześniej). W telewizji często widujemy to w dolnym rogu ekranu. W internecie można podobny efekt uzyskać np. poprzez nałożenie drugiego filmu (z tłumaczem) synchronizowanego z głównym, bądź poprzez interaktywne przełączniki.
W praktyce nie wszystkie nagrania muszą być tłumaczone na PJM – zależy to od potrzeb odbiorców. Jeśli jednak nasze materiały mają trafiać do szerokiej publiczności, warto zapytać społeczność Głuchych o preferencje. Dla wielu osób głuchych napisy będą wystarczające, ale dla innych przekaz migowy okaże się dużo bardziej naturalny i zrozumiały. Zapewnienie obu form (napisów i migowej) jest oczywiście idealne, choć kosztowne. Dobrym kompromisem bywa oferowanie tłumaczenia migowego na żądanie: np. niektóre strony urzędowe oznaczają artykuły ikonką dwóch dłoni i pozwalają jednym kliknięciem włączyć tłumaczenie PJM – po kliknięciu otwiera się okno z nagranym tłumaczem języka migowego, odtwarzanym równolegle z treścią[18]. Takie rozwiązanie zastosował m.in. Urząd Komunikacji Elektronicznej (UKE) – filmy z tłumaczami PJM są tam dostępne dla wybranych artykułów i można je odtworzyć na stronie lub zobaczyć w dedykowanej playliście na YouTube[19]. To pokazuje, że technicznie tłumaczenie na język migowy można udostępniać elastycznie, dostosowując do potrzeb: albo jako część obrazu (na stałe), albo jako opcjonalny element interfejsu strony/aplikacji.
Dostępne odtwarzacze multimedialne
Przykład odtwarzacza wideo z włączonymi napisami oraz widocznym interaktywnym transkryptem po prawej stronie.
Aby multimedia były dostępne, nie wystarczy sama obecność napisów czy audiodeskrypcji – sam odtwarzacz (player) musi pozwalać użytkownikom z niepełnosprawnościami na łatwą obsługę. Wiele domyślnych odtwarzaczy (np. w przeglądarkach) oferuje podstawowe funkcje, ale może brakować im udogodnień. Dobrą praktyką jest korzystanie z odtwarzaczy specjalnie zaprojektowanych pod kątem dostępności lub odpowiednie dostosowanie własnych. Taki dostępny odtwarzacz powinien być w pełni obsługiwalny klawiaturą – wszystkie przyciski (start/stop, głośność, przewijanie, włączanie napisów, wyboru ścieżki audio itp.) muszą dać się fokusem zaznaczyć i aktywować za pomocą klawiszy[20]. Ważne jest również wyróżnienie fokusu (np. obramowanie aktywnego przycisku) oraz opisanie etykiet dla czytników ekranu – każde kontrolki musi mieć odpowiednią nazwę lub opis, by użytkownik niewidomy wiedział, co oznacza dany przycisk[21]. Odtwarzacz powinien ponadto spełniać wymagania kontrastu kolorów – np. ikony i teksty na tle powinny być czytelne także dla osób słabowidzących[22].
Nowoczesne, dostępne odtwarzacze często oferują też dodatkowe udogodnienia: na przykład umożliwiają zmianę prędkości odtwarzania (co pomaga osobom z niektórymi dysfunkcjami poznawczymi nadążyć lub odwrotnie – szybko przebrnąć przez znany fragment) czy personalizację wyglądu napisów (wielkość czcionki, kolory tła napisów)[23]. Ciekawą funkcją bywa interaktywny transkrypt – wyświetlany obok wideo pełny tekst, który jest na bieżąco wyróżniany w miarę postępu filmu, a użytkownik może kliknąć dowolny fragment tekstu, żeby przeskoczyć do odpowiedniego momentu nagrania[24] (ilustracja powyżej pokazuje przykład takiego rozwiązania). Również obsługa napisów przez czytnik ekranu jest funkcjonalnością wspieraną przez niektóre playery – oznacza to, że napisy mogą zostać odczytane syntezatorem mowy lub wyświetlone na brajlowskim urządzeniu brajlowskim, co ma znaczenie dla osób głuchoniewidomych[23].
Jeśli korzystamy z osadzonych playerów popularnych platform (YouTube, Vimeo), wiele z powyższych aspektów jest już zaadresowanych – te odtwarzacze mają wbudowaną obsługę klawiatury i możliwość włączania napisów. W przypadku tworzenia własnego odtwarzacza należy jednak samodzielnie dopilnować wszystkich szczegółów technicznych, co bywa wyzwaniem. Z tego względu organizacje często sięgają po istniejące rozwiązania open-source przetestowane pod kątem dostępności. Przykładowo AblePlayer czy Video.js to otwarte biblioteki odtwarzaczy, które od razu zapewniają wsparcie dla napisów, wielu ścieżek audio (w tym audiodeskrypcji) oraz zgodność z WCAG na poziomie AA[25]. Wybór takiego rozwiązania oszczędza pracy i zwiększa pewność, że nasz odtwarzacz nie „uziemi” któregoś z użytkowników. W kontekście aplikacji mobilnych, korzystanie z natywnych komponentów systemowych (np. odtwarzacz iOS/Android) zwykle gwarantuje wbudowaną dostępność – komponenty te są już przystosowane do VoiceOver/TalkBack i obsługują napisy oraz przełączanie ścieżek audio. Jeśli jednak w aplikacji mobilnej tworzony jest niestandardowy odtwarzacz, należy testować go z perspektywy dostępności równie dokładnie jak odtwarzacz webowy.
Wymagania prawne w Polsce, UE i USA
W Polsce i Unii Europejskiej obowiązują przepisy prawne, które wymuszają dbałość o dostępność cyfrową multimediów – zwłaszcza w sektorze publicznym. Najważniejszym aktem jest tu Dyrektywa UE 2016/2102 w sprawie dostępności stron internetowych i aplikacji mobilnych podmiotów publicznych, znana jako europejski „Web Accessibility Directive”. Wymaga ona, aby wszystkie strony WWW i aplikacje mobilne jednostek sektora publicznego były przyjazne dla osób z niepełnosprawnościami. Polska wdrożyła tę dyrektywę ustawą z 4 kwietnia 2019 r. o dostępności cyfrowej stron internetowych i aplikacji mobilnych podmiotów publicznych. Ustawa ta precyzuje m.in., że serwisy publiczne muszą spełniać kryteria WCAG na poziomie AA (wcześniej WCAG 2.0, obecnie 2.1)[26]. W praktyce więc od września 2020 r. wszystkie nowe treści multimedialne publikowane przez podmioty publiczne muszą posiadać napisy dla osób niesłyszących zgodne ze standardem WCAG 2.1 AA[27]. Dotyczy to nie tylko materiałów na własnych stronach WWW, ale również np. filmów zamieszczanych przez urzędy na YouTube czy Facebooku – również tam muszą pojawić się napisy lub inne wymagane elementy dostępności[28]. Co istotne, przepisy przewidują pewne wyjątki: nie trzeba dodawać napisów do nagrań opublikowanych przed 23 września 2020 (treści archiwalne sprzed wejścia prawa w życie są wyłączone z obowiązku) ani do transmisji nadawanych na żywo (podczas trwania live nie ma obowiązku zapewniania napisów w czasie rzeczywistym). Jednak uwaga – jeśli nagranie z transmisji na żywo zostanie później utrwalone i udostępnione na stronie jako materiał do odtworzenia, wtedy musi już zostać opatrzone napisami przed publikacją[29]. Podobne zasady dotyczą materiałów audio – np. podcasty publikowane przez podmiot publiczny także powinny posiadać transkrypcję. Ustawa nakłada również obowiązek sporządzania Deklaracji Dostępności, gdzie instytucja raportuje stan zgodności swojej strony z wymaganiami (m.in. informując, które multimedia mogą być czasowo wyłączone z obowiązku i dlaczego).
Na poziomie UE wszystkie państwa członkowskie stosują zbliżone regulacje wynikające z ww. dyrektywy – gwarantuje to jednolite podejście. Dyrektywa posługuje się zharmonizowaną normą techniczną (EN 301 549) opartą właśnie na WCAG 2.1 AA[26]. W planach UE jest dostosowanie tych wymagań do WCAG 2.2, gdy nowe wytyczne się upowszechnią[30]. Warto zauważyć, że istnieje też szerszy Europejski Akt o Dostępności (EAA) z 2019 r., który od 2025 r. zobowiąże również sektor prywatny (m.in. e-commerce, bankowość, e-booki) do zapewnienia dostępności cyfrowej swoich usług – w tym z pewnością dotyczyć to będzie treści multimedialnych. Oznacza to, że wymóg dostępnych nagrań nie będzie już tylko dobrą wolą firm, ale stanie się standardem prawnym w wielu obszarach rynku.
Jeśli chodzi o Stany Zjednoczone, sytuacja prawna jest nieco inna, ale cele są zbliżone. Podstawowym aktem prawnym jest tu Americans with Disabilities Act (ADA) – szeroka ustawa praw obywatelskich, która zabrania dyskryminacji osób z niepełnosprawnościami. Choć ADA powstała w 1990 r., a więc przed epoką powszechnego Internetu, jej zapisy były wielokrotnie interpretowane jako obejmujące także strony internetowe i aplikacje. Co ważne, ADA nie odwołuje się wprost do standardu WCAG, jednak w praktyce wymusza zapewnienie „rozsądnych udogodnień” w dostępie do usług oferowanych publicznie[31]. Departament Sprawiedliwości USA (DOJ) coraz aktywniej egzekwuje dostępność cyfrową – w 2022 r. wydał wytyczne wskazujące WCAG jako wzorzec, a w kwietniu 2024 r. zaproponował konkretne przepisy wykonawcze dla sektora publicznego (strony i aplikacje władz stanowych i lokalnych), które ustanawiają techniczne wymagania dostępności analogiczne do standardów WCAG[32]. Oznacza to, że w najbliższych latach strony rządowe w USA będą musiały formalnie spełniać kryteria dostępności podobne do tych z dyrektywy unijnej.
Drugim istotnym filarem prawnym w USA jest Section 508 Rehabilitation Act – przepis obligujący agencje federalne do zapewnienia dostępności wszelkich elektronicznych i informacyjnych technologii, w tym serwisów WWW. Section 508 została zaktualizowana w 2017 r. tak, że obecnie wprost wymaga zgodności z WCAG 2.0 AA (co w praktyce jest bardzo zbliżone do WCAG 2.1 AA) przy tworzeniu stron rządowych[33][26]. Przykładowo, zgodnie z tymi regulacjami każdy materiał wideo publikowany przez agencję federalną musi posiadać zamknięte napisy i audiodeskrypcję, a odtwarzacz powinien umożliwiać łatwe ich włączenie – wymagania te są zapisane zarówno w WCAG, jak i w standardach Sekcji 508[34]. W efekcie serwisy rządowe w USA oferują już standardowo napisy do swoich materiałów filmowych, często także tłumaczenia migowe najważniejszych przekazów (np. konferencji prezydenta). W sferze komercyjnej, powołując się na ADA, wiele firm również wdraża WCAG dobrowolnie – po części by uniknąć pozwów, po części z chęci dotarcia do szerszego grona odbiorców. W ostatnim czasie odnotowano wzrost pozwów przeciw firmom za niedostępność ich stron (w tym brak napisów w materiałach wideo), co motywuje rynek amerykański do traktowania wytycznych dostępności z równą powagą jak przepisy przeciwpożarowe czy BHP.
Podsumowując, zarówno w UE, jak i w USA dostępność treści multimedialnych staje się normą prawną. W Europie sektor publiczny już od kilku lat ma obowiązek publikować filmy z napisami i innymi ułatwieniami[27][29], a stopniowo podobne wymogi obejmą kolejne branże. W Stanach Zjednoczonych brak konkretnych ustaw de jure odnoszących się do WCAG nie oznacza braku obowiązków – przepisy antydyskryminacyjne de facto wymuszają podobny poziom dostępności. Dla twórców stron i aplikacji oznacza to, że wdrażanie opisanych wyżej dobrych praktyk (napisy, transkrypcje, audiodeskrypcje, dostępne playery) nie jest już tylko kwestią dobrej woli czy przewagi konkurencyjnej, ale coraz częściej – po prostu koniecznością zgodności z prawem. Zapewnienie dostępności multimediów przynosi przy tym wymierne korzyści wszystkim użytkownikom, więc warto traktować je nie jako przykry obowiązek, lecz jako element profesjonalizmu i inkluzywności naszej strony lub aplikacji. [35][9]
Źródła:
- Web Content Accessibility Guidelines (WCAG) 2.1 – W3C Recommendation (wytyczne techniczne dot. dostępności treści internetowych)[1][4].
- Making Audio and Video Media Accessible – WAI W3C (poradnik dot. zapewniania dostępności multimediów, m.in. o napisach, audiodeskrypcji, tłumaczeniu na język migowy i funkcjach odtwarzaczy)[36][23].
- pl – Dostępne filmy – tworzenie napisów, transkrypcji i audiodeskrypcji (praktyczne wskazówki jak dodawać napisy, teksty i opisy do filmów)[37][38].
- eu – Obowiązek dodania napisów do nagrań wideo publikowanych przez podmioty publiczne (omówienie polskich wymogów prawnych dot. napisów)[27][29].
- Świat Głuchych – ABC dostępności (przykład audiodeskrypcji i tłumacza PJM w praktyce filmu edukacyjnego)[39][40].
- Ustawa o dostępności cyfrowej… – Dz.U. 2019 poz. 848 (polska ustawa wdrażająca Dyrektywę 2016/2102, określająca obowiązki dot. dostępności, w tym multimediów)[27][7].
- EU Web Accessibility Directive (WAD) – opis na stronie Komisji Europejskiej (wymogi dostępności dla sektora publicznego, WCAG 2.1 AA jako podstawa)[26].
- gov – Synchronized Media (oficjalne wytyczne USA dla multimediów zgodnych z Section 508, zawierają m.in. definicje napisów i audiodeskrypcji)[2][41].
- Usercentrics – Mastering Web Accessibility (2025) – artykuł podsumowujący najnowsze zmiany WCAG 2.2 oraz regulacje prawne (ADA, Section 508, dyrektywa UE)[32][42].
- Urząd Komunikacji Elektronicznej – Tłumaczenie artykułów w PJM (opis wdrożenia tłumacza polskiego języka migowego na stronie UKE)[18].
[1] Web Content Accessibility Guidelines (WCAG) 2.1
[2] [3] [4] [14] [15] [16] [34] [41] Video and Other Synchronized Media | Section508.gov
https://www.section508.gov/create/synchronized-media/
[5] Wytyczne dla dostępności treści internetowych (WCAG) 2.1
https://www.w3.org/Translations/WCAG21-pl/
[6] [10] [11] [13] [17] [37] [38] Dostępne filmy – tworzenie napisów ,transkrypcji i audiodeskrypcji. – Audyty dostępności stron, aplikacji, urządzeń i architektowaniczne.
https://standardwcag.pl/dostepne-filmy-tworzenie-transkrypcji-i-audiodeskrypcji/
[7] [8] [9] [27] [28] [29] [35] Obowiązek dodania napisów do nagrań wideo publikowanych przez podmioty publiczne (samorządy itd.)
https://www.euroalphabet.eu/napisy-do-wideo-podmioty-publiczne/
[12] [36] Making Audio and Video Media Accessible | Web Accessibility Initiative (WAI) | W3C
https://www.w3.org/WAI/media/av/
[18] [19] Tłumaczenie artykułów w PJM – Urząd Komunikacji Elektronicznej
https://www.uke.gov.pl/dostepnosc/tlumaczenie-artykulow-w-pjm,5.html
[20] [21] [22] [23] [24] [25] Media Players | Web Accessibility Initiative (WAI) | W3C
https://www.w3.org/WAI/media/av/player/
[26] [30] [31] [32] [42] Guide to WCAG Compliance for Version 2.2 and Accessibility
https://usercentrics.com/knowledge-hub/mastering-web-app-accessibility-wcag2-2-and-inclusive-design/
[33] WCAG 2.2 AA | Summary and Web Accessibility Checklist ✅
https://www.levelaccess.com/blog/wcag-2-2-aa-summary-and-checklist-for-website-owners/
