Dostępność w fazie projektowania

Dostępność w fazie projektowania

  1. Ewolucja paradygmatu dostępności w prawie nowych technologii

Współczesna legislacja Unii Europejskiej przechodzi fundamentalną transformację w podejściu do inkluzywności cyfrowej. Odchodząc od modelu opartego na dobrowolnych wytycznych i reaktywnym dostosowywaniu interfejsów (tzw. reasonable accommodation), prawodawca unijny zmierza w kierunku modelu prewencyjnego, opartego na koncepcji accessibility by design (dostępność w fazie projektowania). Przyjęcie(https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng) (Akt o sztucznej inteligencji – AI Act) oraz(https://eur-lex.europa.eu/eli/reg/2022/2065/oj/eng) (Akt o usługach cyfrowych – DSA) stanowi kulminację tego procesu, integrując prawa osób z niepełnosprawnościami bezpośrednio z mechanizmami zarządzania ryzykiem technologicznym i nadzorem rynku.

Niniejsza analiza stawia tezę, że dostępność cyfrowa w świetle nowych regulacji przestała być jedynie wymogiem technicznym, a stała się immanentnym elementem zgodności prawnej (compliance), którego naruszenie niesie za sobą ryzyko sankcji finansowych i reputacyjnych porównywalnych z naruszeniami ochrony danych osobowych czy zasad konkurencji. Analiza obejmuje szczegółową egzegezę przepisów obu aktów, ze szczególnym uwzględnieniem obowiązków dostawców systemów AI wysokiego ryzyka oraz bardzo dużych platform internetowych (VLOP).

2. Analiza zapisów w akcie o sztucznej inteligencji dotyczących dostępności cyfrowej

Akt o sztucznej inteligencji wprowadza pionierskie ramy prawne, które klasyfikują systemy AI w oparciu o poziom generowanego ryzyka. Z perspektywy dostępności cyfrowej, regulacja ta tworzy wielowarstwowy system zabezpieczeń, obejmujący zakazy, obowiązki techniczne oraz procedury oceny skutków.

2.1. Ochrona przed manipulacją i eksploatacją niepełnosprawności (Artykuł 5)

Pierwszą i najbardziej rygorystyczną linią obrony praw osób z niepełnosprawnościami jest Artykuł 5 AI Act, definiujący praktyki zakazane. Ustawodawca unijny rozpoznał specyficzne zagrożenie, jakie systemy AI mogą stwarzać dla osób z niepełnosprawnościami poznawczymi, intelektualnymi lub psychospołecznymi, które mogą być bardziej podatne na techniki manipulacyjne.

Zgodnie z zapisami, zakazane jest wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemu AI, który wykorzystuje słabości osób wynikające z ich wieku, niepełnosprawności lub szczególnej sytuacji społecznej lub ekonomicznej, w celu zniekształcenia ich zachowania w sposób, który powoduje lub może powodować istotną szkodę.

Analiza implikacji:

Przepis ten ma kluczowe znaczenie dla dostępności w wymiarze etycznym i kognitywnym. Systemy rekomendacyjne lub interfejsy konwersacyjne (chatboty), które byłyby zaprojektowane w sposób celowo wykorzystujący np. deficyty uwagi (ADHD) lub trudności w ocenie ryzyka, zostają uznane za praktyki niedopuszczalne. Oznacza to, że „dostępność” w rozumieniu AI Act wykracza poza percepcję zmysłową (wzrok, słuch) i obejmuje ochronę autonomii decyzyjnej użytkownika.

2.2. Obowiązki dostawców systemów wysokiego ryzyka w zakresie dostępności (Artykuł 16)

Serce regulacji dotyczącej dostępności znajduje się w Artykule 16, który określa obowiązki dostawców systemów AI wysokiego ryzyka. W toku procesu legislacyjnego, dzięki naciskom organizacji społecznych i Parlamentu Europejskiego, do katalogu obowiązków dodano wyraźny wymóg zgodności z istniejącym acquis communautaire w zakresie dostępności.

Zgodnie z ostatecznym brzmieniem Artykułu 16 lit. l (w niektórych wersjach roboczych oznaczanego jako lit. ja), dostawcy systemów AI wysokiego ryzyka:

„zapewniają, aby system AI wysokiego ryzyka spełniał wymogi dostępności zgodnie z dyrektywami (UE) 2016/2102 i (UE) 2019/882”.

Szczegółowa egzegeza prawna:

  • Odesłanie do Dyrektywy (UE) 2019/882 (Europejski akt o dostępności – EAA): Jest to kluczowe połączenie systemowe. EAA nakłada obowiązki dostępności na produkty i usługi takie jak bankowość, e-commerce, czy urządzenia terminalowe. Systemy AI będące komponentami tych usług (np. silnik scoringu kredytowego w aplikacji bankowej) muszą zatem spełniać te same rygorystyczne normy funkcjonalne (np. obsługa czytników ekranu, wysoki kontrast, brak elementów migających wywołujących ataki epileptyczne).
  • Odesłanie do Dyrektywy (UE) 2016/2102: Dotyczy to systemów wykorzystywanych przez sektor publiczny. Oznacza to, że AI używana w administracji, edukacji czy sądownictwie musi być dostępna na poziomie standardu EN 301 549 (bazującego na WCAG 2.1 AA).
  • Charakter obowiązku: Użycie sformułowania „zapewniają” (ang. ensure) wskazuje na zobowiązanie rezultatu, a nie tylko starannego działania. Dostawca musi wykazać w dokumentacji technicznej, w jaki sposób wymogi te zostały spełnione.

2.3. Rola danych treningowych w zapobieganiu dyskryminacji (Artykuł 10)

Dostępność cyfrowa w erze AI wiąże się nierozerwalnie z jakością danych. Systemy uczone na standardowych zbiorach danych często traktują wzorce zachowań lub cechy biometryczne osób z niepełnosprawnościami jako „szum” lub błędy (tzw. outliers). Prowadzi to do dyskryminacji algorytmicznej, np. nierozpoznawania mowy osób z dyzartrią przez asystentów głosowych czy błędnej interpretacji mimiki osób z porażeniem nerwu twarzowego przez systemy analizy emocji (choć te ostatnie są w wielu przypadkach zakazane).9

Artykuł 10 ust. 2 lit. f AI Act wymaga, aby zbiory danych treningowych, walidacyjnych i testowych były poddawane odpowiednim procedurom zarządzania danymi, w tym:

„badaniu pod kątem ewentualnych uprzedzeń”.

W kontekście dostępności oznacza to konieczność:

  • Włączania do zbiorów treningowych reprezentatywnych próbek danych pochodzących od osób z różnymi rodzajami niepełnosprawności (inkluzywne zbiory danych).
  • Testowania modeli pod kątem ich skuteczności (accuracy) dla podgrup demograficznych obejmujących osoby z niepełnosprawnościami.

2.4. Przejrzystość i format instrukcji obsługi (Artykuł 13)

Artykuł 13 AI Act reguluje kwestie transparentności wobec podmiotów wdrażających (deployers). Przepis ten jest fundamentalny dla dostępności poznawczej oraz dla operatorów systemów AI będących osobami z niepełnosprawnościami.

Zgodnie z Artykułem 13 ust. 2:

„Systemom AI wysokiego ryzyka towarzyszą instrukcje obsługi w odpowiednim formacie cyfrowym lub innym, które zawierają zwięzłe, kompletne, poprawne i jasne informacje, które są istotne, dostępne i zrozumiałe dla podmiotów wdrażających”.

Wymogi operacyjne:

  1. Dostępny format cyfrowy: Instrukcja nie może być skanem PDF bez warstwy tekstowej. Musi być dokumentem strukturalnym, nawigowalnym klawiaturą, z opisami alternatywnymi grafik, zgodnym ze standardem PDF/UA lub formatem HTML5.
  2. Zrozumiałość (Plain Language): Informacje o działaniu systemu, jego ograniczeniach i ryzykach muszą być sformułowane w sposób zrozumiały dla niespecjalistów, co wspiera osoby z trudnościami poznawczymi.
  3. Metadane dostępności: Zgodnie z Artykułem 13 ust. 3 lit. b, instrukcja musi opisywać „charakterystykę, możliwości i ograniczenia wydajności”. Należy tu interpretować konieczność ujawnienia, czy system był testowany z udziałem osób z niepełnosprawnościami i jakie są ewentualne ograniczenia w interakcji z technologiami asystującymi.

2.5. Nadzór ludzki a interfejsy operatora (Artykuł 14)

Artykuł 14 nakłada obowiązek zaprojektowania systemów wysokiego ryzyka w sposób umożliwiający ich skuteczny nadzór przez człowieka (human-in-the-loop). Z perspektywy prawa pracy i niedyskryminacji, narzędzia nadzoru (interfejsy dashboardów, systemy alertów) muszą być dostępne dla pracowników z niepełnosprawnościami.

Brak dostępności interfejsu nadzorczego mógłby prowadzić do wykluczenia osób z niepełnosprawnościami z pełnienia ról nadzorczych (np. operatora monitoringu wspieranego AI, analityka ryzyka kredytowego), co stanowiłoby naruszenie Dyrektywy 2000/78/WE w sprawie równego traktowania w zakresie zatrudnienia.

2.6. Ocena skutków dla praw podstawowych (Artykuł 27)

Dla podmiotów publicznych oraz niektórych podmiotów prywatnych wdrażających systemy wysokiego ryzyka, Artykuł 27 wprowadza obowiązek przeprowadzenia Oceny Skutków dla Praw Podstawowych (Fundamental Rights Impact Assessment – FRIA).

Elementy FRIA kluczowe dla dostępności:

  • Identyfikacja grup: Podmiot musi określić „kategorie osób fizycznych i grup, na które prawdopodobnie wpłynie wykorzystanie systemu”. Grupa osób z niepełnosprawnościami musi być tu explicite uwzględniona.16
  • Weryfikacja ryzyk: Analiza musi objąć ryzyko wykluczenia cyfrowego lub dyskryminacji wynikającej z braku dostępności interfejsu wyjściowego systemu.
  • Konsultacje: Motywy aktu sugerują konsultacje z przedstawicielami grup narażonych, co otwiera drogę dla organizacji pozarządowych reprezentujących osoby niepełnosprawne do udziału w procesie oceny.

2.7. Motyw 80 i zasada projektowania uniwersalnego

Wykładnia celowościowa przepisów o dostępności znajduje swoje oparcie w Motywie 80 AI Act. Odwołuje się on bezpośrednio do Konwencji ONZ o prawach osób niepełnosprawnych (UNCRPD), której stroną jest UE.

„Z uwagi na rosnące znaczenie i wykorzystanie systemów AI, stosowanie zasad projektowania uniwersalnego do wszystkich nowych technologii i usług powinno zapewnić pełny i równy dostęp dla wszystkich […] w sposób w pełni uwzględniający ich przyrodzoną godność i różnorodność”.

Jest to istotne wskazanie interpretacyjne: w przypadku wątpliwości co do zakresu obowiązków technicznych, należy zawsze wybierać rozwiązanie, które promuje „projektowanie uniwersalne” (dostępne dla wszystkich bez konieczności adaptacji), a nie rozwiązania segregujące (tworzenie osobnych, uproszczonych wersji systemów dla osób niepełnosprawnych).

Artykuł AI Act Obszar regulacji Wpływ na dostępność cyfrową
Art. 5 Praktyki zakazane Zakaz manipulacji behawioralnej wykorzystującej niepełnosprawność.
Art. 10 Zarządzanie danymi Wymóg reprezentatywności danych (unikanie biasu wobec OzN).
Art. 13 Przejrzystość Instrukcje obsługi w dostępnych formatach cyfrowych.
Art. 14 Nadzór ludzki Dostępność interfejsów dla operatorów z niepełnosprawnościami.
Art. 16(l) Obowiązki dostawcy Bezpośredni wymóg zgodności z EAA i Dyrektywą webową.
Art. 27 FRIA Ocena wpływu wdrożenia na prawa osób z niepełnosprawnościami.

Analiza przepisów aktu o usługach cyfrowych w kontekście włączenia cyfrowego

Podczas gdy AI Act reguluje produkt (system AI), Akt o usługach cyfrowych (DSA) reguluje środowisko jego dystrybucji i interakcji z użytkownikiem. DSA nakłada na dostawców usług pośrednich (w tym platformy społecznościowe, wyszukiwarki) obowiązki w zakresie należytej staranności, w których dostępność jest traktowana jako element bezpieczeństwa i praw podstawowych.

3.1. Kodeksy postępowania na rzecz dostępności (Artykuł 47)

DSA podchodzi do dostępności w sposób systemowy, zachęcając do samoregulacji wspieranej przez Komisję. Artykuł 47 jest dedykowanym przepisem dotyczącym standardów dostępności.

Zgodnie z Artykułem 47 ust. 1 i 2:

„Komisja i Rada zachęcają do opracowywania kodeksów postępowania […] w celu przyczynienia się do pełnego i skutecznego, równego uczestnictwa, poprzez poprawę dostępu do usług online, z uwzględnieniem szczególnych potrzeb osób z niepełnosprawnościami”.

Kodeksy te mają na celu zapewnienie, aby:

  • Usługi były projektowane zgodnie z zasadami postrzegalności, funkcjonalności, zrozumiałości i rzetelności (filary standardu WCAG).
  • Wyjaśnienia dotyczące sposobu spełnienia wymogów dostępności były publicznie dostępne (deklaracje dostępności).
  • Formularze zgłaszania nielegalnych treści były dostępne dla wszystkich użytkowników.

Chociaż kodeksy są formalnie dobrowolne, dla Bardzo Dużych Platform Internetowych (VLOP) ich przestrzeganie może być elementem mitygacji ryzyka systemowego, co de facto nadaje im charakter wiążący w procesie nadzorczym.

3.2. Dostępność mechanizmów zgłaszania i pomocy (Artykuł 16 DSA i inne)

DSA kładzie ogromny nacisk na to, aby mechanizmy ochrony użytkowników były efektywne. Artykuł 16 DSA (nie mylić z art. 16 AI Act) nakłada obowiązek stworzenia mechanizmów zgłaszania nielegalnych treści („notice and action”).

Mechanizmy te muszą być:

„łatwo dostępne i przyjazne dla użytkownika”.

Interpretacja „łatwej dostępności” w świetle Motywu 49 DSA oraz Konwencji UNCRPD oznacza, że formularz zgłoszeniowy nie może np. opierać się wyłącznie na wizualnych kodach CAPTCHA, które są barierą dla osób niewidomych. Musi on być w pełni obsługiwany za pomocą klawiatury i technologii asystujących.

3.3. Przejrzystość warunków świadczenia usług (Artykuł 14)

Artykuł 14 DSA rewolucjonizuje podejście do regulaminów (Terms & Conditions). Nakłada on obowiązek informowania użytkowników o wszelkich ograniczeniach w korzystaniu z usług w sposób jasny i zrozumiały.

Szczególnie istotny jest ust. 5, dotyczący VLOP i VLOSE:

„Dostawcy […] zapewniają odbiorcom usług zwięzłe, łatwo dostępne i czytelne dla maszyn podsumowanie warunków korzystania z usług”.

Znaczenie dla dostępności:

Format „czytelny dla maszyn” (machine-readable) jest kluczowy dla rozwoju inteligentnych agentów użytkownika, które mogą automatycznie analizować regulaminy i przedstawiać je użytkownikom z niepełnosprawnością poznawczą w uproszczonej formie (Easy-to-Read). Jest to przykład synergii między regulacją prawną a technologiczną innowacją na rzecz dostępności.

3.4. Projektowanie interfejsów online i zakaz „dark patterns” (Artykuł 25)

Artykuł 25 DSA wprowadza zakaz stosowania interfejsów, które wprowadzają w błąd lub manipulują użytkownikami.

„Dostawcy platform internetowych nie projektują, nie organizują ani nie obsługują swoich interfejsów internetowych w sposób, który wprowadza w błąd odbiorców usługi lub nimi manipuluje, lub w inny sposób zakłóca lub ogranicza ich zdolność do podejmowania wolnych i świadomych decyzji”.24

Dla osób z niepełnosprawnościami, zwłaszcza sensorycznymi i poznawczymi, tzw. dark patterns (np. ukryte przyciski rezygnacji z subskrypcji, mylące kontrasty kolorystyczne sugerujące błędne działanie) stanowią barierę nie do przebycia. Przepis ten wzmacnia wymogi dostępności, penalizując projektowanie, które żeruje na ograniczeniach percepcyjnych użytkowników.

3.5. Ocena ryzyka systemowego (Artykuły 34 i 35)

Dostawcy VLOP i VLOSE (powyżej 45 mln użytkowników w UE) są zobowiązani do corocznej identyfikacji, analizy i oceny ryzyk systemowych wynikających z funkcjonowania ich usług.

Katalog ryzyk w Artykule 34 ust. 1 lit. b obejmuje:

„wszelkie rzeczywiste lub możliwe do przewidzenia negatywne skutki dla wykonywania praw podstawowych”.

Ponieważ prawo do integracji osób z niepełnosprawnościami (art. 26 Karty Praw Podstawowych UE) oraz zakaz dyskryminacji (art. 21 KPP) są prawami podstawowymi, platformy muszą oceniać, czy ich algorytmy (np. moderacji treści, rekomendacji) lub interfejsy nie wykluczają systemowo tej grupy użytkowników. Środki mitygujące (Artykuł 35) mogą obejmować przeprojektowanie interfejsu zgodnie ze standardami dostępności lub zmianę parametrów algorytmicznych.

Synergia i interoperacyjność aktów prawnych

Analiza porównawcza wykazuje głęboką komplementarność obu regulacji. AI Act i DSA nie funkcjonują w próżni, lecz tworzą spójny ekosystem z Europejskim aktem o dostępności (EAA).

Łańcuch zaufania: Dostawca AI wysokiego ryzyka zapewnia dostępność techniczną modelu (zgodnie z Art. 16 AI Act). Podmiot wdrażający (np. bank – VLOP) integruje ten model w swojej platformie, zapewniając dostępność interfejsu końcowego (zgodnie z EAA i Art. 47 DSA) oraz monitorując wpływ na użytkownika (zgodnie z Art. 34 DSA i Art. 27 AI Act).

Standardyzacja: Oba akty polegają na normach zharmonizowanych. Komisja Europejska wystosowała wniosek normalizacyjny do CEN/CENELEC (JTC 21), aby opracować normy wspierające AI Act. Normy te muszą być spójne z normą EN 301 549 (Dostępność produktów i usług ICT), co zapobiegnie fragmentacji rynku.

Egzekwowanie: W przypadku naruszenia dostępności w systemie AI, organ nadzoru rynku (ds. AI) może nakazać wycofanie systemu. Jeśli ten sam problem dotyczy platformy VLOP, Komisja Europejska (jako organ nadzorczy DSA) może nałożyć grzywnę do 6% światowego obrotu. Podwójna presja regulacyjna znacząco zwiększa priorytet dostępności w strategiach korporacyjnych.

Podsumowanie

Akt o sztucznej inteligencji oraz akt o usługach cyfrowych wprowadzają nową jakość w ochronie praw cyfrowych osób z niepełnosprawnościami. Nie są to już tylko postulaty, lecz twarde zobowiązania prawne zintegrowane z całym cyklem życia produktu cyfrowego – od zbioru danych treningowych (AI Act Art. 10), przez projektowanie modelu (AI Act Art. 16), aż po interfejs użytkownika i regulaminy usług (DSA Art. 14, 25, 47).

Kluczowe wnioski z analizy:

Dostępność jest warunkiem legalności: System AI wysokiego ryzyka niespełniający wymogów dostępności nie może uzyskać oznakowania CE i wejść na rynek UE.

Szeroki zakres ochrony: Regulacje chronią nie tylko przed barierami sensorycznymi, ale także przed manipulacją poznawczą i dyskryminacją algorytmiczną.

Transparencja: Wymogi dotyczące instrukcji i regulaminów (formaty cyfrowe, prosty język) demokratyzują dostęp do wiedzy o technologii.

Dla praktyków prawa i technologii oznacza to konieczność ścisłej współpracy zespołów compliance, inżynierów AI i specjalistów ds. dostępności (accessibility experts). Tylko holistyczne podejście pozwoli na spełnienie złożonych, ale spójnych celów obu rozporządzeń.

Bibliografia

  1. EU AI Act – Updates, Compliance, Training, otwierano: lutego 5, 2026, https://www.artificial-intelligence-act.com/
  2. Regulation – 2022/2065 – EN – DSA – EUR-Lex – European Union, otwierano: lutego 5, 2026, https://eur-lex.europa.eu/eli/reg/2022/2065/oj/eng
  3. AI Act – odpowiedzi na kluczowe pytania | IAB Polska, otwierano: lutego 5, 2026, https://www.iab.org.pl/wp-content/uploads/2024/06/AI-Act_Odpowiedzi-na-kluczowe-pytania_IAB-Polska_062024.pdf
  4. Ensure horizontal and mainstreamed accessibility requirements for all Artificial Intelligence (AI) systems and use – European Disability Forum, otwierano: lutego 5, 2026, https://www.edf-feph.org/content/uploads/2022/04/FINAL_Ensure-accessibility-requirements-for-all-AI.pdf
  5. EU’s AI Act fails to set gold standard for human rights – European Digital Rights (EDRi), otwierano: lutego 5, 2026, https://edri.org/our-work/eu-ai-act-fails-to-set-gold-standard-for-human-rights/
  6. AI Act Service Desk – Article 16: Obligations of providers of high-risk AI systems, otwierano: lutego 5, 2026, https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-16
  7. Article 16: Obligations of Providers of High-Risk AI Systems | EU Artificial Intelligence Act, otwierano: lutego 5, 2026, https://artificialintelligenceact.eu/article/16/
  8. Connecting GDPR, the EU AI Act and the EU Accessibility Act for more inclusive CX, otwierano: lutego 5, 2026, https://www.genesys.com/blog/post/connecting-gdpr-the-eu-ai-act-and-the-eu-accessibility-act-for-more-inclusive-cx
  9. Impact of artificial intelligence for people with disabilities – Pacific ADA Center, otwierano: lutego 5, 2026, https://www.adapacific.org/impacts-of-artificial-intelligence-for-people-with-disabilities/
  10. The Impact of the Use of AI on People with Disabilities | New York City Bar Association, otwierano: lutego 5, 2026, https://www.nycbar.org/reports/the-impact-of-the-use-of-ai-on-people-with-disabilities/
  11. Access Board’s Preliminary Findings on AI and People with Disabilities – UW CREATE, otwierano: lutego 5, 2026, https://create.uw.edu/access-boards-preliminary-findings-on-ai-and-people-with-disabilities/
  12. AI Act Service Desk – Article 27: Fundamental rights impact assessment for high-risk AI systems, otwierano: lutego 5, 2026, https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-27
  13. AI Act Service Desk – Article 13: Transparency and provision of information to deployers, otwierano: lutego 5, 2026, https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-13
  14. Article 13: Transparency and Provision of Information to Deployers | EU Artificial Intelligence Act, otwierano: lutego 5, 2026, https://artificialintelligenceact.eu/article/13/
  15. Artificial intelligence and its impact on the human rights of persons with disabilities, otwierano: lutego 5, 2026, https://ennhri.org/news-and-blog/artificial-intelligence-and-its-impact-on-the-human-rights-of-persons-with-disabilities/
  16. Article 27: Fundamental Rights Impact Assessment for High-Risk AI …, otwierano: lutego 5, 2026, https://artificialintelligenceact.eu/article/27/
  17. ENNHRI calls on the European Commission to ensure effective Fundamental Rights Impact Assessments (FRIAs) under the EU AI Act, otwierano: lutego 5, 2026, https://ennhri.org/wp-content/uploads/2025/04/ENNHRI-statement-on-ensuring-effective-Fundamental-Rights-Impact-Assessments-FRIAs-under-the-EU-AI-Act.pdf
  18. Recital 80 | EU Artificial Intelligence Act, otwierano: lutego 5, 2026, https://artificialintelligenceact.eu/recital/80/
  19. A disability-inclusive Artificial Intelligence Act: : a guide to monitor implementation in your country, otwierano: lutego 5, 2026, https://www.edf-feph.org/content/uploads/2024/10/AI-Act-implementation-toolkit-Final.pdf
  20. Article 47, the Digital Services Act (DSA), otwierano: lutego 5, 2026, https://www.eu-digital-services-act.com/Digital_Services_Act_Article_47.html
  21. The Digital Services Act: Practical Implications for Online Services and Platforms – Latham & Watkins LLP, otwierano: lutego 5, 2026, https://www.lw.com/admin/upload/SiteAttachments/Digital-Services-Act-Practical-Implications-for-Online-Services-and-Platforms.pdf
  22. The Digital Services Act (DSA) – activeMind.legal, otwierano: lutego 5, 2026, https://www.activemind.legal/guides/dsa/
  23. Article 14, the Digital Services Act (DSA), otwierano: lutego 5, 2026, https://www.eu-digital-services-act.com/Digital_Services_Act_Article_14.html
  24. EU Digital Services Act: Fundamental Changes for Online Intermediaries? – K&L Gates, otwierano: lutego 5, 2026, https://www.klgates.com/EU-Digital-Services-Act-Fundamental-Changes-for-Online-Intermediaries-11-4-2022
  25. Article 34, the Digital Services Act (DSA), otwierano: lutego 5, 2026, https://www.eu-digital-services-act.com/Digital_Services_Act_Article_34.html
  26. First report of the European Board for Digital Services in cooperation with the Commission pursuant to Article 35(2) DSA on the – Table.Briefings, otwierano: lutego 5, 2026, https://table.media/assets/europe/first_article_352_dsa_report_on_systemic_risks_and_mitigations_final_ddxkzxhwga8vftj3unr0mgkwqvk_121707.pdf
  27. Guidelines 3/2025 on the interplay between the DSA and the GDPR Version 1.1 – European Data Protection Board, otwierano: lutego 5, 2026, https://www.edpb.europa.eu/system/files/2025-09/edpb_guidelines_202503_interplay-dsa-gdpr_v1_en.pdf
  28. Interplay between the AI Act and the EU digital legislative framework – European Parliament, otwierano: lutego 5, 2026, https://www.europarl.europa.eu/RegData/etudes/STUD/2025/778575/ECTI_STU(2025)778575_EN.pdf
  29. Standard Setting | EU Artificial Intelligence Act, otwierano: lutego 5, 2026, https://artificialintelligenceact.eu/standard-setting-overview/