Z dniem 29 października 2025 r. wszedł w życie akt delegowany Komisji Europejskiej przyjęty na podstawie art. 40 Rozporządzenia o usługach cyfrowych (DSA).
Po raz pierwszy w historii Unii Europejskiej umożliwia on uprawnionym badaczom („vetted researchers”) działającym w interesie publicznym dostęp do niepublicznych danych bardzo dużych platform internetowych (VLOPs) i wyszukiwarek (VLOSEs).
To moment, w którym przejrzystość przestaje być postulatem, a staje się infrastrukturą wiedzy i zaufania.
1. Nowa geometria cyfrowego nadzoru
Do tej pory badania nad wpływem platform przypominały obserwację mgły – naukowcy widzieli kontury, lecz nie rdzeń zjawiska. Zewnętrzne API, web scraping, analizy korelacyjne – wszystko to tworzyło tylko przybliżenie działania algorytmów, które decydują o tym, co widzą użytkownicy.
29 października 2025 r. ten stan się kończy. Unia Europejska otwiera zasoby danych, które przez lata stanowiły „czarną skrzynkę” ery platform. „Przejrzystość nie jest gestem dobrej woli platform – to element konstytucji społeczeństwa informacyjnego.”
Akt delegowany DSA to początek nowego ładu poznawczego: wiedza naukowa staje się integralną częścią mechanizmu regulacyjnego.
2. Dlaczego potrzebowaliśmy tego aktu?
Digital Services Act (DSA) był milowym krokiem w kształtowaniu europejskiego modelu gospodarki cyfrowej – łączącego ochronę praw podstawowych z odpowiedzialnością za technologię. Jednak sama zasada przejrzystości, zawarta w DSA, nie wystarczała: platformy publikowały raporty, lecz bez dostępu do źródłowych danych nikt nie mógł ich zweryfikować. Akt delegowany stanowi więc narzędzie empirycznej kontroli.
To realizacja idei, że zaufanie do systemów cyfrowych nie może być ślepe – musi być weryfikowalne.
3. Trzy filary nowego ekosystemu przejrzystości
- Nauka – zyskuje prawne i techniczne narzędzie do prowadzenia niezależnych badań nad działaniem platform.
- Nadzór – może korzystać z wyników badań, by oceniać ryzyka systemowe i wymuszać zmiany w praktykach platform.
- Zaufanie – rodzi się z transparentności i empirycznej weryfikacji decyzji algorytmicznych.
To architektura o podwójnym znaczeniu: techniczna i filozoficzna.
Europa nie chce tylko „regulować AI” – chce uczyć się jej rozumieć.
4. Portal Dostępu do Danych DSA – brama do świata algorytmów
Nowy DSA Data Access Portal to cyfrowe centrum obsługi wniosków. Nie przechowuje danych, lecz koordynuje proces między trzema stronami: badaczem, platformą i koordynatorem DSC (Digital Services Coordinator).
Każdy wniosek przechodzi cyfrowy cykl życia:
wniosek → ocena → reasoned request → udostępnienie → raport.
Portal pełni rolę „śluzy zaufania”: zapewnia śledzenie wszystkich decyzji i transparentność proceduralną. W tym sensie jest pierwszym „żywym organem” DSA – infrastrukturalnym symbolem nowej logiki współpracy.
5. Katalogi danych – nowe mapy świata cyfrowego
Każda VLOP i VLOSE ma obowiązek opracowania publicznego katalogu danych, który opisuje dostępne zbiory, ich strukturę i możliwości udostępnienia. To cyfrowe „mapy algorytmicznego terytorium”, w których badacze mogą zobaczyć, co istnieje, ale czego do tej pory nie widzieli.
W praktyce katalog obejmuje:
- zbiory danych o moderacji treści,
- parametry systemów rekomendacyjnych,
- dane o reklamach i targetowaniu,
- statystyki interakcji użytkowników (zanonimizowane).
To pierwszy w historii akt prawny, który nakazuje platformom ujawnić metadane o swoich danych.
6. „Reasoned request” – nauka w służbie prawa
Sercem procedury jest tzw. reasoned request – uzasadniony wniosek o udostępnienie danych. To nie petycja, lecz narzędzie poznawcze ujęte w ramy administracyjne. Badacz, po uzyskaniu statusu „vetted”, przedstawia projekt badawczy o charakterze publicznym.
DSC ocenia cel, metodologię, bezpieczeństwo i legalność, po czym przekazuje wniosek platformie. Platforma może zaproponować zmiany – np. większą agregację danych lub skrócenie okresu dostępu – lecz każda modyfikacja wymaga uzasadnienia i zgody DSC. To nowy rodzaj dialogu między nauką a biznesem: rozmowa o granicach wiedzy, a nie o granicach władzy.
7. Bezpieczne środowiska przetwarzania – cyfrowe laboratoria zaufania
Badania nad danymi platform będą odbywać się wyłącznie w tzw. secure processing environments – bezpiecznych, kontrolowanych środowiskach obliczeniowych. Tu każda sesja, każdy dostęp, każde zapytanie jest rejestrowane. Dane nie mogą zostać skopiowane ani wyeksportowane bez autoryzacji. To laboratoria przyszłości, w których naukowcy i inżynierowie AI pracują w warunkach podobnych do instytutów badań nad zdrowiem – z tą różnicą, że materiałem nie jest ciało, lecz informacja.
Ochronę danych osobowych gwarantuje RODO – podstawą przetwarzania jest obowiązek prawny z art. 6 ust. 1 lit. c RODO. Platformy muszą stosować zasady privacy by design, a badacze – przeprowadzać DPIA.
Po raz pierwszy w prawie unijnym etyka i compliance spotykają się w jednym laboratorium.
8. Ryzyka systemowe – co będzie badane
Artykuł 34 DSA definiuje systemic risks:
- dezinformacja,
- nadużycia reklamowe,
- szkody dla praw podstawowych,
- zagrożenia dla małoletnich,
- dyskryminacja,
- polaryzacja debat.
Delegowany akt umożliwia badaczom empiryczną analizę skuteczności działań platform w ograniczaniu tych ryzyk. Nie będzie już liczyć się to, co platforma deklaruje w raporcie – liczyć się będzie to, co można udowodnić danymi.
To początek nowej metodologii nadzoru: regulacja oparta na dowodach.
9. Platformy jako nowi strażnicy wiedzy
VLOPs i VLOSEs wchodzą w nową rolę – nie tylko dostawców treści, lecz także strażników infrastruktury wiedzy.
Muszą stworzyć:
- mapy danych i katalogi metadanych,
- procedury odpowiedzi na wnioski badaczy,
- środowiska bezpiecznego przetwarzania,
- i system raportowania dla DSC.
Compliance staje się procesem poznawczym – narzędziem samorefleksji organizacji, która musi rozumieć własny wpływ na społeczeństwo.
10. Badacze jako nowy filar demokratycznego nadzoru
Status „vetted researcher” to więcej niż akademicki tytuł. To mandat społeczny – zaufanie, że naukowiec potrafi korzystać z danych z odpowiedzialnością.
Proces aplikacji jest wielostopniowy:
- projekt,
- ocena DSC,
- reasoned request,
- dostęp w środowisku zabezpieczonym,
- publikacja wyników.
Naukowcy zyskują możliwość badania zjawisk, które dotąd były zarezerwowane dla algorytmów, ale też biorą na siebie odpowiedzialność za bezpieczeństwo tych badań. To nowy model społecznego nadzoru – nie przeciw technologii, lecz z technologią.
11. System naczyń połączonych: DSA, RODO, DGA, DMA i AI Act
Delegowany akt do art. 40 DSA wpisuje się w szeroką architekturę europejskiego prawa technologicznego.
- Z RODO dzieli zasadę legalności i rozliczalności.
- Z Data Governance Act – filozofię kontrolowanego udostępniania danych.
- Z Digital Markets Act – mechanizmy kontroli praktyk monopolistycznych.
- Z AI Act – koncepcję oceny ryzyka i systemowego monitoringu AI.
W rezultacie powstaje nowy europejski system zaufania, w którym transparentność staje się formą odpowiedzialności.
12. Wyzwania i napięcia: między własnością a interesem publicznym
Nikt nie ma złudzeń, że proces będzie łatwy. Platformy obawiają się ujawnienia tajemnic handlowych, badacze – zbyt daleko idących ograniczeń. Tu pojawia się rola koordynatorów DSC – instytucji mediujących między kapitałem a wiedzą. Ich zadaniem jest utrzymanie delikatnej równowagi między prawem do tajemnicy a prawem społeczeństwa do poznania mechanizmów, które kształtują rzeczywistość informacyjną. To nowy rodzaj „konstytucyjnej dyplomacji” między nauką a biznesem.
13. Europa jako laboratorium demokracji cyfrowej
W ciągu najbliższych lat zobaczymy pierwsze projekty badawcze analizujące rekomendacje YouTube’a, targetowanie reklam politycznych czy mechanizmy moderacji treści. Ich wyniki staną się źródłem dla regulatorów i społeczeństwa obywatelskiego. Europa buduje laboratorium demokracji cyfrowej, w którym dane stają się elementem dialogu, a nie narzędziem dominacji. To nowa cywilizacja cyfrowa – oparta na empirii, rozliczalności i zaufaniu.
14. Zakończenie: od deklaracji do infrastruktury zaufania
Delegowany akt do art. 40 DSA to nie kolejny akt wykonawczy, lecz symboliczny krok w ewolucji prawa technologicznego. Europa nie reguluje dla samej regulacji. Europa projektuje przyszłość, w której prawo i technologia tworzą wspólny język odpowiedzialności. To moment, w którym regulacja staje się infrastrukturą zaufania. Platformy przestają być nietykalnymi „czarnymi skrzynkami” – stają się elementem społecznej kontraktowości cyfrowej. A nauka, która dotąd stała u bram, wchodzi do środka – z prawem, odpowiedzialnością i misją zrozumienia świata, który tworzy informacja.


