Przejdź do nagłówka Przejdź do zawartości Przejdź do stopki Przejdź do wyszukiwarki Przejdź do strony logowania Przejdź do strony kontaktowej

12 marca - Dzień Przeciwko Cenzurze Internetu

12.03.2026

Czy blokowanie treści w Internecie to konieczny element walki z przestępczością, czy początek cyfrowej cenzury? Z okazji Dnia Przeciwko Cenzurze Internetu (obchodzonego 12 marca) o granicach między bezpieczeństwem a wolnością słowa w sieci, skuteczności blokowania stron oraz nowych regulacjach Unii Europejskiej rozmawiamy z insp. dr. Bartłomiejem Kowalskim, wykładowcą WSPiA Rzeszowskiej Szkoły Wyższej i Komendantem Powiatowym Policji w Przeworsku.

Internet stał się jednym z najważniejszych obszarów współczesnej debaty publicznej. To przestrzeń swobodnej wymiany informacji, ale również miejsce, w którym pojawiają się przestępstwa, dezinformacja czy nielegalne treści. W ostatnich latach państwa oraz instytucje międzynarodowe coraz częściej wprowadzają regulacje mające zwiększyć bezpieczeństwo użytkowników i ograniczyć dostęp do szkodliwych materiałów. Jednocześnie rośnie dyskusja o tym, gdzie przebiega granica między ochroną obywateli a ryzykiem wprowadzenia cenzury w sieci.

×

W kontekście nowych regulacji, takich jak unijny Akt o usługach cyfrowych (DSA), a także rosnącej roli największych platform technologicznych w moderowaniu treści, pytanie o przyszłość wolności słowa w Internecie nabiera szczególnego znaczenia.

O tym, czy obecne narzędzia pozwalają skutecznie walczyć z przestępczością w sieci, czy blokady stron internetowych są rzeczywiście skuteczne oraz jakie wyzwania stoją dziś przed organami ścigania, z okazji przypadającego 12 marca Dnia Przeciwko Cenzurze Internetu, rozmawiamy z insp. dr. Bartłomiejem Kowalskim, wykładowcą WSPiA Rzeszowskiej Szkoły Wyższej oraz Komendantem Powiatowym Policji w Przeworsku.

1. Czy z punktu widzenia organów ścigania obecne narzędzia do walki z przestępczością w Internecie są wystarczające?

insp. Dr Bartłomiej Kowalski: Organy ścigania w ostatnich latach otrzymały szereg nowych narzędzi prawnych i technologicznych umożliwiających walkę z przestępczością internetową, takich jak możliwość zabezpieczania danych cyfrowych, narzędzia do monitorowania i śledzenia transakcji w wirtualnych walutach, narzędzia służące do zbierania informacji z publicznie dostępnych źródeł internetowych (OSINT) przydatne do identyfikacji podejrzanych i śledzenia powiązań w mediach społecznościowych. Jednocześnie dynamiczny rozwój technologii – szyfrowanej komunikacji, usług chmurowych czy sieci anonimowych – powoduje, że przestępcy często wyprzedzają możliwości organów państwa. Dlatego wielu ekspertów podkreśla, że obecne instrumenty są pomocne, ale nie zawsze w pełni wystarczające. Kluczowe stają się m.in. szybka współpraca z platformami internetowymi, sprawne procedury międzynarodowe oraz rozwój kompetencji cyfrowych w służbach.

2. Czy przeciętny użytkownik jest w stanie aktualnie ominąć takie blokady, czy są one faktycznie skuteczne?

insp. Dr Bartłomiej Kowalski: W praktyce wiele mechanizmów blokowania treści w Internecie można stosunkowo łatwo ominąć przy użyciu narzędzi takich jak VPN, zmiana serwera DNS czy korzystanie z alternatywnych sieci. Oznacza to, że dla bardziej zaawansowanych użytkowników blokady techniczne nie zawsze stanowią realną barierę. Ich skuteczność polega raczej na ograniczeniu masowego dostępu do nielegalnych treści niż całkowitym ich wyeliminowaniu. Z perspektywy państwa często chodzi o zmniejszenie skali zjawiska i utrudnienie dostępu do treści szkodliwych, zwłaszcza dla osób nieposiadających wiedzy technicznej. Na przykład na podstawie znowelizowanej ustawy o grach hazardowych (obowiązującej od 1 lipca 2017 r.) w celu ograniczenia dostępu do nielegalnych serwisów i ochrony konsumentów realizowane jest blokowanie stron hazardowych.

Kolejną kwestią jest wprowadzenie przepisów podnoszących do 15 lat, wieku wstępu na media społecznościowe, a co za tym idzie wprowadzenia narzędzi do weryfikacji wieku. Unia Europejska pracuje nad wspólnym standardem weryfikacji tożsamości, czyli europejską tożsamością cyfrową (eID UE). W Polsce aplikacja mObywatel ma zostać rozszerzona o tzw. atrybut wieku, który pozwoli ograniczyć dzieciom dostęp do mediów społecznościowych bez ujawniania innych danych.

3. Rządy tłumaczą blokowanie treści walką z przestępczością i ochroną dzieci. Gdzie kończy się bezpieczeństwo, a zaczyna cenzura?

insp. Dr Bartłomiej Kowalski: Granica między bezpieczeństwem a cenzurą jest przedmiotem stałej debaty publicznej. Z jednej strony państwo ma obowiązek chronić obywateli przed przestępczością, w tym przed rozpowszechnianiem materiałów związanych z wykorzystywaniem dzieci, terroryzmem czy oszustwami. Z drugiej strony zbyt szerokie lub nieprecyzyjne mechanizmy blokowania treści mogą prowadzić do ograniczania debaty publicznej. Dlatego w państwach demokratycznych kluczowe znaczenie mają przejrzyste procedury, kontrola sądowa oraz możliwość odwołania się od decyzji o usunięciu treści.

4. Gdy mówimy o wzmocnieniu kontroli treści publikowanych w sieci, przeciwnicy powołują się na lęk przed wprowadzeniem cenzury. Czy jednak nie istnieje już pewien rodzaj cenzury poprzez dominację dużych platform technologicznych?

insp. Dr Bartłomiej Kowalski: Współczesna debata o wolności słowa coraz częściej dotyczy nie tylko działań państwa, ale również roli największych platform technologicznych. Firmy takie jak Google, Meta czy Microsoft mają ogromny wpływ na to, jakie treści są promowane w wyszukiwarkach, mediach społecznościowych czy systemach reklamowych. Kilka firm kontroluje ponad 90% globalnego dostępu do treści społecznych, wyszukiwania i dystrybucji aplikacji. Gdy jedna platforma usuwa, ogranicza widoczność (shadow-ban, deboosting) lub całkowicie blokuje konto/treść, to w praktyce odcina setki milionów ludzi od publicznego dyskursu. Niektórzy badacze mówią w tym kontekście o „moderacji prywatnej” lub „władzy platform”. Nie jest to cenzura w klasycznym sensie państwowym, ale decyzje podejmowane przez prywatne podmioty mogą realnie wpływać na widoczność informacji w sieci. Dlatego pojawiają się postulaty większej transparentności algorytmów i zasad moderacji treści. Już afera Cambridge Analytica uzmysłowiła jakim potężnym narzędziem do zbierania informacji i profilowania dysponują platformy społecznościowe i co może się stać, jeśli te dane zostaną wykorzystane.

5. Czy istnieje ryzyko, że narzędzia stworzone do walki z pedofilią czy terroryzmem mogą zostać w przyszłości użyte do blokowania niewygodnych opinii?

insp. Dr Bartłomiej Kowalski: Takie obawy pojawiają się w debacie publicznej, szczególnie w kontekście rozwoju technologii monitorowania i filtrowania treści. Narzędzia stworzone w określonym celu mogą w teorii zostać wykorzystane w szerszym zakresie, jeśli zmienią się przepisy lub praktyka ich stosowania.

Dlatego eksperci podkreślają znaczenie mechanizmów kontroli – np. nadzoru sądowego, jasnych definicji nielegalnych treści oraz transparentności działania instytucji publicznych. W demokratycznym systemie prawnym takie zabezpieczenia mają ograniczać ryzyko nadużyć.

6. Unijny Akt o usługach cyfrowych wprowadza nowe obowiązki dla platform internetowych. Czy z perspektywy Policji ułatwi on walkę z przestępczością w sieci?

insp. Dr Bartłomiej Kowalski: Akt o usługach cyfrowych (Digital Services Act -DSA) wprowadza m.in. obowiązek szybszego reagowania platform na zgłoszenia nielegalnych treści, większą przejrzystość zasad moderacji oraz nowe mechanizmy współpracy z organami państwa. Z punktu widzenia organów ścigania może to ułatwić identyfikowanie i usuwanie treści związanych z przestępczością internetową. Polska jest zobowiązana do wdrożenia przepisów unijnego rozporządzenia DSA, jednocześnie skuteczność tych przepisów będzie zależeć od ich ostatecznego kształtu, bowiem trwają prace legislacyjne nad dwoma projektami ustaw implementujących europejski Akt o usługach cyfrowych. Projekt ustawy ustanawia krajową procedurę wydawania nakazów uniemożliwienia dostępu do treści nielegalnych w rozumieniu DSA. Procedura ta dotyczy treści, których rozpowszechnianie może wyczerpywać znamiona najpoważniejszych czynów zabronionych określonych w przepisach prawa karnego, w tym m.in. przestępstw o charakterze terrorystycznym, handlu ludźmi, ciężkich przestępstw przeciwko życiu i zdrowiu, przestępstw z nienawiści, poważnych przestępstw seksualnych, oszustw oraz nielegalnego obrotu towarami i usługami. Dużo również będzie zależeć od praktycznego wdrożenia przepisów oraz współpracy między platformami, instytucjami publicznymi i organizacjami społecznymi.

7. Czy istnieje ryzyko, że mechanizmy blokowania treści mogą zostać wykorzystane w niewłaściwy sposób?

insp. Dr Bartłomiej Kowalski: Każdy system regulacyjny niesie ze sobą ryzyko nadużyć lub błędów. Automatyczne systemy moderacji mogą usuwać treści legalne, np. materiały edukacyjne czy dziennikarskie, jeśli zostaną błędnie zakwalifikowane jako nielegalne.

Dlatego tak ważne jest, aby mechanizmy usuwania treści były przejrzyste, a użytkownicy mieli możliwość odwołania się od decyzji platformy. W wielu krajach podkreśla się, że równowaga między bezpieczeństwem w sieci a ochroną wolności słowa powinna być jednym z kluczowych elementów polityki cyfrowej.


Insp. dr Bartłomiej Kowalski, wykładowca akademicki związany z WSPiA Rzeszowską Szkoła Wyższą od 2011 roku, Komendant Powiatowy Policji w Przeworsku, były Naczelnik Wydziału do Walki z Przestępczością Gospodarczą w Komendzie Wojewódzkiej Policji w Rzeszowie, autor publikacji naukowych, organizator i czynny uczestnik licznych konferencji naukowych i seminariów szkoleniowych. Łączy zainteresowania naukowe z zakresu kryminologii i prawa karnego w tym m.in. przestępczości ekonomicznej i cyberprzestępczości z praktyką zawodową.