"Przestępcy często wyprzedzają możliwości organów państwa". Insp. dr Bartłomiej Kowalski o granicach kontroli Internetu
Państwa i platformy technologiczne dysponują dziś coraz większymi możliwościami monitorowania i blokowania treści w Internecie. Jednocześnie rozwój szyfrowanej komunikacji i anonimowych sieci sprawia, że przestępcy wciąż znajdują sposoby na omijanie tych mechanizmów. O skuteczności obecnych narzędzi, nowych regulacjach UE i granicy między bezpieczeństwem a wolnością słowa rozmawiamy z insp. dr. Bartłomiejem Kowalskim, wykładowcą WSPiA Rzeszowskiej Szkoły Wyższej i Komendantem Powiatowym Policji w Przeworsku.
Członkowie organizacji Reporterzy Bez Granic i Amnesty International ustanowili w 2008 r. 12 marca każdego roku Dniem Przeciwko Cenzurze Internetu, chcąc zachęcić społeczeństwo do aktywnych działań na rzecz wolności w sieci. W Polsce działania te promuje Fundacja Panoptykon, której zdaniem współczesny świat "stopniowo popada w obsesję zagrożenia". Historia ostatnich lat pokazuje jednak, że mamy się czego obawiać. Rozprzestrzenianie dezinformacji, kradzież danych, cyberprzemoc, uzależniające mechanizmy platform cyfrowych czy coraz bardziej wyrafinowane formy manipulacji użytkownikiem dowodzą, że sieć nie jest już neutralnym narzędziem komunikacji, lecz przestrzenią realnych konfliktów, asymetrii władzy i systemowych nadużyć. Wolność Internetu nie może więc objawiać się obojętnością wobec tych zagrożeń. O tym jak chronić otwartość sieci, nie rezygnując zarazem z bezpieczeństwa i podmiotowości jej użytkowników rozmawiamy z insp. dr. Bartłomiejem Kowalskim, wykładowcą WSPiA Rzeszowskiej Szkoły Wyższej i Komendantem Powiatowym Policji w Przeworsku.
Czy z punktu widzenia organów ścigania obecne narzędzia do walki z przestępczością w Internecie są wystarczające?
insp. dr Bartłomiej Kowalski: Organy ścigania w ostatnich latach otrzymały szereg nowych narzędzi prawnych i technologicznych umożliwiających walkę z przestępczością internetową, takich jak możliwość zabezpieczania danych cyfrowych, narzędzia do monitorowania i śledzenia transakcji w wirtualnych walutach, narzędzia służące do zbierania informacji z publicznie dostępnych źródeł internetowych (OSINT) przydatne do identyfikacji podejrzanych i śledzenia powiązań w mediach społecznościowych. Jednocześnie dynamiczny rozwój technologii – szyfrowanej komunikacji, usług chmurowych czy sieci anonimowych – powoduje, że przestępcy często wyprzedzają możliwości organów państwa. Dlatego wielu ekspertów podkreśla, że obecne instrumenty są pomocne, ale nie zawsze w pełni wystarczające. Kluczowe stają się m.in. szybka współpraca z platformami internetowymi, sprawne procedury międzynarodowe oraz rozwój kompetencji cyfrowych w służbach.
Czy przeciętny użytkownik jest w stanie aktualnie ominąć takie blokady, czy są one faktycznie skuteczne?
insp. dr Bartłomiej Kowalski: W praktyce wiele mechanizmów blokowania treści w Internecie można stosunkowo łatwo ominąć przy użyciu narzędzi takich jak VPN, zmiana serwera DNS czy korzystanie z alternatywnych sieci. Oznacza to, że dla bardziej zaawansowanych użytkowników blokady techniczne nie zawsze stanowią realną barierę. Ich skuteczność polega raczej na ograniczeniu masowego dostępu do nielegalnych treści niż całkowitym ich wyeliminowaniu. Z perspektywy państwa często chodzi o zmniejszenie skali zjawiska i utrudnienie dostępu do treści szkodliwych, zwłaszcza dla osób nieposiadających wiedzy technicznej. Na przykład na podstawie znowelizowanej ustawy o grach hazardowych (obowiązującej od 1 lipca 2017 r.) w celu ograniczenia dostępu do nielegalnych serwisów i ochrony konsumentów realizowane jest blokowanie stron hazardowych.
Kolejną kwestią jest wprowadzenie przepisów podnoszących do 15 lat, wieku wstępu na media społecznościowe, a co za tym idzie wprowadzenia narzędzi do weryfikacji wieku. Unia Europejska pracuje nad wspólnym standardem weryfikacji tożsamości, czyli europejską tożsamością cyfrową (eID UE). W Polsce aplikacja mObywatel ma zostać rozszerzona o tzw. atrybut wieku, który pozwoli ograniczyć dzieciom dostęp do mediów społecznościowych bez ujawniania innych danych.
Rządy tłumaczą blokowanie treści walką z przestępczością i ochroną dzieci. Gdzie kończy się bezpieczeństwo, a zaczyna cenzura?
insp. dr Bartłomiej Kowalski: Granica między bezpieczeństwem a cenzurą jest przedmiotem stałej debaty publicznej. Z jednej strony państwo ma obowiązek chronić obywateli przed przestępczością, w tym przed rozpowszechnianiem materiałów związanych z wykorzystywaniem dzieci, terroryzmem czy oszustwami. Z drugiej strony zbyt szerokie lub nieprecyzyjne mechanizmy blokowania treści mogą prowadzić do ograniczania debaty publicznej. Dlatego w państwach demokratycznych kluczowe znaczenie mają przejrzyste procedury, kontrola sądowa oraz możliwość odwołania się od decyzji o usunięciu treści.
Gdy mówimy o wzmocnieniu kontroli treści publikowanych w sieci, przeciwnicy powołują się na lęk przed wprowadzeniem cenzury. Czy jednak nie istnieje już pewien rodzaj cenzury poprzez dominację dużych platform technologicznych?
insp. dr Bartłomiej Kowalski: Współczesna debata o wolności słowa coraz częściej dotyczy nie tylko działań państwa, ale również roli największych platform technologicznych. Firmy takie jak Google, Meta czy Microsoft mają ogromny wpływ na to, jakie treści są promowane w wyszukiwarkach, mediach społecznościowych czy systemach reklamowych. Kilka firm kontroluje ponad 90 proc. globalnego dostępu do treści społecznych, wyszukiwania i dystrybucji aplikacji. Gdy jedna platforma usuwa, ogranicza widoczność (shadow-ban, deboosting) lub całkowicie blokuje konto/treść, to w praktyce odcina setki milionów ludzi od publicznego dyskursu. Niektórzy badacze mówią w tym kontekście o „moderacji prywatnej” lub „władzy platform”. Nie jest to cenzura w klasycznym sensie państwowym, ale decyzje podejmowane przez prywatne podmioty mogą realnie wpływać na widoczność informacji w sieci. Dlatego pojawiają się postulaty większej transparentności algorytmów i zasad moderacji treści. Już afera Cambridge Analytica uzmysłowiła jakim potężnym narzędziem do zbierania informacji i profilowania dysponują platformy społecznościowe i co może się stać, jeśli te dane zostaną wykorzystane.
Czy istnieje ryzyko, że narzędzia stworzone do walki z pedofilią czy terroryzmem mogą zostać w przyszłości użyte do blokowania niewygodnych opinii?
insp. dr Bartłomiej Kowalski: Takie obawy pojawiają się w debacie publicznej, szczególnie w kontekście rozwoju technologii monitorowania i filtrowania treści. Narzędzia stworzone w określonym celu mogą w teorii zostać wykorzystane w szerszym zakresie, jeśli zmienią się przepisy lub praktyka ich stosowania. Dlatego eksperci podkreślają znaczenie mechanizmów kontroli - np. nadzoru sądowego, jasnych definicji nielegalnych treści oraz transparentności działania instytucji publicznych. W demokratycznym systemie prawnym takie zabezpieczenia mają ograniczać ryzyko nadużyć.
Unijny Akt o usługach cyfrowych wprowadza nowe obowiązki dla platform internetowych. Czy z perspektywy Policji ułatwi on walkę z przestępczością w sieci?
insp. dr Bartłomiej Kowalski: Akt o usługach cyfrowych (Digital Services Act -DSA) wprowadza m.in. obowiązek szybszego reagowania platform na zgłoszenia nielegalnych treści, większą przejrzystość zasad moderacji oraz nowe mechanizmy współpracy z organami państwa. Z punktu widzenia organów ścigania może to ułatwić identyfikowanie i usuwanie treści związanych z przestępczością internetową. Polska jest zobowiązana do wdrożenia przepisów unijnego rozporządzenia DSA, jednocześnie skuteczność tych przepisów będzie zależeć od ich ostatecznego kształtu, bowiem trwają prace legislacyjne nad dwoma projektami ustaw implementujących europejski Akt o usługach cyfrowych. Projekt ustawy ustanawia krajową procedurę wydawania nakazów uniemożliwienia dostępu do treści nielegalnych w rozumieniu DSA. Procedura ta dotyczy treści, których rozpowszechnianie może wyczerpywać znamiona najpoważniejszych czynów zabronionych określonych w przepisach prawa karnego, w tym m.in. przestępstw o charakterze terrorystycznym, handlu ludźmi, ciężkich przestępstw przeciwko życiu i zdrowiu, przestępstw z nienawiści, poważnych przestępstw seksualnych, oszustw oraz nielegalnego obrotu towarami i usługami. Dużo również będzie zależeć od praktycznego wdrożenia przepisów oraz współpracy między platformami, instytucjami publicznymi i organizacjami społecznymi.
Czy istnieje ryzyko, że mechanizmy blokowania treści mogą zostać wykorzystane w niewłaściwy sposób?
insp. dr Bartłomiej Kowalski: Każdy system regulacyjny niesie ze sobą ryzyko nadużyć lub błędów. Automatyczne systemy moderacji mogą usuwać treści legalne, np. materiały edukacyjne czy dziennikarskie, jeśli zostaną błędnie zakwalifikowane jako nielegalne. Dlatego tak ważne jest, aby mechanizmy usuwania treści były przejrzyste, a użytkownicy mieli możliwość odwołania się od decyzji platformy. W wielu krajach podkreśla się, że równowaga między bezpieczeństwem w sieci a ochroną wolności słowa powinna być jednym z kluczowych elementów polityki cyfrowej.
Insp. dr Bartłomiej Kowalski, wykładowca akademicki związany z WSPiA Rzeszowską Szkoła Wyższą od 2011 roku, Komendant Powiatowy Policji w Przeworsku, były Naczelnik Wydziału do Walki z Przestępczością Gospodarczą w Komendzie Wojewódzkiej Policji w Rzeszowie, autor publikacji naukowych, organizator i czynny uczestnik licznych konferencji naukowych i seminariów szkoleniowych. Łączy zainteresowania naukowe z zakresu kryminologii i prawa karnego w tym m.in. przestępczości ekonomicznej i cyberprzestępczości z praktyką zawodową.