O autorze
Igor Ostrowski – jeden z inicjatorów IGF Polska, członek Rady ds. IGF przy Sekretarzu Generalnym ONZ, wspólnik Kancelarii Dentons, ekspert rynku mediów, telekomunikacji i nowych technologii, były wiceminister w Ministerstwie Administracji i Cyfryzacji i przewodniczący rządowej Rady ds. Cyfryzacji.

Od ponad 20 lat zajmuje się prawem mediów, telekomunikacji i nowych technologii oraz ochroną własności intelektualnej. Doradza wiodącym sieciom telewizyjnym, operatorom kablowym i producentom w prowadzeniu działalności w Polsce i Europie. Specjalizuje się w regulacjach rynku mediów oraz ochronie własności intelektualnej. Brał udział w projektach prywatyzacyjnych i międzynarodowych transakcjach fuzji i przejęć. Łączy doświadczenie zdobyte w międzynarodowych kancelariach prawnych (w biurach warszawskich i nowojorskich), administracji publicznej, oraz analityka. Inicjator działań obywatelskich, wspierających powszechny dostęp do internetu i otwartych zasobów edukacyjnych. Współzałożyciel Stowarzyszenia Projekt Polska i fundacji Centrum Cyfrowe. Jest jedynym polskim członkiem Multistakeholder Advisory Group przy Internet Governance Forum – agendzie ONZ zajmującej się kwestiami funkcjonowania, ładu i rozwoju internetu na świecie.

Cenzura czy walka z mową nienawiści?

Popularne portale społecznościowe są dziś dla ogromnych rzesz internautów bardzo istotnymi źródłami informacji i nośnikami treści, przez które docierają ze swym przekazem do innych. Coraz częściej słychać głosy, że takie serwisy jak Facebook niejednokrotnie w sposób nieuprawniony i nieprzejrzysty blokują i filtrują udostępnianie treści. W Polsce resort cyfryzacji w projekcie nowelizacji ustawy o świadczeniu usług drogą elektroniczną chce wprowadzić zapis, by portale nie mogły same blokować kont i treści, które zamieszczają ich właściciele. Czy słusznie?

Głośna ostatnio sprawa usunięcia przez pracowników Facebooka zdjęć wykonanych podczas marszu narodowców odbywającego się 11 listopada w Warszawie przez znanego fotoreportera Chrisa Niedenthala, pokazała po raz kolejny problem z cenzurą w Internecie. Co gorsze, po ponownej próbie umieszczenia ich na Facebooku, konto znanego fotografa zostało zablokowane na 24 godziny.

- To smutne. Zamieściłem kilkanaście zdjęć z Marszu Niepodległości spotkały się żywą reakcją oglądających. Były komentowane, lajkowane, wywołały wielką dyskusję, ale nagle zniknęły. Napisałem do Facebooka, że to nie fair, że to nie mnie powinni karać, że nie jest w porządku karać profesjonalnego fotografa za pokazywanie tego, co było - mówił mediom Chris Niedenthal.

O sprawie zrobiło się głośno i ostatecznie Facebook przywrócił pierwszy post ze zdjęciami oraz przeprosił fotoreportera, tłumacząc, że to błąd pracownika.

Chris Niedenthal miał to szczęście, że jest znanym fotoreporterem i sprawą zainteresowały się media. Jakie szanse w podobnej sytuacje miałby zwykły Jan Kowalski pasjonat fotografii, wcale nie sympatyzujący ze środowiskiem ONR, który poszedł na marsz narodowców 11 listopada, zrobił zdjęcia i kilka z nich opublikował na Facebooku. A po kilku godzinach jakiś 21-latek z Irlandii, który pracuje dla Facebooka stwierdził, że zblokuje te obrazy, bo są na nich krzyże celtyckie. Czy dokumentowanie jakichś wydarzeń i upublicznienie ich, jest równoznaczne z propagowaniem „mowy nienawiści”?


Facebook korzysta oczywiście z botów, które automatycznie wychwytują treści związane z przemocą, terroryzmem, pornografią, rasizmem, itp. Ma też olbrzymią rzeszę, blisko 5 tys. moderatorów, którzy bazując na szczegółowych (i skomplikowanych) instrukcjach opracowanych przez portal decydują czy daną treść usunąć czy nie. Jednak biorąc pod uwagę 2-miliardową społeczność Facebooka i generowane przez nich treści, ta ogromna liczba moderatorów często nie wystarcza. Niektórzy z nich skarżyli się kilka miesięcy temu dziennikarzom brytyjskiego dziennika „The Guradian”, że na ocenę zgłoszeń mają niecałe 10 sekund. W takiej sytuacji pomyłki są wpisane w ich pracę.

To co spotkało Chris Niedenthala nie było więc pierwszym przypadkiem, kiedy Facebook zablokował konto polskiego użytkownika portalu, powołując się na zapisy własnego regulaminu, mimo że udostępniane w ten sposób treści są legalne. Rok temu o podobnej sprawie było równie głośno, gdy Facebooka zblokował profile: Marszu Niepodległości, Ruchu Narodowego, Obozu Narodowo-Radykalnego czy Młodzieży Wszechpolskiej. Zwracano wówczas uwagę, że szczegółowe kryteria i procedury, którymi w tym zakresie kierują się koncerny internetowe są często niedostępne lub co najmniej nieprzejrzyste dla użytkowników.

Sprawę zainteresowała się wtedy Anna Streżyńska, minister cyfryzacji. Tłumaczyła zresztą wówczas, że pierwszą osobą, która zwróciła jej uwagę na takie praktyki i skarżyła się na zablokowanie konta, nie był nikt związany ze skrajną prawicą, ale przedstawiciel liberalnego światopoglądu z drugiego krańca politycznych sporów.

Minister Cyfryzacji nie ukrywa, że chce, aby Facebook podlegał polskiemu prawu. Dlatego w projekcie nowelizacji ustawy o świadczeniu usług drogą elektroniczną (UŚUDE) resort proponuje, by Facebook nie mógł, tak jak to ma miejsce obecnie, sam blokować pewnych kont i treści, które zamieszczają ich właściciele.

A jak w tej sytuacji rozwiązać problem „mowy nienawiści”? - Oddajemy władzę w ręce użytkowników, czyli to oni zgłaszają hejt, gdy czują naruszenie swoich dóbr osobistych, bo hejt to często zniesławienie czy obelga, potwarz. Zgłaszają też fake newsy, gdy czują zagrożenie w sprawie otrzymywania wiarygodnych informacji – mówiła w niedawnej rozmowę z Gazetą Wyborczą Anna Streżyńska. I dodała, że zgodnie z koncepcją projektu ustawy, sprawy związane z hejtem i publikacją fake newsów miałyby rozstrzygać specjalnie powołane do tego 24-godzinne sądy.

Osobną kwestią jest egzekwowania wyroków polskich sądów przez Facebooka czy Google’a. Czy polski sąd można uznać za właściwy w sprawie usług świadczonych drogą elektroniczną przez podmiot amerykański, prowadzący działalność w Europie z terytorium Irlandii? Przedstawiciele polskich sądów czy rządu mogą argumentować, że koncerny internetowe prowadzą szeroką działalność w naszym kraju - zatrudniają pracowników, prowadzą dla nich szkolenia i kampanie marketingowe, mają swe biura. W tej sytuacji nie mogą zaprzeczyć, że prowadzą działalność w Polsce i powinny respektować lokalne prawo i wyroki sadów.

Czy jednak mimo to, w razie odmowy, polski rząd będzie występować do sadu irlandzkiego lub amerykańskiego o wsparcie w wykonaniu wyroku? Jeśli tak, to jakim trybem? Być może pomocna będzie w tym tzw. koncepcja wirtualnego zakładu, zgodnie z którą przyjmuje się, że jeśli firma do swej działalności wykorzystuje stronę internetową przygotowaną sposób zrozumiały dla obywateli danego kraju (w ich języku), posiada tam wirtualny zakład i powinna respektować zapisy tamtejszego prawa i wyroki sądów. Taką koncepcję wydaje się popierać Komisja Europejska.

Czy są to rozwiązania, które rozwiążą problem cenzury i mowy nienawiści? Trzeba powiedzieć sobie uczciwie - wcale nie jest łatwo prowadzić walkę z bezprawnymi treściami w sieci jednocześnie nie popadając w pułapkę stosowania prywatnej cenzury. Na pewno należy domagać się od popularnych serwisów społecznościowych zwiększenia transparentności kryteriów podejmowania decyzji o blokowaniu treści. Nie jest też dobrze, gdy jako internauci jesteśmy zdani w tym zakresie jedynie na łaskę i niełaskę firm internetowych i wydaje się logiczne, że organy państwa powinny mieć coś w tym zakresie do powiedzenia.

Na pewno jednym z kluczowych pytań, na które trzeba będzie sobie odpowiedzieć jest, kto ma rozstrzygać czy opublikowana treść to hejt – 21-latek z Dublina zatrudniony przez Facebooka czy sąd w kraju, którego obywatelem jest internauta podejrzany o propagowanie „mowy nienawiści”? A może w grę wchodzą jeszcze inne rozwiązanie?

Warto tu wspomnieć o ciekawej praktyce przyjętej w Norwegii, gdzie norweski publiczny nadawca radiowo-telewizyjny (NRK) na swych stronach internetowych wprowadził wymóg, aby osoba, która chce skomentować treść artykułu, odpowiedziała wcześniej na pytanie związane z jego treścią. Celem tego było oczywiście podniesienie poziomu dyskusji i ograniczenia liczby pojawiających się wulgaryzmów czy hejtu. Jak przekonywali wydawcy w NRK, takie rozwiązanie powoduje, że wiele osób zyskuje czas na refleksję, w jaki sposób się wypowiadać na publicznym forum.

O tym jak ograniczać hejt w dyskusjach na forach internetowych myśli wielu wydawców. W Polsce przedstawiciele Agory przekonują np. że poziom dyskusji skutecznie podniosło ograniczenie jej tylko do grona osób, które płacą za prenumeratę (tylko oni mają możliwość zamieszczania komentarzy).

Oczywiście znajdą się osoby, które będą przeciwko takim rozwiązaniom protestować argumentując, że to ogranicza ich wolność wypowiedzi. Może więc warty jest rozważenia wprowadzenia karty praw użytkowników internetu, tj. przepisów, które chroniłyby internautów i ich prywatność. Postukuje się też, by gwarantowała ona internautom możliwość komunikowani się bez poczucia, że ktoś ciągle ich podgląda i patrzy im przez ramię.

Na taki krok zdecydowały się już p. Włochy. Zwolennikiem takiego rozwiązania jest m.in. Tim Berners-Lee, uważany za jednego z twórców Internetu. W Polsce temat ten pojawił się kilka lat temu przy okazji protestów przeciw ACTA. Może warto do niego wrócić?

O tych kwestiach będziemy dyskutować na konferencji IGF Polska, która zaczyna się dziś (21.11. 2017 r.) w Centrum Nauki Kopernik w Warszawie.
Znajdź nas na Znajdź nas na instagramie
Trwa ładowanie komentarzy...