O autorze
Igor Ostrowski – jeden z inicjatorów IGF Polska, członek Rady ds. IGF przy Sekretarzu Generalnym ONZ, wspólnik Kancelarii Dentons, ekspert rynku mediów, telekomunikacji i nowych technologii, były wiceminister w Ministerstwie Administracji i Cyfryzacji i przewodniczący rządowej Rady ds. Cyfryzacji.

Od ponad 20 lat zajmuje się prawem mediów, telekomunikacji i nowych technologii oraz ochroną własności intelektualnej. Doradza wiodącym sieciom telewizyjnym, operatorom kablowym i producentom w prowadzeniu działalności w Polsce i Europie. Specjalizuje się w regulacjach rynku mediów oraz ochronie własności intelektualnej. Brał udział w projektach prywatyzacyjnych i międzynarodowych transakcjach fuzji i przejęć. Łączy doświadczenie zdobyte w międzynarodowych kancelariach prawnych (w biurach warszawskich i nowojorskich), administracji publicznej, oraz analityka. Inicjator działań obywatelskich, wspierających powszechny dostęp do internetu i otwartych zasobów edukacyjnych. Współzałożyciel Stowarzyszenia Projekt Polska i fundacji Centrum Cyfrowe. Jest jedynym polskim członkiem Multistakeholder Advisory Group przy Internet Governance Forum – agendzie ONZ zajmującej się kwestiami funkcjonowania, ładu i rozwoju internetu na świecie.

Blaski i cienie algorytmów

Zaawansowana analityka, która jest podstawą do tworzenia algorytmów, znajduje coraz szersze zastosowanie w serwisach internetowych. Ma coraz większy wpływ na to, jakie treści docierają za ich pośrednictwem do nas - zwykłych internautów. Czy jednak zawsze przynosi nam to tylko korzyści?

W lipcu tego roku na stronie Politechniki Warszawskiej dr inż. Tomasz Trzciński z Wydziału Elektroniki i Technik Informacyjnych pochwalił się, że jego zespół pracuje nad algorytmem, który odróżni materiały mające szansę stać się hitem w Internecie od tych o mniejszym potencjale dla masowego odbiorcy.

Wyjaśniał, że wszystko zaczęło się od współpracy z amerykańskim koncernem medialnym w ramach projektu realizowanego razem z firmą Tooploox, gdzie dr Trzciński prowadzi zespół badawczy. – Filmy, które koncern ten publikuje w sieciach społecznościowych, mają łącznie po 9 miliardów wyświetleń miesięcznie – mówił badacz z Politechniki. – Firmie zależy, żeby wcześniej wiedzieć, czy przygotowane treści będą odpowiednio popularne - podkreślał.

Jak wygląda praca nad przewidywaniem tego, co będzie popularne w Internecie? – Obróbce poddajemy dane dotyczące oglądania treści w Internecie, przede wszystkim w sieciach społecznościowych – wyjaśniał dr Trzciński. – Wykorzystujemy do tego głębokie sieci neuronowe. Adaptujemy struktury tych sieci, żeby uzyskać odpowiedzi na interesujące nas pytania. Chcemy dzięki nim przewidzieć, jak bardzo popularny będzie dany materiał. Na razie skupiamy się głównie na aspektach wizualnych oraz tekstowych. Bierzemy pod uwagę początek filmu czy elementy, które dostrzegamy na pierwszy rzut oka, takie jak tytuł i zajawka. Wiemy, że jeśli coś przykuje uwagę odbiorcy na chwilę, to zostanie on z daną treścią na dłużej. Lepiej sprawdzają się ciepłe kolory: czerwony, żółty, brązowy. Mniejszą popularnością cieszą się materiały z przewagą barw uważanych za chłodne, zielonego czy niebieskiego i z dużą ilością tekstu - tłumaczył.


Podkreślał, że badanie jego zespołu wzbudzają duże zainteresowanie. – Pojawiają się zapytania z domów mediowych, agencji marketingowych, osób tworzących materiały prasowe na Facebooku, konkretnych marek, które chcą się skutecznie promować – informował dr Trzciński.

To nie może dziwić, bo też możliwość wykorzystania takiego algorytmu to gratka dla agencji marketingowej pracującej nad reklamą. Jej celem jest, by realizowany materiał zainteresował jak największą liczbę klientów. Jednak można dopatrzyć się w tym i ciemniejszej strony, bo które medium nie skusi się, by swym odbiorcom serwować materiały, które mogą zainteresować jak najszersze grono z nich. W efekcie mogą np. pomijać relacjonowanie wydarzeń istotnych z punktu widzenia interesu społecznego, ale niemających szans na masową „klikalność”. Druga sprawa to fakt, że w efekcie może to prowadzić do schlebiania przez internetowe portale czy media społecznościowe gustom mniej ambitnym ze stratą dla materiałów trudniejszych i głębszych.

To zresztą nic nowego. Wiadomo, że najpopularniejsze serwisy społecznościowe: Facebook, Google czy YouTube od dawna wykorzystują algorytmy, które sterują tym, co użytkownik widzi w tych mediach i w coraz większym stopniu wpływają na to, jak użytkownik widzi i rozumie świat. Google np. wprowadza do swojej wyszukiwarki kilkaset zmian algorytmów rocznie, aby jak najbardziej usprawnić proces wyszukiwania. - Ci którzy potrafią manipulować tymi algorytmami manipulują milionami ludzi na całym świecie - można usłyszeć coraz częściej.

Wydaje się, że problem może w przyszłości narastać. Coraz głośniej jest o takich technologiach jak big data, sztuczna inteligencja czy nauczania maszynowe, które wykorzystywana są do tworzenia algorytmów. Rzeczywiście, jesteśmy bez wątpienia świadkami nowej rewolucji przemysłowej napędzanej przez dane, które można traktować jako surowiec ery cyfryzacji (tak jak węgiel w okresie rewolucji przemysłowej). Korzystając z sieci, aplikacji mobilnych Internetu rzeczy, generujemy dane w zawrotnym tempie, a z drugiej strony jako klienci i obywatele oczekujemy wygody i spersonalizowanego traktowania. Trudno się więc dziwić, że tacy potentaci jak Google czy Facebook pracują nad maksymalnym wykorzystaniem posiadanych informacji, aby przy pomocy analityki zadowolić użytkowników, ale i w ten sposób zwiększyć swe zyski.

Pytanie jednak czy to jest zawsze z korzyścią dla zwykłego użytkownika internetu? Przedstawiciele branży internetowej i firm informatycznych opracowujących algorytmy, będą przekonywać, że jak najbardziej. Bo np. dzięki tym algorytmom fan muzyki będzie mógł sięgnąć do kolejnych utworów, które mogą trafić w jego gusta i rozszerzyć swą playlistę.

Jednak nie zawsze musi to być z korzyścią dla internauty. Weźmy np. popularną platformę booking.com. Wiadomo, że gdy szukamy miejsca noclegowego, poprzez adres IP i dane geolokalizacyjne może ona ustalić, gdzie się znajdujemy i gdy np. pojechaliśmy do Berlina i na miejscu przez smartfona zaczynamy szukać tam hotelu, algorytm tej platformy już wie, że może zaproponować nam wyższe ceny, bo niejako jesteśmy w sytuacji przymusowej.

W jakimś stopniu problem ten dostrzega Unia Europejska, w która przygotowywanym rozporządzeniu e-Privacy, (ma wejść w życie w maju 2018 r.), chce np. wprowadzić zakaz blokowania dostępu do treści użytkownikom, którzy nie zgodzą się na przetwarzanie ich danych (tzw. cookie walls), Wprowadzony ma być też obowiązek przypominania użytkownikom co sześć miesięcy o możliwości wycofania zgody na przetwarzanie danych.

Wiadomo, że branża reklamy internetowej obawia się tych rozwiązań, bo takie przepisy mogą utrudnić im dostęp do surowca, którym są dane. Dlatego też były minister cyfryzacji i administracji, a dziś europoseł Michał Boni podkreśla, że rozwiązania dotyczące uregulowania prywatności w sieci powinny być rozsądne i zrównoważone i w równym stopniu chronić interesy biznesu i obywateli, którzy są coraz bardziej świadomi swoich własnych praw związanych z utrzymaniem prywatności i ochrony poufności. Równowaga jest konieczna wobec zbliżającej się rewolucji z zakresu Big Data.

Dlatego w swych poprawkach do rozporządzenia o e-Privacy zaproponował on otwartość na wykorzystywanie plików cookies oraz uniknięcie sytuacji, w której wszystkie zgody użytkowników miałyby być udzielane za pośrednictwem ustawień dużych wyszukiwarek. Podkreśla on, że otwartość na wyłączenia w tym zakresie dotyczące czynności o charakterze osobistym i domowym ma zasadnicze znaczenie dla możliwości świadczenia innowacyjnych usług dla jednostek na ich żądanie.

Zapewne jednak rozporządzeni e-Privacy nie rozwiąże do końca problemu i można się spodziewać, że w przyszłości będzie trzeba podjąć debatę społeczna, czy chcemy pozwolić, by dane o nas były traktowane jako surowiec wykorzystywane (i w jakim stopniu) przez twórców algorytmów na użytek internetowych serwisów.

Skutki działania algorytmów stają się już na tyle problematyczne, że zainteresowały się nimi Komisja Europejska oraz Organizacja Współpracy Gospodarczej i Rozwoju (OECD). Według nich wykorzystanie algorytmów cenowych staje się poważnym wyzwaniem dla organów antymonopolowych. Przestrzegają, że tego typu oprogramowanie może doprowadzać do wzrostu cen na rynku, ułatwiać tworzenie się trudnych do wykrycia karteli, a także zmów cenowych – wynikających jednak nie z uprzedniego porozumienia się konkurentów, lecz z faktu używania przez nich algorytmów cenowych opartych na podobnych regułach (np. nakazujących podwyższanie ceny za produkt lub usługę wedle modelu przedstawione na przykładzie booking.com lub po przeanalizowaniu cen konkurencji).

Kilka miesięcy temu Margrethe Vestager, unijna komisarz ds. konkurencji, zaproponowała, by firmy wdrażały systemy komputerowe regulujące ceny w oparciu o zasadę „compliance by design” (podobnej do znanej z RODO zasady „privacy by design”, tj. konieczność uwzględniania wymogów dla ochrony danych w trakcie projektowania rozwiązań). Zobowiązywałaby ona podmioty do takiego projektowania oprogramowania, by nie dało się ich wykorzystywać do celów realizacji zmów cenowych.

Innym pomysłem na ograniczenie negatywnych skutków wykorzystywania algorytmów jest nałożenie wymogu udostępniania kodu źródłowego algorytmów przez firmy, które je wykorzystują. Przeciwko temu jednak mocno protestuje biznesu – bo jest to dla ich waży zasób i nie wierzą, że prawo autorskie uchroni go przed skopiowaniem przez innych.
W USA natomiast Federalna Komisja Handlu stworzyła biuro technologii, badań i dochodzenia, czyli oddzielny wydział zajmujący się m.in. badaniem działania algorytmów na rynku.

Te przykłady, jak i poruszony w poprzednim moim wpisie temat bańki filtracyjnej pokazują, że rozwój internetu niesie ciągle nowe wyzwania. Sztuką w tym wszystkim jest zaś szukanie równowagi między interesami biznesu a ochroną praw i prywatności użytkowników sieci i konsumentów.

Wydaje się, że uregulowanie kwestii stosowania algorytmów, czym Komisja Europejska zmierza się w przyszłości poważnie zająć, w dużym stopniu będzie miało wpływ na to czy bańkę filtracyjną, w którą wtłaczani są internauci, będzie przebić łatwiej czy trudniej.
Trwa ładowanie komentarzy...