Katarzyna Janota

Do kogo należy przyszłość?

Coraz doskonalsze metody zbierania, przechowywania oraz analizy big data, stanowią szansę na skuteczne udoskonalanie doświadczeń użytkowników. Tworzenie w pełni spersonalizowanych usług, inteligentnych miast, systemów edukacji czy zoptymalizowanej opieki zdrowotnej, wydają się być pożądanymi sposobami wykorzystywania tej technologii. Jednak, jak dowiodła niedawna afera związana z Cambridge Analityca, rosnące zbiory zmiennych danych mogą być też skutecznym narzędziem manipulacji politycznych. Społeczna świadomość tych mechanizmów jest niska a prawodawcy nie nadążają rozwojem technologii przez co prywatne inicjatywy uzyskują często praktycznie nieograniczony dostęp do danych obywateli, zarazem nie będąc zobowiązanymi do udostępniania ich swoim zleceniodawcom, takim jak rządy czy urzędy miejskie. Walka o demokratyzację tych informacji od lat stanowi cel aktywistów ruchu Open Data. Czy zmiana modeli wykorzystywania danych w erze Przemysłu 4.0 jest możliwa?

Jak twierdzi Eric Schmidt, CEO Google - aktualnie w ciągu 48 godzin generowanych jest więcej danych niż w okresie od początku powstania cywilizacji do 2003 roku. Coraz doskonalsze metody zbierania, przechowywania oraz analizy big data, stanowią szansę na ciągłe udoskonalanie doświadczeń użytkowników, poprawę ich funkcjonowania w świecie czy relacji z otoczeniem (Ballav A., 2017). Dostarczanie w pełni spersonalizowanych usług, budowa inteligentnych miast, systemów edukacji czy zoptymalizowanej opieki zdrowotnej zorientowanej na potrzeby pacjentów, wydają się być pożądanymi sposobami wykorzystywania tej technologii. Jednak, jak dowiodła niedawna afera związana z Cambridge Analytica, rosnące zbiory zmiennych danych stanowią również znakomite narzędzie manipulowania całymi społeczeństwami i wpływania na politykę (Sumpter D., 2018).

Przeniknąć szlaki mórz

Tak oto młody marynarz, który pływa po omacku do czasu, zanim pokieruje nim światło doświadczenia (…) tutaj przekona się od razu, że za przewodnika ma doświadczenie tysięcy nawigatorów. (Mayer-Schönberger V., Cukier K., 2017: 106).

Kiedy wojskowa kariera Matthew Fontaine Maury’ego, nawigatora, astronoma i oficera amerykańskiej marynarki wojennej, załamała się w wyniku nieszczęśliwego wypadku, otrzymał on stanowisko szefa Składu Map i Narzędzi. Zgromadzone tam zbiory żeglarskich przyrządów, map, wykresów i dzienników pokładowych, obejmujących cały okres istnienia amerykańskiej floty, dotychczas były traktowane po macoszemu. Maury, któremu poprzednie trzy lata upłynęły na rehabilitacji a, przy okazji, zgłębianiu tajników meteorologii, nawigacji i innych marynistycznych technik, dostrzegł potencjał drzemiący w zakurzonych skrzyniach i pokrytych solą księgach.

Po zinwentaryzowaniu zbiorów, wraz z dwunastoma współpracownikami, zaczął wydobywać na światło dzienne gromadzone przez dziesięciolecia notatki i obliczenia, które następnie kategoryzowali i umieszczali w specjalnie w tym celu zaprojektowanych tabelach. Informacje na temat wysokości fal, temperatury, prędkości i kierunku wiatru oraz pory pomiaru przypisywane były do odpowiednich segmentów mapy Oceanu Atlantyckiego podzielonego na bloki o wymiarach pięciu stopni szerokości i długości geograficznej.

Uporządkowanie danych obnażyło zestaw wzorców, dzięki którym komodor Maury zyskał możliwość zweryfikowania oraz zoptymalizowania dotychczasowych tras żeglugi (zwykle o około jedną trzecią, co było źródłem sznacznychporych oszczędności dla armatorów). Kolejnym krokiem była standaryzacja dziennika pokładowego, do którego prowadzenia oraz dostarczania Obserwatorium Marynarki Wojennej USA, zostali zobowiązani kapitanowie floty. W zamian oferowano im udoskonalone mapy, przygotowywane przez zespół Maury’ego, który twierdził że Każdy statek na pełnym morzu może od tej pory być uważany za pływające obserwatorium, za świątynię nauki (Mayer-Schönberger V., Cukier K., 2017: 105). Jego wydana w 1855 roku praca ,,The Physical Geography of the Sea” opierała się na 1,2 miliona pojedynczych danych i przyczyniła do położenia pierwszej transatlantyckiej linii telegraficznej (Mayer-Schönberger V., Cukier K., 2017: 106). Wnosząc zasługi w rozwój marynarki, Maury stał się równocześnie jednym z prekursorów korzystania z dużych, nieuporządkowanych zbiorów danych, których używanie pozwala odkrywać wzorce niemożliwe do dostrzeżenia z poziomu małej ilości, nawet najbardziej szczegółowych informacji.

Przeniknąć morza danych

Termin big data nie ma jednoznacznej definicji. (…) uważa się, że (…) obejmuje to, co może być zrealizowane w dużej skali, a nie może być wykonane w małej, w celu uzyskania nowej wiedzy, lub stworzenia nowej wartości w sposób, który zmieni rynki, organizacje, relacje między rządami a obywatelami itp. (Mayer-Schönberger V., Cukier K., 2017: 20).

Do przetworzenia zasobów informacyjnych Składu Map i Narzędzi wystarczył Maury’emu dwunastoosobowy zespół. W XXI wieku przed badaczami stanęło wyzwanie o nieco innej skali - ilość skumulowanych informacji przekroczyła możliwości operacyjne komputerów i wymogła przeprojektowanie dotychczas używanych narzędzi analitycznych. Dość wspomnieć, że w ciągu ostatnich dwóch lat, ponad 3,7 biliona użytkowników internetu wygenerowało 90 proc. istniejących danych (Marr B., 2018). Co minutę wysyłane jest 16 milionów wiadomości tekstowych, 156 milionów e-maili; codziennie 5 bilionów razy użytkownicy korzystają z wyszukiwarek (i zapewne przytaczane tu wartości z maja 2018 r., są już dawno nieaktualne). Dane stały się podstawową siłą napędową gospodarek, nie tylko cyfrowych. To dzięki ich wszechstronnej eksploatacji funkcjonują usługi i rodzą się milionowe przedsiębiorstwa. U podstaw tej nowej ekonomii leżą procesy takie, jak: gromadzenie, analiza, porównywanie, wykorzystywanie oraz sprzedaż danych.

Większość obywateli i obywatelek nie zdaje sobie sprawy ze złożoności tego zagadnienia. Ekspansja technologiczna oraz modernizacyjne aspiracje rządów przyczyniły się do powstania poważnego rozwarstwienia pomiędzy prawem a gospodarką cyfrową. Prawo wciąż nawiązuje do czasów, w których internet był zaledwie narzędziem badań akademickich (Symons T., Bass T., 2017: 12) - zaś legislatorzy często mają trudności ze kompleksowym zrozumieniem, w jaki sposób dane są eksploatowane. Nie pomagają w tym oczywiście niezliczone klauzule tajności, obejmujące również algorytmy które, podobnie jak inne dobra intelektualne, stanowią tajemnicę handlową. Nieprzezroczystość ich elementów składowych pozostawia pole do niezliczonych nadużyć, których dopuszczają się cyfrowi potentaci (O’Neil C., 2017: 65). Pozorna bezpłatność udostępnianych w internecie usług, przez długie lata uspokajała użytkowników, nie mających świadomości, jak głęboko w ich życie sięgają narzędzia analityczne.

Jak piszą Viktor Mayer-Schönberger i Kenneth Cukier, autorzy książki ,,Big data. Efektywna analiza danych”, zwrot informacyjny (datyfikacja) napędzany przez masowe cyfryzowanie danych przechowywanych w formie analogowej (digitalizacja), wiąże się nie tylko z koniecznością przebudowywania dostępnych narzędzi analitycznych - ale także sposobów myślenia o informacji (Mayer-Schönberger V., Cukier K., 2017: 75). Przy aktualnych możliwościach technologicznych, operowanie na wielkich, nieuporządkowanych zbiorach, wiąże się z koniecznością porzucenia precyzji - obsesja dokładności jest następstwem analogowej ery ograniczonych informacji. Kiedy danych było niewiele, każda pojedyncza informacja miała duże znaczenie i dlatego w analizach starano się uniknąć popełnienia nawet najmniejszego błędu (Mayer-Schönberger V., Cukier K., 2017: 61).

Modele predykcyjne, państwo policyjne

Od jakiegoś czasu istotnym elementem batalii o zapanowanie nad generowanymi przez instytucje publiczne (a tym samym społeczeństwa) stały się ponadnarodowe inicjatywy mające na celu zapewnienie obywatelom i obywatelkom dostępu do tego najcenniejszego surowca XXI wieku.

Brak wykwalifikowanych kadr oraz niska świadomość wartości informacji sprawiłay, że w wielu przypadkach rządy i samorządy, bez skrupułów przekazywały zarządzanie kompleksowymi zbiorami danych przedsiębiorstwom zewnętrznym (Feldman N., 2018). Jeśli dodać do tego fakt, że instytucje te często nie mają nowoczesnych narzędzi by monitorować nadużycia, zaś legislacja nie nadąża za błyskawicznym rozwojem technologii, wiele firm zyskało niepowtarzalną szansę wzbogacenia się i rozwijania swoich usług kosztem - a często również wbrew dobru obywateli.

We wstępie do książki Cathy O’Neil ,,Broń matematycznej zagłady. Jak algorytmy zwiększają nierówności i zagrażają demokracji”, Kamil Fejfer, analityk nierówności społecznych i rynku pracy, pisze o negatywnych konsekwencjach bezmyślnego stosowania modeli predykcyjnych - zarówno przez państwo, jak i prywatne przedsiębiorstwa. Mowa tutaj o wszelkiego rodzaju ,,obiektywnych” zabiegach racjonalizatorskich, w których ludzie traktowani są przez twórców algorytmów, jako kolejny zasób, którego wykorzystanie należy zoptymalizować (O’Neil C., 2017: 12). Przykładami takiej ,,optymalizacji” są stosowane w USA predykcyjne modele przestępczości, których stosowanie uderza w - i tak już najmocniej narażone na społeczną degradację - grupy najuboższych obywateli i obywatelek (Feldman N., 2018). Do dotychczas stosowanego programu analitycznego CompStat, dołączyła założona przez współtwórcę PayPala, Petera Thiela, firma Palantir, która zjadła zęby na wspieraniu sił wywiadowczych USA podczas wojen w Afganistanie i Iraku (Waldman P., Chapman L., Robertson J., 2018). Wspieranie CIA na froncie - począwszy od dostarczania kompleksowych informacji na temat podejrzanych, przez unikanie bomb-pułapek aż po próby dotarcia do Osamy bin Ladena, mocno się opłaciło. Zachęcone skutecznością algorytmów Palantira agendy federalne, postanowiły poszerzyć współpracę o sprawowanie kontroli nad cywilami - badanie bezpieczeństwa lotów, śledzenie imigrantów czy przewidywanie potencjalnych przestępstw.

W Polsce nie dostrzega się jeszcze szerokiego zastosowania big data w biznesie czy zarządzaniu, jednak zważywszy na ekspansywność tych technologii, ich wprowadzenie jest nieuniknione (choć należy zaznaczyć, że obowiązujące w Unii Europejskiej regulacje prawne niwelują ryzyko nadużyć na skalę tych, które mają miejsce w USA czy w Chinach). Cathy O’Neil w swojej książce przytacza dziesiątki przykładów, takich jak uzależnianie akceptacji podania o pracę, wysokości ubezpieczenia lub udzielanego kredytu, od szczegółowej analizy wszystkich dostępnych informacji na temat aplikującego. Big-data wykorzystywane są również do badania wydajności pracy i optymalizowania jej czasu, na przykład - uzależniania godzin pracy od pór natężonego ruchu klientów w lokalach usługowych. Prowadzi to do sytuacji, w których pracownicy kończą zmianę o 23 i rozpoczynają kolejną o 6 rano (Mayer-Schönberger V., Cukier K., 2017: 16), zupełnie tracąc szansę oraz siły na zmianę swojego dramatycznego losu.

Oczywiście konsekwencje tej eksternalizacji kosztów ponoszą sami obywatele - a co za tym idzie, państwo (zakładając, że wciąż istnieją publiczna służba zdrowia czy ubezpieczenia społeczne). Jak podkreśla O’Neil zazwyczaj osoby pokrzywdzone w wyniku stosowania modeli analitycznych nie mają nawet szansy poznać kryteriów, według których zostały ocenione, ponieważ informacje te zostały ukryte za klauzulami ,,ściśle tajne”, znakami towarowymi itp.

Niepostrzeżenie, informacje takie jak lokalizacja, zwyczaje zakupowe, historia przeglądania czy rodzaj polubień w mediach społecznościowych stały się walutą, w której użytkownicy płacą za tak zwane bezpłatne usługi. Przedsiębiorstwa, których modele biznesowe oparte są na nieograniczonym eksploatowaniu danych, unikają konkretnych odpowiedzi na pytania dotyczące faktycznej skali prowadzonej przez nie inwigilacji (O’Neil C., 2017: 56). Zasłanianie się marketingowymi argumentami polegającymi na tłumaczeniu, że pobierane są tylko konieczne informacje, zaś ich użycie służy głównie optymalizacji oraz personalizacji doświadczeń użytkowników w obcowaniu z usługami i produktami, przestaje być przekonujące. Zaś pięćset milionów pobrań Adblocka najlepiej o tym świadczy.

Fajfer sugeruje, że w pewnych sytuacjach ,,[państwo] mogłoby powstrzymywać tworzenie modeli matematycznych, z których część ma tak wiele negatywnych skutków ubocznych. To właśnie instytucja państwa, dzięki mądrym politykom regulacyjnym, mogłaby tworzyć ramy, w których przedsiębiorstwa osiągały by zysk bez przerzucania kosztów swojej działalności na całe społeczeństwa. A przynajmniej mogłyby formować takie polityki, które ograniczałyby zakres eksternalizacji.” (O’Neil C., 2017: 18). Jednak scenariusz sprawowania państwowej kontroli nad tymi danymi wydaje się być pieśnią bardzo odległej przyszłości, biorąc pod uwagę fakt, jak słabo radzimy sobie z tymi informacjami, które już znajdują się w rządowej pieczy i mają być udostępniane obywatelom.

Otwarte dane jako narzędzie demokracji bezpośredniej

Wielkie zbiory danych wygenerowane przez całe społeczeństwo, niekoniecznie muszą stać się elementami strategii biznesowej przedsiębiorstw. Gromadzone w państwowych portalach oraz udostępniane do analizy oraz przetwarzania na jasno ustalonych zasadach, mogą być skutecznym narzędziem w rękach osób, dla których ważne jest dobro społeczeństwa (Tauberer J., 2014; Symons T., Bass T., 2017). Należy pamiętać jednak o tym, by stosować rozróżnienie - ,,Duże dane to nie to samo co otwarte dane. Duże dane mogą być otwarte (np. lokalizacja pojazdów komunikacji zbiorowej, informacje o stopniu zanieczyszczenia powietrza), ale jednocześnie otwarte dane nie muszą być „big” (np. rozkład jazdy komunikacji zbiorowej, wykaz szkół, struktura własnościowa podmiotów)” (Mikołajczyk K., 2015).

Aktywiści ruchu open data dowiedli, że umiejętnie wykorzystywane dane mogą stanowić źródło potężnych korzyści gospodarczych i społecznych. Wiąże się to jednak z licznymi zagrożeniami wynikającymi z potencjalnych nieprawidłowości i nadużyć, na które narażeni zostaną obywatele. Przeszkodą na drodze do bezpiecznego przetwarzania jest brak spójnych norm, które dawałyby ich właścicielom gwarancję kontroli oraz poczucie bezpieczeństwa.

Gdyby na przykład istniała powszechnie dostępna możliwość anonimowego udostępniania wybranych danych - czy to w ogólnej bazie, czy na przykład na potrzeby pojedynczych inicjatyw - zaś jej wprowadzenie poprzedziła rzetelna edukacja obywateli, prawdopodobnie udałoby się zredukować wiele lęków (Symons T., Bass T., 2017: 23).

Część przedsiębiorstw, między innymi Google, pretenduje do miana informacyjnych filantropów udostępniając gromadzone przez siebie informacje rządom czy organizacjom pożytku publicznego (Mayer-Schönberger V., Cukier K., 2017: 14). Jednak, w obliczu ogromu danych, którymi dysponują - jest to kropla w morzu potrzeb. I niezbędne stają się systemowe rozwiązania zwracające władzę nad informacjami ich prawowitym właścicielom, gwarantujące przejrzystą demokratyczną kontrolę nad tymi zasobami. Zaś - jak wskazują autorzy raportu ,,Future of personal data economy” - moment wprowadzenia bardziej restrykcyjnych przepisów ochrony danych osobowych (GDPR), stanowi świetną okazję do podjęcia próby zmiany stosunków sił w tej nierównej walce (Symons T., Bass T., 2017: 8).

W 2017 roku, dzięki unijnym wymogom, wszystkie państwa UE posiadały już rządowe portale dedykowane upublicznianiu danych (Carrara W., Radu C., Vollers H., 2017: 29). Regularnie aktualizowane i ogólnie dostępne, powinny one służyć tworzeniu skutecznych usług, odpowiadających na konkretne, zbadane uprzednio, potrzeby społeczeństw. Według raportu ,,Open Data Maturity in Europe 2017” przygotowanego przez European Data Portal, Polska (obok Węgier i Portugalii) wciąż znajduje się w ogonie państw zachęcających do ponownego wykorzystywania open data. Nasz serwis https://danepubliczne.gov.pl/ publikuje automatycznie mniej niż 25 proc. danych (Carrara W., Radu C., Vollers H., 2017: 25).

Niedobór kadr, niedostatecznie wyedukowani urzędnicy oraz przestarzałe zaplecze technologiczne sprawiają, że spełnianie kolejnego unijnego wymogu - edukowania społeczeństwa w zakresie odczytywania oraz eksploatowania zawartości wspomnianego serwisu ma się niezbyt dobrze. Pobieżny przegląd ,,Raportu nt. Rezultatów wdrażania programu otwierania danych publicznych” (Departament Rozwoju Usług Cyfrowych i Otwartości Danych w Ministerstwie Cyfryzacji we współpracy z Pełnomocnikami ds. otwartości danych, 2017), może przywodzić na myśl wniosek, że - owszem - inicjatywy popularyzatorskie się pojawiają, dosyć słabo prezentuje się jednak kwestia ich wdrażania i wykorzystywania. Wystarczy spojrzeć na efekty pracy różnego rodzaju inicjatyw takich jak ,,Koduj dla Polski” - z jednej strony chwalebnych, z drugiej obejmujących bardzo wąski zakres prospołecznego działania i pozbawionych szerokiego społecznego kontekstu.

Brakującym ogniwem w akcjach propagujących wykorzystanie otwartych danych wydaje się być projektowanie zorientowane na konkretne problemy masowych użytkowników. Polska wciąż nie doczekała się aktywnej agendy na miarę angielskiego British Design Council doradzającego ,,brytyjskiemu rządowi w zakresie jak najefektywniejszego wykorzystania designu w stymulacji rozwoju ekonomicznego oraz poprawy sytuacji społeczeństwa w Wielkiej Brytanii” (Rochacka W., 2011). Biorąc pod uwagę coraz szersze możliwości kształcenia się w zakresie projektowania oraz rosnącą grupę projektantów i projektantek użytkowych, co roku kończących rodzime i zagraniczne uczelnie wyższe - warto zastanowić się nad włączeniem elementów prospołecznych w system edukacji projektowej w kraju.

Delivery-Driven Government

Istnieją państwa, w których wdrażanie unijnych wytycznych przebiega bardziej sprawnie, zaś obywatele mają szansę otrzymać bardziej kompleksowe przygotowanie do pracy z udostępnionymi danymi. Edukacja społeczeństwa w tym zakresie jest o tyle istotna, że w przyszłości nasze losy mogą zależeć właśnie od kompetencji cyfrowych. Jak dowodzi Bill Schmarzo, autor książki ,,Big data: Understanding How Data Powers Big Business” - rola rządów w rewolucji analitycznej jest jasna - powinny pielęgnować współpracę z uniwersytetami oraz przemysłem i tym samym wspierać zrównoważony rozwój (Schmarzo B., 2018) oraz tworzyć przepisy adekwatne do aktualnej wiedzy na temat sztucznej inteligencji, czy wykorzystania big data. Zwlekanie z przeprowadzaniem reform, niefrasobliwe traktowanie odgórnych wymogów (takich, jak wytyczne unijne) jest równoznaczne z oddaniem pola przedsiębiorcom i pozwolenie, żeby to rynki ,,decydowały”, co może mieć fatalne konsekwencje dla obywateli - zarówno w kategoriach ochrony prywatności, jak i ogólnej jakości życia. Niekontrolowane wykorzystanie wrażliwych informacji może stanowić również zagrożenie dla suwerenności państwa, czego dowiodły podejrzenia o manipulacje wyborcze w USA.

Istnieje pogląd, że podobnie jak cyfrowi potentaci - Google, Facebook czy Amazon, również rządy powinny skoncentrować się na wykorzystaniu swoich zasobów i zacząć przekształcać się w kompleksowe, wielofunkcyjne platformy. Jak zauważa Sangeet Paul Choudary, współautor książki ,,Platform Revolution: How Networked Markets Are Transforming the Economy and How to Make Them Work for You”, rządy powinny uważnie przyglądać się metodom, wykorzystywanym przez prekursorów tak zwanej ekonomii platformowej (Choudary S. P., 2015). Umiejętność tworzenia nowych, skalowalnych struktur organizacyjnych i zarządzanie państwem w duchu agile wydaje się być mrzonką. Jednak z drugiej strony, liczne dysfunkcje negatywnie wpływające na odbiór państwowych instytucji - ich nieefektywność czy niesprawiedliwość, mogłyby zostać zniwelowane dzięki umiejętnemu wykorzystaniu big data.

Choudary zauważa, że otwieranie danych publicznych, nie poparte solidną strategią oraz jasną wizją ich wykorzystywania w interesie państwa i obywateli, niewiele zmieni (Cabrera M., 2017). Projektowanie i wdrażanie przypadkowych usług, nawet bardzo dobrych, ale rozwijanych poza kontekstem całego ekosystemu, ma niewielki sens, bo nie wpływa na poprawę stanu infrastruktury, a co za tym idzie ogólny dobrostan jej użytkowników.

Istnieją miejsca, w których władze postawiły sobie za cel jak najszybsze opanowanie i wykorzystanie gromadzonych przez siebie zasobów informacyjnych. Jednym z przykładów przytaczanych przez Choudary’ego jest jego rodzinny Singapur, który aspiruje do miana jednego z najnowocześniejszych państwa świata. Do 2023 roku rząd chce przeszkolić armię 20 tysięcy urzędników w zakresie analizy danych. Powołał także, złożoną z wielu specjalistów radę do spraw etycznego wykorzystania sztucznej inteligencji oraz big data, która ma sprawować pieczę nad tym, by uniknąć działania na szkodę obywateli, co jest istotne również w kontekście licznych doniesień o niekontrolowanej inwigilacji mieszkańców Singapuru przez rząd (Lee T., 2013).

W Unii Europejskiej dobrze rokującym projektem jest DECODE (Decentralised Citizen Owned Data Ecosystems) - jeden z największych projektów mających na celu opracowanie praktycznych narzędzi, które umożliwią obywatelom wspólnoty sprawowanie kontroli nad tym w jaki sposób przetwarza się ich dane - a także decydowania o tym, na jakich warunkach są one udostępniane (Symons T., Bass T., 2017: 9). W rzeczywistości, w której Google ma ponad 90 proc. udział w rynku przeglądarek, zaś Facebook dzięki 2 miliardom użytkowników jest w stanie penetrować około 89 proc. osób w internecie, podjęcie szerokich działań mających na celu chociażby najbardziej lapidarną ochronę prywatności, jest niezbędne.

Narzędzia tworzone przez DECODE mają wesprzeć procesy kontroli nad tym komu i w jaki sposób udostępniane są dane - a zarazem umożliwić ich anonimowe wykorzystanie dla pożytku publicznego (na przykład przez rządy, inkubatory innowacji czy organizacje non-profit). Podzielono je na trzy kategorie - narzędzia umożliwiające uczestniczenie w demokracji cyfrowej bez konieczności ujawniania swojej tożsamości; narzędzia wspierające alternatywne modele wymiany gospodarczej w ramach kooperatyw platformowych (na przykład wspólne korzystanie ze środków transportu, zakwaterowania czy sąsiedzkich wymian narzędzi bądź umiejętności); narzędzie umożliwiające stworzenie zanonimizowanej platformy gromadzącej duże ilości wymieszanych danych, które mogłyby być wykorzystywane w rozmaitych inicjatywach mających na celu poprawienie dobrostanu ich właścicieli oraz ich otoczenia, na przykład w ramach Smart Citizen Lab (Symons T., Bass T., 2017: 51).

Tworzenie takich rozbudowanych baz umożliwiłoby bezpieczne gromadzenie informacji na temat jakości powietrza, zanieczyszczenia hałasem, jakości wody czy wspieranie tworzenia oszczędnej sąsiedzkiej infrastruktury energetycznej (Symons T., Bass T., 2017: 55).

Projektowanie wyżej wymienionych narzędzi, które docelowo mają być bezpłatne oraz powszechnie dostępne, wiąże się z koniecznością sprostania szeregowi wyzwań legislacyjnych oraz organizacyjnych, które zagwarantują efektywność, przejrzystość oraz możliwość sprawowania demokratycznej kontroli nad zgromadzonymi zasobami. Dlatego do współtworzenia DECODE zaproszeni zostali główni interesariusze tej inicjatywy - obywatele, eksperci od nowych technologii oraz otwartego internetu, naukowcy oraz specjaliści z innych dziedzin. Pilotażowe programy ruszyły w 2017 w dwóch europejskich miastach - Amsterdamie i Barcelonie (Symons T., Bass T., 2017: 66).

Odzyskać przyszłość

Jak zauważają autorzy raportu ,,Me, my data and I: The future of the personal data economy”, wprowadzenie nowych regulacji dotyczących przetwarzania danych osobowych na terenie Unii Europejskiej, stanowi znakomitą szansę by podjąć próbę odzyskania władzy nad danymi personalnymi. Równolegle prowadzone są coraz liczniejsze inicjatywy, mające na celu promowanie korzystania z otwartych danych i używania ich do tworzenia narzędzi poprawiających funkcjonowanie obywateli i obywatelek, zarówno w obrębie wspólnot sąsiedzkich, jak i instytucji państwowych. Żeby tego rodzaju narzędzia były skuteczne, należy mobilizować do udziału w ich projektowaniu, osoby które w przyszłości będą z nich korzystały, ponieważ jedynie badania potrzeb użytkowników oraz testy, mogą zagwarantować efektywność i funkcjonalność wypracowanych rozwiązań.

Edukacja społeczeństwa z zakresu nowoczesnych metod zarządzania informacjami jest istotna również w kontekście dalszej przyszłości. Udział big data w budowaniu nowoczesnych gospodarek będzie wzrastał. Równocześnie już teraz przyczynia się do rozwoju technologii, takich jak sztuczna inteligencja czy internet rzeczy, których szerokie zastosowanie prowadzi do automatyzacji pracy, dotychczas wykonywanej przez ludzi. W momencie, w którym algorytmizacja zaczyna wywierać coraz silniejszy wpływ na gospodarkę, popularyzacja wiedzy na temat jej wykorzystania oraz konsekwencji, powinna stanowić jeden z elementów edukacji obywatelskiej. Odzyskanie demokratycznej kontroli nad kierunkami rozwoju technologicznego stanowiło jeden z postulatów książki Nicka Srnicka i Alexa Williamsa ,,Inventing the future. Postcapitalism and a World Without Work” (Srnicek N., Williams A., 2015: 348). Według autorów, są to decyzje polityczne i powinny stanowić element uprzednio zaplanowanej strategii długofalowego rozwoju - nie zaś, jak to dzieje się obecnie, być dyktowane wyłącznie logiką zysku. Zmiana kapitalistycznego paradygmatu i demokratyzacja tych kluczowych dla przyszłości decyzji, mogłyby stanowić podwaliny nowego, postkapitalistycznego społeczeństwa (Srnicek N., Williams A., 2015: 264).

Bibliografia

  1. A Conversation with Alex "Sandy" Pentland, 2012, Reiventing Society in the wake of big data, Edge Ballav A., 2017, Predictive user experience, UX Matters
  2. Cabrera M., 2017, How to implement Tim O’Reilly’s vision for Government-as-a-Platform, IMB Government Industry Blog
  3. Carrara W., Radu C., Vollers H., 2017, Open Data Maturity in Europe 2017. Open Data for a European Data Economy, European Data Portal
  4. Choudary S. P., 2015, Country-as-a-platform: why Singapore’s future needs a platform strategy, Pipes to Platforms
  5. Departament Rozwoju Usług Cyfrowych i Otwartości Danych w Ministerstwie Cyfryzacji we współpracy z Pełnomocnikami ds. otwartości danych, 2017, Raport nt. rezultatów wdrażania Programu otwierania danych publicznych, Ministerstwo Cyfryzacji, Warszawa
  6. Feldman N., 2018, The Future of Policing Is Being Hashed Out in Secret, Bloomberg Opinion
  7. Freedman D. H., 2016, Basic Income: A Sellout of the American Dream, MIT Technology Review
  8. Lee T., 2013, Singapore an advanced surveillance state, but citizens don’t mind, Tech in Asia
  9. Marr B., 2018, How Much Data Do We Create Every Day? The Mind-Blowing Stats Everyone Should Read, Forbes
  10. Mayer-Schönberger V., Cukier K., 2017, Rewolucja, która zmieni nasze myślenie, pracę i życie. big data, efektywna analiza danych, mt biznes, Warszawa
  11. Mikołajczyk K., 2015, big data vs. Open Data, Fundacja ePaństwo
  12. O’Neil C., 2017, Broń matematycznej zagłady. Jak algorytmy zwiększają nierówności i zagrażają demokracji, Wydawnictwo Naukowe PWN SA, Warszawa
  13. Parker G.G., Van Alstyne M. W., Choudary S. P., 2016, Platform Revolution: How Networked Markets Are Transforming the Economy and How to Make Them Work for You, W. W. Norton & Company, Inc.
  14. Rochacka W., 2011, Design, czyli zaprojektujmy lepszy świat, Narodowe Centrum Kultury, Warszawa
  15. Schmarzo B., 2018, How State Governments Can Protect and Win with big data, AI and Privacy, Dell EMC
  16. Srnicek N., Williams A., 2015, Inventing the future. Postcapitalism and a World Without Work, Verso Books, Londyn
  17. Sumpter D., 2018, Outnumbered: From Facebook and Google to Fake News and Filter-bubbles – The Algorithms That Control Our Lives, Bloomsbery Sigma
  18. Symons T., Bass T., 2017, Me, my data and I: The future of the personal data economy, European Commission, Directorate-General of Communications Networks, Content & Technology.
  19. Tauberer J., 2014, Open Government Data: The Book, Lulu Publishing
  20. Waldman P., Chapman L., Robertson J., 2018, Palantir knows everything about you, Bloomberg