4(16)2017

Rola analizy społeczno-ekonomicznej w procesie decyzyjnym państwa i w życiu publicznym

Uczestnicy debaty:

Adam Jasser – podsekretarz stanu w Kancelarii Prezesa Rady Ministrów i prezes Urzędu Ochrony Konkurencji i Konsumentów (pracował w sektorze publicznym w latach 2010–2016),

Karol Olejniczak – specjalizuje się w problematyce polityki publicznej i ewaluacji, pracuje w Centrum Europejskich Studiów Regionalnych i Lokalnych (EUROREG), Uniwersytet Warszawski,

Marcin Sakowicz – ekspert zarządzania publicznego, polityki publicznej, pracuje w Krajowej Szkole Administracji Publicznej im. Prezydenta Rzeczypospolitej Polskiej Lecha Kaczyńskiego,

Barbara Więckowska – specjalistka polityki zdrowia i ubezpieczeń społecznych, długoletni pracownik instytucji publicznych (Kancelaria Prezesa Rady Ministrów, Ministerstwo Zdrowia), wykładowca SGH,

Marcin Zawicki – zajmuje się problematyką polityki publicznej i zarządzania publicznego, Uniwersytet Ekonomiczny w Krakowie,

Andrzej Zybała – kierownik Katedry Polityki Publicznej KES SGH (moderator dyskusji).

Andrzej Zybała: Dziękuję bardzo za przyjęcie zaproszenia. Umówiliśmy się, że celem naszej dyskusji będzie przyjrzenie się analizie społeczno-ekonomicznej. W punkcie wyjścia proponuję, aby rozważać ją jako zasób różnego typu wiedzy (policy knowledge), która – w założeniu – ma dostarczać podstaw do podejmowania decyzji publicznych z myślą o tym, aby były bardziej optymalne czy lepsze od takich decyzji, które mają opierać się tylko na intuicji, przeświadczeniu itp. Chodzi zatem o analizę, która ma być zasobem wiedzy zracjonalizowanej, weryfikowalnej, pochodzącej z wiarygodnych źródeł.

Proponuję, abyśmy próbowali – w różnorodny sposób – zarysować diagnozę sytuacji w zakresie roli analizy w decyzjach publicznych. Wyobrażam sobie, że może to być poprzez przytoczenie znaczących przykładów procesów, zjawisk czy poprzez zaproponowanie zgeneralizowanych diagnoz (hipotez).

Istotne byłoby – o ile to możliwe – zarysowanie pewnej dynamiki, jaka występowała w tym obszarze, powiedzmy od 1990 r. Sporo zjawisk można tu na pewno wyodrębnić. Wydaje mi się, że można zaryzykować tezę, iż rósł zasób wiedzy eksperckiej, który był i jest wytwarzany w różnego typu podmiotach publicznych i obywatelskich. Za kluczowy moment uznałbym wstąpienie do Unii Europejskiej. Wówczas – dzięki unijnemu finansowaniu – zaczęto realizować naprawdę dużo projektów analitycznych, w których powstawała wiedza ekspercka. W zasadzie można to potraktować jako przełom cywilizacyjny.

Inną sprawą jest to, czy jakość wytwarzanej wiedzy jest właściwa, czy jest dobrze dopasowana do potrzeb państwa, samorządów, sfery obywatelskiej. Kolejną rzeczą jest to, czy instytucje, decydenci potrafią ją wykorzystywać we właściwy sposób w procesie podejmowania decyzji. W tej sferze od dawna słychać sporo narzekań, ale to akurat jest dość powszechne, nawet w państwach o bardzo długiej tradycji rzetelnej analizy.

Rozwój analizy po 1990 r.

Marcin Sakowicz: Zacznę nieco historycznie i osobiście, a chcę przytoczyć przykład analizy w Rządowym Centrum Studiów Strategicznych (RCSS). To tam właśnie trafiłem po studiach w SGH, a dokładnie do Departamentu Struktur Państwa. I to w momencie, gdy jego zadaniem była analiza tzw. czterech reform rządu Jerzego Buzka. Powstał specjalny zespół, w którym odpowiadałem m.in. za analizę procesu wprowadzenia reformy administracji publicznej. I przyznam się, że rozczarowałem się jakością ówczesnych opracowań analitycznych. Oceny w nich zawarte dotyczyły bowiem zagadnień technicznych, organizacyjnych, np. musieliśmy oceniać, w jaki sposób nowe samorządy przejęły od instytucji państwa majątek, pracowników czy w jaki sposób tworzyły one nowe komórki administracyjne itp. A więc analiza dotyczyła przede wszystkim tego, czy udało się stworzyć nowe jednostki administracyjne. Powstawało wiele opracowań tego typu.

Całość analizy udowadniała, że reforma się udała, gdyż powstałe urzędy samorządowe zaczęły formalnie funkcjonować. Natomiast nie było ustalonych jakichkolwiek wskaźników, kryteriów ocen ex ante, które pozwoliłyby na analizę rezultatów reformy samorządowej, i ocenę, czy zmiana przyniosła poprawę jakości usług dla obywateli. Po półtora roku pracy straciłem serce do tego zajęcia i rozpocząłem pracę na uczelni.

Powiem jeszcze jedną rzecz w kontekście ewolucji podejścia do analizy. Otóż, gdy odchodziłem z RCSS, Irena Jackiewicz, wówczas Dyrektor Departamentu, powiedziała tak: „Marcin odchodzisz w takim momencie, gdy nastąpią rewolucyjne zmiany w analizie, gdyż wchodzą OSR-y (ocena skutków regulacji)”. Rzeczywiście od 2001 r. wchodziły nowe wytyczne OECD tworzące powoli nowy standard w analizie procesu stanowienia prawa. Osobiście miałem nadzieję, że w ciągu 2–3 lat sytuacja ulegnie diametralnej poprawie. W moim przekonaniu zajęło to więcej czasu. OSR-y rzeczywiście zaistniały i procedura oceny skutków regulacji wzbogaciła analizę. Pewna liczba osób została przeszkolona, procedura została wkomponowana mniej lub bardziej w obowiązki pracowników procesu przygotowania nowych regulacji. To były pozytywne skutki, nawet jeśli nie wszystkie analizy były na najwyższym poziomie.

Natomiast sądzę, że na początku naszej debaty potrzebna jest refleksja dotycząca sposobów definiowania czy przynajmniej określenia, czym są opracowania, które nazywamy tu analizami. Z kolei odrębnym zagadnieniem jest to, na ile wykorzystujemy analizy w podejmowaniu decyzji.

Jeśli podchodzimy bardzo szeroko do analizy, to można dostrzec, że powstaje u nas sporo wiedzy analitycznej. Jest tak, ponieważ generowana jest wiedza o szeroko rozumianych sprawach publicznych. To zjawisko trochę naturalne, bo powstanie licznych analiz wymusza także rozwój cywilizacyjny. Wszystko to sprawia, że trudno jest określić, na jakim etapie rozwoju analizy jesteśmy.

Andrzej Zybała: To dobra uwaga dotycząca potrzeby uściślenia typu analizy, która najbardziej nas tu obchodzi. Być może wystarczy na tym etapie uzgodnić, że chodzi nam o analizy – jako kompendia sformalizowanej wiedzy – które są tworzone z myślą o wsparciu procesów decyzyjnych w państwie. Nie oznacza to, że chodzi wyłącznie o analizę, którą wytwarza administracja publiczna. Administracja zamawia zwykle analizy, sama ich nie tworząc. Ponadto powstają analizy, które służą sugerowaniu instytucjom państwa, jakie decyzje powinny podjąć i z jakich powodów. To także są opracowania analityczne, które wzbogacają potencjał analityczny państwa i społeczeństwa.

Marcin Zawicki1: Definiując analizę polityki publicznej powinniśmy podkreślić, że jest nią technokratycznie pojmowane wspomaganie procesów decydowania o wyborze określonej polityki do realizacji. W tym celu wykorzystuje się różnorodną wiedzę naukową, nie tylko społeczną, ale też techniczną, przyrodniczą czy jakąkolwiek inną, jeśli może ona skutecznie wspierać podejmowanie decyzji.

Wiedza pochodząca z analizy ubogaca perspektywę oglądu świata przez sferę polityki (w sensie politics). Jestem jednak odległy od tego, aby stawiać technokratów, dysponujących wiedzą techniczną, na uprzywilejowanej pozycji względem polityków. Należy balansować, by w procesach rządzenia zachowywać odpowiednie proporcje między tym, co wnosi do nich wiedza naukowa wywodząca się ze sfery analizy polityki publicznej (policy) a wartościami demokratycznymi, których reprezentantami są czy być powinni politycy. Analiza nie powinna więc ograniczać, lecz wspomagać wartości demokratyczne, a decydenci polityczni winni brać wyniki tych analiz pod uwagę.

W naszej dyskusji uwagę koncentrujemy na analizie, której celem jest formułowanie polityki publicznej i wybór instrumentów wdrożeniowych. Kompetencje analityczne, choć o innym charakterze, są wymagane praktycznie na każdym etapie cyklu polityki publicznej. Poczynając od stanowienia agendy politycznej, poprzez implementację i ewaluację. Szczególną uwagę chciałbym zwrócić na wspomaganie metodami analitycznymi procesów wdrażania polityki publicznej. Taką rolę odgrywają m.in. postlegislacyjne procedury oceny aktów prawnych, nazywane też przeglądami prawa. Pozwalają one formułować zalecenia dotyczące np. celowości utrzymywania określonych rozwiązań prawnych oraz proponować niezbędne w tym zakresie zmiany.

Potencjał analityczny w warunkach transformacji ustrojowej

Adam Jasser: Słusznie zaczęliśmy dyskusję od pytania o historię analizy polityki w Polsce po 1989 r. Marcin Sakowicz bardzo trafnie wspomniał, że było Rządowe Centrum Analiz Strategicznych, ale musimy sobie uzmysłowić, iż zdolności analityczne z samej natury musiały być ograniczone w trakcie przejścia od systemu socjalistycznej gospodarki planowej w kraju, który de facto zbankrutował i był w głębokim kryzysie makro-ekonomicznym.

Wyzwania co do kształtowania polityki publicznej na podstawie wiedzy i analizy tego okresu w Polsce oraz w całym regionie dobrze zilustrowało słynne powiedzenie Lecha Wałęsy, że łatwo jest zrobić zupę rybną, jak się ma akwarium z rybkami, ale trudno z zupy rybnej zrobić akwarium.

Po prostu było sporo przykładów i analiz dotyczących przejścia od kapitalizmu do socjalizmu, ale niekoniecznie w drugą stronę. Nawet przejście od systemów autokratycznych do demokratycznych w innych rejonach świata stanowiło mniejsze wyzwanie, bo elementy gospodarki rynkowej i polityki gospodarczej opartej na wiedzy tam funkcjonowały. W Polsce proces transformacji był w znacznej mierze eksperymentem, wytyczaniem szlaku w marszu, z jednym bardzo istotnym zastrzeżeniem.

I Polska, i inne państwa regionu wykorzystywały w mniejszym lub większym stopniu instytucjonalnych doradców zewnętrznych, czyli przede wszystkim z Między­narodowego Funduszu Walutowego, Banku Światowego oraz ekspertów rządów zachodnich, przede wszystkim z USA. Polska miała tę dodatkową trudność, że przestała spłacać zadłużenie zagraniczne zarówno rządom, jak i zachodnim bankom komercyjnym. Aby móc się rozwijać, Polska musiała ustabilizować gospodarkę, odzyskać wiarygodność rynkową, a jednocześnie uzyskać znaczną redukcję zadłużenia.

Okoliczności te oznaczały, że publiczne i prywatne instytucje finansowe świata zachodniego miały istotny wpływ na politykę. Tak się złożyło, że transformacja rozpoczęła się w tym całym regionie i w momencie triumfu koncepcji deregulacyjno-wolnorynkowej, reprezentowanej przez to, co dziś nazywamy neoliberalizmem, a wtedy „konsensusem waszyngtońskim”. W dużym uproszczeniu oznaczało to deregulację, znaczące ograniczenie roli interwencji państwa w gospodarkę oraz otwarcie nowych dziedzin polityki społecznej na mechanizmy rynkowe.

Jednym słowem, analityczna, ekspercka wiedza od samego początku była oparta na kanonie konsensusu waszyngtońskiego, czyli ukierunkowaniu na liberalizację rynku, masową i szybką prywatyzację, uwolnienie cen, uwolnienie kursu walutowego oraz swobodny przepływ towarów i usług.

Zwłaszcza w Polsce to się bardzo silnie przyjęło, bardziej niż w niektórych innych krajach regionu. Nie będę teraz tego próbował wyjaśnić, ale niewątpliwie to spowodowało, że ramy analityczne zostały bardzo silnie zdeterminowane. A zatem na samym początku brakowało tego, co jest niezbędnym elementem – przy dokonywaniu wszelkiego rodzaju analiz służących tworzeniu polityki, czyli krytycznej analizy i poszukiwania alternatywnych scenariuszy.

W pierwszym okresie transformacji wyjściowe założenia były tak sztywno zdefiniowane, że pewne rzeczy już wręcz nie wymagały analizy, zwłaszcza analizy alternatywnych scenariuszy. Temu towarzyszyło myślenie zero-jedynkowe: albo socjalizm, albo kapitalizm, albo pełna prywatyzacja, albo etatyzm. To w poważnym stopniu ograniczyło zdolność administracji do pogłębionej i rzetelnej analizy. Aby polityka publiczna mogła być skuteczna, musi rozważać różne opcje.

Andrzej Zybała: Ale nie do końca jest tak, że nie było debaty odnośnie do alternatywy czy opcji do wyboru. To, co pan Adam mówi, moim zdaniem odnosi się do znacznej części klasy politycznej, części mediów. W środowisku akademickim były bardziej pogłębione i wszechstronne analizy.

Adam Jasser: Zgoda, ale wpływ krajowego środowiska naukowego na politykę wtedy był mniejszy niż dziś. To był ten wczesny etap, w pewnym sensie może nieunikniony. Kolejnym etapem od połowy lat 90., i to Pan słusznie podkreślił, był proces integracji europejskiej. Oznaczało to masowy import prawa unijnego i zasad wspólnego rynku. Polska musiała w ekspresowym tempie wdrożyć i przeanalizować wpływ rozwiązań, do których państwa unijne dochodziły przez dziesięciolecia.

W związku z tym analityka, która stała u podstaw przyjmowania unijnych rozwiązań regulacyjnych, była w znacznej części „zaimportowana”.

Administracja była skoncentrowana na tym, żeby wdrażać prawo europejskie, aby spełnić kryteria wejścia do Wspólnoty. Ale pewne zdolności analityczne wtedy wytworzyły się w administracji, zwłaszcza w zespołach negocjacyjnych. Było to wykorzystane do maksymalizacji korzyści i neutralizowania ryzyka wejścia do EU.

Stąd w Urzędzie Integracji Europejskiej były rozwinięte analityczne zdolności, ale nie były one powszechne dla całej administracji, co stało się oczywiste po wejściu do UE. Cała administracja rządowa stanęła przed podwójnym wyzwaniem – tworzenia dojrzałej polityki krajowej w obszarach nieobjętych unijnymi regulacjami (np. zdrowie, polityka społeczna, emerytury) oraz realizacja polskich interesów poprzez współkształtowanie porządku ustawowo-regulacyjnego Unii.

Wymagało to znacznego wzmocnienia potencjału analitycznego i systemu Oceny Skutków Regulacji. Jak już wcześniej powiedziano, odpowiednie procesy powstały i tworzenie polityki opartej na wiedzy stało się celem. System OSR był jednak słaby, bo cały czas brakowało przekonania w samym centrum decyzyjnym polityki – Kancelarii Premiera – że ten proces jest czymś więcej niż spełnieniem biurokratycznego obowiązku.

Marcin Zawicki: Zgadzam się z ocenami dowodzącymi, że na początku lat 90. polityka publiczna poniosła klęskę. Był to czas, kiedy planowanie perspektywiczne poparte stosownymi diagnozami było postrzegane jako pozostałość systemu socjalistycznego. Skoro nastał rynek, to rynek miał to planowanie zastąpić. Było to podejście doktrynalne, w którym nie było miejsca na analizę. Ten typ myślenia narzuciła ideologia neoliberalna, przedstawiana wówczas jako jedyna, która może przekształcić gospodarkę socjalistyczną w kapitalistyczną.

Od tamtych lat wprowadzono jednak wiele rozwiązań systemowych do praktyki zarządzania publicznego, obligujących bądź nakłaniających do prowadzenia analiz. Wzrosły również kompetencje urzędnicze i eksperckie w tym zakresie. Rozwój analizy następował w administracji rządowej, ale też w samorządowej.

Do samorządów pozytywne impulsy płynęły m.in. ze strony programów pomoc­owych, jak na przykład finansowanego ze środków USAID Programu Partnerstwa dla Samorządu Terytorialnego (LGPP), realizowanego w latach 1997–2001. Kształtował on kompetencje w zakresie planowania rozwoju lokalnego w gminach, zarządzania strategicznego, finansowego i usługami publicznymi. W następnych latach kulturę diagnozowania i planowania rozwoju organizacyjnego w samorządach kontynuował Program Rozwoju Instytucjonalnego. Powstała w nim i została wdrożona w znacznej liczbie samorządów odpowiadająca polskim warunkom metoda Planowania rozwoju instytucjonalnego (metoda PRI), której jestem jednym ze współautorów.

Duży wpływ na rozwój kompetencji analitycznych administracji wywarła polityka spójności UE. Jej programowanie i wdrażanie stworzyło płaszczyznę dla doskonalenia umiejętności średnio- i długookresowego planowania rozwoju. Podjęto również próbę harmonizowania programów operacyjnych z krajowymi i regionalnymi strategiami rozwoju. Co prawda, przez wiele lat administracja dbała przede wszystkim o tempo wydatkowania środków finansowych w ramach polityki spójności, to jednak wyraźnie widać jej stopniową reorientację w kierunku większej dbałości o produkty, a zwłaszcza rezultaty, które w polityce publicznej są kluczowe.

Przemiany te dobrze ilustrują rozwój, jaki dokonuje się w analizie polityki publicznej, a także wskazują na jej głębsze zakorzenianie się w działaniach administracji. W obecnej perspektywie finansowej UE umiejętności prowadzenia analizy są wymagane już nie tylko od urzędników (w zakresie programowania, monitorowania czy ewaluacji), ale też od beneficjentów polityki spójności. W określonych przypadkach muszą się oni przykładowo wykazywać analizą wariantową inwestycji, która poprzedza i uzasadnia wybór wnioskowanej koncepcji jej realizacji.

Adam Jasser: Zgadzam się, że po 2000 r. doszło do wytworzenia wielu pozytywnych trendów. Przykładem jest choćby wspomniany wyżej system Oceny Skutków Regulacji i cały system opierania polityki na wiedzy i analizie ilościowej. Zyskało to na znaczeniu w czasie pierwszej kadencji rządu premiera Tuska. Powstał Departament Analiz Strategicznych pod nadzorem ministra Michała Boniego, który szefował Komitetowi Stałemu RM.

W drugiej kadencji jeszcze mocniej podkreślono rolę procesu analitycznego. Został on ściśle powiązany z procesem legislacyjnym w wyniku osobistej decyzji premiera (ogłoszonej w exposé 18 listopada 2011 r.). Premier zapowiedział, że Kancelaria będzie filtrem nadmiernej regulacji, a zarazem strażnikiem jakości analitycznej rozwiązań legislacyjnych. Oznajmił, że „tylko jednoznacznie pozytywna ocena skutków regulacji pozwoli na przesłanie projektów ustaw do Sejmu”. Od początku kadencji Departament Analiz Strategicznych stał się więc silnym ośrodkiem analitycznym, z autentycznym wpływem na każdym etapie procesu legislacyjnego.

Równolegle powstała sieć komórek analitycznych w ministerstwach, nadzorowanych przez jednego z wiceministrów. Na komitecie stałym i w zespole programowania prac rządu ocena OSR miała kluczowe znaczenie przy ocenie projektów. Kancelaria zaczęła działać jako potężny filtr zatrzymujący projekty, którym nie towarzyszyły rzetelne analizy ilościowe i porównawcze. Skutkiem było wyraźne ograniczenie liczby projektów rządowych. W 2012 r. było to ok. 120 projektów w porównaniu z powyżej 250 rocznie w latach 2007–2011.

Praca nad OSR w ministerstwach była teraz raczej początkiem pracy koncepcyjnej niż dodatkiem robionym pod projekty przepisów prawnych. Na samym początku procesu legislacyjnego ministerstwa musiały przedstawić sformalizowany „test regulacyjny”, który zresztą przetrwał do dziś. Odpowiadał on na pytania jakościowe i ilościowe co do celu regulacji, przewidywanych skutków, kosztów (nie tylko w wymiarze fiskalnym) i alternatywnych ścieżek. Współpraca DAS i całego centrum rządu z komórkami analitycznymi innych ministerstw była nastawiona na szukanie rozwiązań, co sprawiało, że Rada Ministrów w większym niż dotychczas stopniu otrzymywała dopracowane projekty, których nie trzeba było modyfikować na ostatnich etapach prac rządowych.

Marcin Sakowicz: Postawiłbym hipotezę, iż od połowy lat 90. XX w. rozpoczął się wzrost roli szeroko rozumianej analizy w przestrzeni publicznej. Rósł popyt ze strony polityków, decydentów i z drugiej strony rosła podaż ze strony analityków.

Na początku był problem z pozyskaniem odpowiednio wykształconych analityków gotowych do pracy w sektorze publicznym. Większość specjalistów z umiejętnościami analitycznymi pochłaniał sektor prywatny, ubezpieczenia czy np. Bank Centralny. Później pojawiła się grupa analityków, którzy mieli doświadczenie pracy lub studiów na Zachodzie, studiowali na uczelniach zagranicznych, gdzie takie podejście jest bardziej zakorzenione w polityce publicznej. Po drugie, podejście analityczne było w różnym stopniu zaawansowane w zależności od instytucji: wyższym rozwojem podejścia analitycznego charakteryzowały się np. wspomniane RCSS, później Ministerstwo Rozwoju Regionalnego, UKIE, Ministerstwo Finansów czy KPRM.

W połowie lat 90. do wyjątków należało przedstawianie alternatywnych rozwiązań, opcji w przygotowaniu reform. Wprawdzie w przygotowaniu reformy samorządowej z 1998 r. pojawiały się różne propozycje, tzn. stworzenie 7 województw, 12 czy 16, ale nie było to powszechne. Rzadkością były także pilotaże w programowaniu interwencji, co obecnie stosowane jest jako standard.

Następnie rozpoczęła się dyskusja o roli nauki o polityce publicznej. Pojawiały się kierunki studiów z nauki o polityce publicznej i podejście polityki publicznej opartej na dowodach. Wprawdzie nadal „wielka” polityka decyduje o kształcie interwencji publicznych, jednak widoczne są sygnały o wykorzystaniu analizy.

Przykładem jest wdrożenie programu 500 plus, które uważam za pozytywne. Z satysfakcją przyjąłem argument twórców programu dotyczący rezygnacji z wprowadzenia kryterium dochodowego przy ustalaniu prawa do świadczenia dla drugiego dziecka w rodzinie. Wyliczono bowiem, że koszty zbierania i analizowania dokumentów byłyby wyższe niż same wypłaty dla rodziców z wyższymi dochodami. To jest coś, co pokazuje, że już ten poziom instytucjonalny analiz jest wysoki.

Drugi przykład podam z dzisiejszego dnia (5.12.2017). W ramach Forum Zarządzania Publicznego wybraliśmy menedżera innowacyjnych praktyk – został nim Jakub Dzik z Podkarpackiego Urzędu Wojewódzkiego. Pan Dzik przedstawił wykorzystanie systemu informacji przestrzennej (GIS) wspierającego procesy analityczne, decyzyjne i koordynacyjne w systemie bezpieczeństwa województwa podkarpackiego. Wykonał analizę sieciową czasów dojazdu Zespołów Ratownictwa Medycznego, co pozwoliło na optymalizację ich dotarcia do miejsca zdarzenia.

Rozwiązanie zaimplementowane zostało w systemie powiadamiania ratunkowego w zakresie obsługi zdarzeń na podkarpackim odcinku autostrady A4. Ten projekt był odpowiedzią na priorytet wojewody – bezpieczeństwo w regionie. Pokazał on, jak umiejętności analityczne połączone z nowymi technologiami na co dzień poprawiają jakość usług publicznych i odpowiadają na potrzeby decydentów.

Andrzej Zybała: Czy to jest tak, że niespodziewanie znalazł się człowiek z wysokim potencjałem analitycznym, czy też mają kompleksowy system analityczny w urzędzie?

Marcin Sakowicz: Chcę powiedzieć, że prawdopodobnie to jest tak, że my mamy coraz więcej osób, które mają umiejętność analityczne. Naszym zadaniem (ekspertów w zarządzaniu publicznym) jest to, aby wspierać ich w rozwoju, w karierze i oferować szanse na dalszy rozwój. Jednocześnie korzystają na tym politycy. Całkowitym sukcesem byłoby współgranie, administracja się uczy i jednocześnie uczymy polityków, że korzystanie z analiz może im sprzyjać w karierze politycznej, bo zyskują wizerunek sprawnego i efektywnego menedżera.

Ale są też przykłady, których należy unikać. Choćby projekt ustawy o redukcji zatrudnienia uchwalony kilka lat temu przez poprzednią koalicję. Przygotowano analizę OSR-u, ale na fatalnym poziomie. Na zajęciach ze studentami pokazuję ten przykład jako worst practice – projekt, który miał charakter polityczny i nie przyniósł administracji nic dobrego.

W labiryncie danych

Barbara Więckowska: Wydaje mi się, że poziom analizy był różny w różnych urzędach w różnym czasie. Gdy w 2013 r. przeszłam do resortu zdrowia, to zastałam mniej więcej to samo, co Marcin w 2001 r. w Rządowym Centrum Studiów Strategicznych. Ale w Kancelarii Prezesa Rady Ministrów, gdzie wcześniej pracowałam, były dość zaawansowane modele, które miały stwarzać możliwość oceny potencjalnych skutków wprowadzenia reform (analiza ex ante), jak „Mieszkanie dla Młodych” czy podatek dochodowy dla rolników (ten podatek był prawie przygotowany do wprowadzenia). Wytwarzaliśmy różne opracowania, część z nich niestety poszła na półkę, jak w wypadku opracowania wdrożenia podatku dochodowego od rolników, w którym zawarta była koncepcja modelu kalkulowania kosztów wprowadzenia tych zmian.

Natomiast wracam do Ministerstwa Zdrowia, to tam istniało wiele problemów z metodologią zbierania informacji i danych. Przykładowo w Departamencie Nauki i Szkolnictwa Wyższego (w którym przez pewien czas pełniłam funkcję p.o. dyrektora równolegle z funkcją dyrektora Departamentu Analiz Strategicznych) pojawił się bardzo podstawy problem z bazą danych o rezydentach. Wynikało to z tego, że nie zbierano numerów pesel lekarzy rezydentów, a więc jak dana pani zmieniała nazwisko, to nie wiedzieliśmy, czy płacimy kolejny rok tej samej osobie, czy też jest ona nowym rezydentem.

Na podstawie istniejących danych nie można było następnie prognozować liczby lekarzy, którzy wchodzą na rynek pracy. Ponadto na początku dużo czasu zajmowało „rozdzielanie” rezydentur (finansowanych przez ministerstwo) między województwa. Pracownicy często rozszacowywali to na kalkulatorach, co było bardzo żmudną robotą. Ich zadaniem było wyliczyć liczbę rezydentur, która nie mogła być większa niż zapotrzebowanie w danym województwie w danej specjalności (w Polsce mamy około 85 specjalności, więc razy 16 województw daje nam 1360 pozycji decyzyjnych), ale łącznie również nie mogła być większa niż łączna liczba rezydentur wynikająca z budżetu ministra zdrowia na dany rok.

Z czasem Departament Nauki otrzymał wsparcie od analityków z Departamentu Analiz. Oni wykorzystywali proste kalkulacje w Excelu, które automatycznie rozszacowywały rezydentury na podstawie zadanych parametrów.

W wielu typach analiz kluczowe było to, aby skutecznie poradzić sobie z wyborem danych, które należało zbierać, aby ich komplementarny zestaw mógł stanowić podstawę do wnioskowania o stanie rzeczy w danej dziedzinie. Czasami było tak, że poprawa w zbieraniu danych w wielu najprostszych analizach przyczyniała się do istotnego wsparcia przebiegu procesu decyzyjnego.

Andrzej Zybała: W wypadku Ministerstwa Zdrowia również zaprogramowanie i wdrożenie pakietu onkologicznego w 2013 r. musiało wiązać się z wieloma pracami analitycznymi na dużych zbiorach danych.

Barbara Więckowska: Departament Analiz i Strategii zakładałam w 2013 r. Zatrudniałam pierwszych pracowników, a jednocześnie udało się nam przygotować pakiet onkologiczny od „a” do „z”, począwszy od wytworzenia aktów prawnych i do tego zrobiliśmy model finansowy, który pokazywał, że pakiet jest bezpieczny finansowo, to znaczy, że nie tworzy zagrożenia dla finansów sektora zdrowia (pomimo że został wprowadzony system bezlimitowych świadczeń dla pacjentów z podejrzeniem choroby nowotworowej).

Jestem szczęśliwa, bo można już powiedzieć, że pakiet działa, a model finansowy okazał się trafny. Udowodniliśmy, że jesteśmy w stanie prognozować kluczowe procesy w systemie zdrowia, oczywiście nie jest możliwe, aby prognozować do poziomu każdego szpitala. Nie wiadomo bowiem, jakie strategie działania przyjmą kierownictwa wszystkich placówek zdrowia, ale analizy (prognozy) ekonomiczne są wiarygodne na poziomie kraju czy województw.

Natomiast niektórzy straszyli, że finansowanie bez limitu z wprowadzeniem maksymalnego okresu oczekiwania będzie się wiązało z tym, że będą nadużycia i inne negatywne zjawiska. W tym sensie zrobiliśmy duży krok.

Stworzyliśmy model prognostyczny i na nim oparliśmy reformę systemu lecznictwa onkologicznego. Prognozy, które wykonaliśmy z jego pomocą, okazały się – mniej więcej – zgodne z rzeczywistymi wydatkami. Jest to przykład wskazujący, że istnieje możliwość uzyskania przewidywalności w działaniach publicznych, a to ułatwia procedury ich racjonalizowania. Stworzenie modelu wymagało analiz wydatków na onkologię w punkcie startowym, a potem wymodelowaliśmy, ile będziemy wydawali po wprowadzeniu zmian. Zaprojektowaliśmy zmiany w cenach świadczeń i pokazaliśmy, jakie będą przepływy finansowe.

Generalnie nasze analizy pokazały, że wprowadzenie pakietu onkologicznego może przynieść oszczędności rzędu prawie miliarda złotych, „machnęliśmy” się o sto milionów. Prognoza opiewała na miliard złotych, a wyszło realnie 900 tysięcy. Mam żal, że nie udało mi się przekonać ministra B. Arłukowicza, żeby podwyższyć wycenę procedur w chirurgii onkologicznej, bo pozostawały one niedoszacowane finansowo. Do tego nam zabrakło po prostu czasu oraz zaufania, że można modelować system (to był pierwszy zaawansowany model w reformowaniu systemu ochrony zdrowia).

Andrzej Zybała: Budowa modelu prognostycznego dla lecznictwa onkologicznego wymagała pewnie wytworzenia właściwego zbioru danych epidemiologicznych, czyli danych o zachorowaniach onkologicznych i okresach przeżywalności.

Barbara Więckowska: Tak. Musieliśmy wyjść od analizy danych epidemiologicznych. I to była strasznie trudna praca, z tego względu, że w systemie zdrowia jest bardzo dużo danych, które są często niespójne, choćby sama baza NFZ-etu (gdzie dokumentacja systemu, na skutek podpisanych umów, należy do zewnętrznej firmy informatycznej).

Były sytuacje pokazujące, że nie można uzyskać prostych danych. Przykładem są dane dotyczące liczby chorujących na nowotwory. W Krajowym Rejestrze Nowotworów (KRN) nie mogłam się dowiedzieć, ilu mamy chorych onkologicznych. W KRN usłyszałem, że tam nie znają tej liczby, ponieważ rejestrowana jest pięcioletnia chorobowość, natomiast przeżywalność powyżej pięciu lat nie jest badana.

Jest przyjęte rzeczywiście, że analizuje się pięcioletnie okresy przeżywalności w epidemiologii. Ale efektywne programowanie polityki zdrowia wymaga dostępu do wielu innych danych.

Druga prosta informacja, której do tej pory nie uzyskałam, to liczba szpitali. Nie rozstrzygnięto bowiem tego, co to jest szpital, jak szpital definiować, jak wyliczać. Myśmy wyszli z założenia, że wszystkie podmioty posiadające co najmniej jeden oddział są szpitalem. To może było zbyt ogólnikowe, bo jak traktować oddziały w więzieniach? I rzeczywiście zaczyna się od prostych rzeczy: ile jest łóżek w szpitalach czy ilu było hospitalizowanych w poszczególnych jednostkach chorobowych.

Kryzys analizy?

Adam Jasser: Ciekawym zjawiskiem jest to, że w ostatnim okresie po kryzysie zapoczątkowanym w 2008 r. w USA, w wielu krajach widoczny jest regres w realizacji koncepcji polityki opartej na wiedzy. Powiększyła się skłonność do podejmowania decyzji publicznych na podstawie intuicji i ideologii. To zjawisko nastąpiło nie tylko w Polsce, ale także w innych państwach demokratycznych, gdzie nagle wartość analiz eksperckich podupadła w procesie decyzyjnym. Widzimy to w dyskusjach o brexicie w Wielkiej Brytanii czy w niektórych działaniach administracji prezydenta Trumpa.

Dziś w Polsce również słyszymy krytykę, że pewne regulacje idą szybko przez Sejm, bez analizy. W Stanach mamy dokładnie te same argumenty. W Wielkiej Brytanii w czasie dyskusji o referendum brexitowym kluczowy minister rządu Michael Gove powiedział: „dajmy sobie spokój wreszcie z tymi wyliczeniami ekspertów, to w ogóle zawracanie głowy, po co nam jest to potrzebne?”. Dziś okazuje się, że rządowe analizy potwierdzają negatywny wpływ brexitu na Wielką Brytanię, ale część zwolenników odejścia z UE twierdzi, że to spisek rządowych analityków ze służby cywilnej.

Jednak w zakresie racjonalnej analizy jako podstawy do podejmowania decyzji mieliśmy wcześniej w Polsce dobry moment. Był to czas, kiedy administracja zaczęła – moim zdaniem – myśleć w kategoriach właśnie analizy. Zaczęła grać rolę „adwokata diabła” i szukać alternatywnych opcji. Ten system zaczął się krystalizować również dlatego, że politycy dopatrywali się w nim korzyści, ponieważ dawało im to możliwość podejmowania politycznych wyborów na podstawie twardych liczb.

Jak jednak wspomniałem, podejście do roli zracjonalizowanej analizy zaczęło się zmieniać. Wydaje mi się, że to zjawisko jest związane z wciąż jeszcze pokryzysowym rozedrganiem. W jego wyniku wiarygodność ekspertów oraz analiz została podważona i jest wypierana przez zero-jedynkową, uproszczoną wizję świata.

Marcin Zawicki: Wydaje mi się, że z kwestią ewentualnego odwrotu od analizy w stronę wyborów intuicyjnych czy stricte politycznych, sprawa jest skomplikowana. Nie mam wątpliwości, że istnieją sytuacje, kiedy narastająca, długo prowadzona analiza nie przystaje do określonych sytuacji decyzyjnych.

Dzieje się tak wtedy, gdy decydenci pozostają pod silną presją czasu, która uniemożliwia przeprowadzenie pogłębionych analiz, a także wtedy, gdy wyniki tej analizy nie mogą mieć wpływu na zmianę już podjętych decyzji. Czasochłonność jest bowiem immanentną cechą analizy. Analiza zawsze powinna towarzyszyć perspektywicznemu programowaniu rozwoju, przygotowywaniu reform i projektowaniu długofalowej polityki. Natomiast w konfrontacji z potrzebą podjęcia decyzji w trybie bardzo pilnym na rzetelną analizę może nie być czasu.

Adam Jasser: A niech Pan nam pokaże na przykładzie…

Marcin Zawicki: …takim przykładem jest reagowanie na klęski żywiołowe i inne nagłe, trudne do przewidzenia sytuacje problemowe. W razie tzw. problemów skomplikowanych, w których można uchwycić zależności przyczynowo-skutkowe, planowanie długofalowe i operacyjne, na przykład infrastrukturalne, można i trzeba opierać na rzetelnej analizie. Natomiast w polityce społecznej…

Adam Jasser: Uważa pan, że intuicyjnie należy prowadzić politykę społeczną?

Marcin Zawicki: Nie. Co do zasady ona również powinna być oparta na analizie. Ale kiedy mamy do czynienia ze złożonymi, tzw. zapętlonymi, problemami społecznymi, czyli gdy nie potrafimy jasno określić, co jest ich przyczyną, a co skutkiem, sama analiza z reguły nie wystarczy, żeby je skutecznie rozwiązywać. Konieczne są wówczas działania, które z jednej strony wynikają z ogólnie zarysowanej strategii (opartej na analizie), ale też niezbędne są działania elastyczne, zazwyczaj intuicyjne, które niwelują braki wiedzy analitycznej i dużą zmienność warunków realizacyjnych polityki. Na podobnej zasadzie starają się działać przedsiębiorstwa prowadzące działalność w warunkach dużej dynamiki zmiany gospodarczej. W branżach, w których planowanie 2–3 letnie jest wróżeniem z fusów, sporządzanie strategii i precyzyjnych planów operacyjnych oraz ich konsekwentne wdrażanie są zastępowane działaniami dwojakiego rodzaju. Z jednej strony wynikają one z ogólnie zarysowanej tzw. kanwy strategii (pozbawionej warstwy operacyjnej), z drugiej zaś są to działania doraźne, podejmowane w odpowiedzi na bieżące oceny sytuacji rynkowej.

Adam Jasser: Rzeczywiście w niektórych działaniach publicznych analityka może być wtórna, ponieważ niektóre decyzje będą nieuchronnie oparte na intuicji. Dotyczy to działań o wysokim priorytecie politycznym. Wtedy zadaniem analityka jest pokazanie sposobu wykonania celu politycznego.

Program 500+ było stosunkowo łatwo policzyć i tu był cel polityczny, ale była także określona wizja poradzenia sobie z nierównościami, co się wpisywało w szerszą wizję polityki społecznej. Natomiast inaczej jest na przykład w reformie sądownictwa czy decyzji o powstaniu centralnego portu lotniczego i kolei szybkich prędkości. To jest jak centralne planowanie oderwane od rzetelnej analizy kosztów i efektów.

Karol Olejniczak: Częścią polityki są wartości, to one wyznaczają kierunek działań, ale powinny być wsparte racjonalną oceną. Na przykład program 500+ jest, moim zdaniem, świetnym wyborem. Nowa grupa polityczna przejęła władzę i wnosi inny sposób spojrzenia na problemy społeczne i mówi – teraz wsparcie rodzin z dziećmi jest wysoką wartością, priorytetem. Dobrze, przestawiamy więc strategiczną zwrotnicę, a rola analityka jest taka, by znaleźć sposób realizacji strategicznego celu, sposób w tym wypadku płynnej i efektywnej dystrybucji środków, żeby osiągnąć efekt, który wartościowo został określony. I to jest w porządku.

Natomiast w projektach typu nowe porty lotnicze w ogóle brakuje obecnie jakiegokolwiek zderzenia z rzeczywistością, ale ono prawdopodobnie kiedyś nastąpi. To są infrastrukturalne inwestycje, więc można dość dobrze wyliczyć, kiedy nastąpi katastrofa. I tu warto, aby polityk zadał sobie pytanie, czy to będzie katastrofa, czy będzie jakiś minimalny sukces, czy możemy coś przewidzieć.

Marcin Zawicki: Nawet, kiedy potrafimy policzyć, to wcale nie jest tak łatwo podjąć decyzję.

Adam Jasser: Podobało mi się też to, co Marcin Zawicki powiedział o kompromisie między technokratami a politykami. Wydaje mi się również, że wyjściowo sądzimy często, że technokraci zawsze mają rację, a gdyby nie politycy, to w ogóle wszystko by się udało super zrobić, to byłoby dobrze policzone i w ogóle byłoby wszystko bardzo racjonalne i tak dalej, i tak dalej.

Tymczasem kryzys zweryfikował niektóre przynajmniej technokratyczne prawdy objawione. Okazało się, że one nie do końca funkcjonują i że rzeczywistość czasami je weryfikuje. A z kolei politycy są jednak bliżej ludzi, słuchają i zderzają się z problemami społecznymi. Tym samym im jest łatwiej weryfikować pewne technokratyczne, nazwijmy to, mrzonki. Najlepsze efekty są wtedy, kiedy jest kohabitacja tych światów, ale ważne jest, żeby, jak to mówią Anglosasi, ogon nie machał psem.

Strategie i analityka

Andrzej Zybała: Chciałbym zwrócić teraz uwagę na relacje między analizami społeczno-ekonomicznymi a programowaniem strategicznym. Analizy w Polsce wykonywano, stosunkowo często, na potrzeby właśnie programowania. W 2009 r. doszło do przeformatowania systemu tego programowania pod wpływem diagnozy jego dotychczasowego stanu, która była dość niekorzystna. Doszło do wytworzenia nowego modelu programowania, który okazał się klarowny i obiecujący. Ale pozostał dotychczasowy problem, że strategie nadal były opasłymi tomami, w których dominowały elementy diagnostyczne, a projekty precyzyjnych działań – do wykonania w określonych przedziałach czasu. Jednak dla rozwoju analiz mogło to się okazać korzystne, ponieważ powstawało zapotrzebowanie na dane.

Adam Jasser: Powiem rzecz niepopularną. Strategie, tak jak my je rozumiemy, to jest jeszcze instynkt centralnego planowania. To znaczy, że my wierzymy, iż ktokolwiek jest w stanie wytworzyć taką strategię, która dość szczegółowo może przewidzieć przyszłość oraz rozpisać cele i zadania.

Zwłaszcza kryzys nam pokazał, że to może być strata czasu, bo zanim się taką kompleksową strategię napisze, to okoliczności mogą ulec zmianie. Brytyjska strategia z czasów, kiedy się temu przyglądałem, to było ok. 20 slajdów przedstawiających kluczowe wyzwania i kierunki, jakie należy przyjąć. Opatrzone to było dużą pieczątką na dole pierwszego slajdu: „this does not represent government policy”. Bo chodziło o to, żeby zarysować pewną wizję, ale żeby to nie było zobowiązanie polityczne, że to jest program rządu.

Warto w tym miejscu przytoczyć przykład działań ministra Boniego, który stworzył olbrzymią strategię i oczywiście popartą różnego rodzaju analizami. Wykonywano ją na podstawie wiedzy eksperckiej, trochę naukowej, z zasięganiem wiedzy z różnych źródeł. Ten dokument miał być oficjalną polityką rządu, czyli jego policy z drogowskazami do działania.

Twórcy dokumentu natychmiast zetknęli się z problemem, że to nie była tylko generalna wizja rozwoju Polski w perspektywie 20–30 lat, ale próba skonkretyzowania planów rządu, która wykraczała poza kadencję pierwszego rządu, a potem i drugiego. W związku z tym, ona zawierała de facto próbę zakleszczenia pewnych wyborów, polityki, bez względu na cykl wyborczy.

Istnieją kłopoty z tego typu dokumentami. Ponadto myśmy dostali krytyczną ocenę tego dokumentu z NIK-u. Zwrócono uwagę, że po pierwsze strasznie długo trwały jego uzgodnienia, część danych, które były wprowadzone do tej polityki się zdewaluowało w tym czasie. Dokument ten miał 450 stron i kiedy tworzy się go przez półtora roku, to niektóre dane stają się nieaktualne, chociażby makroekonomiczne, które zostały wprowadzone na początku i są podstawą całej strategii. Ponadto, w tym czasie przyszedł wielki kryzys, który po prostu zmienił cały kontekst. To musiało się wydłużać, dlatego że trzeba było aktualizować dane i czasami wydarzenia następowały szybciej niż zdolność administracji do aktualizowania.

Karol Olejniczak: Jasne wydaje mi się rozróżnienie między strategią a planem. Strategia to jest jakaś wizja władzy dotycząca kierunku rozwoju i dostosowywania się do wyzwań, a plan jest czymś bardziej szczegółowym i często obszerną instrukcją działań krok po kroku. Jako dowcipną ilustrację pozwolę sobie przywołać cytat z Mike’a Tysona, boksera: „Każdy ma jakiś plan, póki nie dostanie pierwszego ciosu”. Szczegółowy plan często się sypie w zderzeniu z brutalną rzeczywistością, za to strategia jest elastyczna, wyznaczając ogólny cel i kierunek, daje nam przestrzeń do szybkiej adaptacji i długookresowego działania.

Adam Jasser: …tylko problem polega na tym, że strategie działają na papierze. I to na papierze zawsze dobrze wygląda. To tak troszeczkę jak teraz obecna strategia, która znowu niestety moim zdaniem jest obarczona tym samym grzechem, to znaczy, że jest zbyt szczegółowa i tam wszystko się przyjemnie czyta, natomiast gołym okiem widać, że pewne cele są trochę na wyrost lub sprzeczne ze sobą i będzie je trudno zrealizować.

U nas widoczne jest niedoświadczenie w zarządzaniu zmianą. Polegające na tym, że nie weryfikujemy na bieżąco, czy analizy ex-ante potwierdzają się w realizacji. Analiza ex ante jest zawsze obarczona błędem. Jeszcze nie było takiej analizy ex ante, która by się w stu procentach sprawdziła. Po prostu nie istnieje taka. W związku z tym konieczny jest monitoring skutków ex-post i ścieżka modyfikacji z niego wynikająca. Ale modyfikacja polityki jest uznawana w Polsce za porażkę zamiast za umiejętność.

Marcin Zawicki: Tymczasem dobrze zaprojektowana polityka powinna dawać możliwość jej korygowania.

Andrzej Zybała: U nas powstał zwyczaj, że w ustawach zawiera się zapisy mówiące o tym, że za 2–3 lata wykonane zostanie sprawozdanie z realizacji danej ustawy.

Adam Jasser: Chciałem powiedzieć, że po pierwsze wcale nie ma takich zapisów w zbyt wielu ustawach. Za każdym razem była o to bitwa. Udało się nam to wpisać w projekcie dużej zmiany w systemie emerytalnym (OFE). Była to reakcja na zgłaszane z różnych źródeł zastrzeżenia czy krytykę nowych zasad w systemie emerytalnym. Uznaliśmy zatem, że należy zrobić review po dwóch czy trzech latach, aby zobaczyć, co się dzieje w systemie emerytalnym po wprowadzeniu zmian.

Przypadek zmian w systemie OFE jest szczególnie ciekawy. Wiele wyliczeń, które dotyczyły finansowych aspektów jego funkcjonowania było wykonywanych dopiero, kiedy doszło do kryzysu fiskalnego państwa i trzeba było ściśle kontrolować stan kasy państwa. Okazywało się z analiz, że opłaty, które ściągają fundusze emerytalne, są za wysokie. Zwrot z ich inwestycji nie jest taki atrakcyjny, jak na początku oczekiwano. Była to podstawa do przeprowadzenia znaczących zmian regulacyjnych.

Onkologia i analityka

Andrzej Zybała: Wśród przedsięwzięć analitycznych podejmowanych w polskiej administracji na pewno na uwagę zasługuje sektor zdrowia, a w ostatnich latach polityka onkologii. Pani Barbara wspominała już o tym sektorze i problemach z danymi, ale i o sukcesie z wytworzeniem modelu prognostycznego. Jak to się stało, że onkologia znalazła się w końcu w centrum zainteresowania wśród innych zagadnień systemu zdrowia i doszło do istotnych przedsięwzięć analitycznych w tym obszarze?

Barbara Więckowska: Zastanawialiśmy się nad priorytetami. Wybór padł właśnie na onkologię, ponieważ w tym obszarze sytuacja była szczególnie zła – od dziesięcioleci wskaźnik umieralności na te choroby nie poprawiał się. Odstawaliśmy od wyników w onkologii widocznych w innych krajach.

Dlatego zaprogramowane zostały działania znane pod nazwą pakietu onkologicznego z 2013 r. Towarzyszył mu projekt analityczny związany z tworzeniem tak zwanych map potrzeb zdrowotnych. Podobny projekt próbowano wykonać w 2001 r. czy w 2003 r. NFZ miał wówczas pomysł, żeby analizować i planować zapotrzebowanie na określone świadczenia medyczne na poziomie regionalnym, w zakresie świadczeń ambulatoryjnych, potem całej opieki zdrowotnej.

NFZ zaczął robić plany zabezpieczenia świadczeń medycznych jako dokumenty wewnętrzne, ale to wywoływało pewnego rodzaju frustrację. Pojawiały się bowiem zastrzeżenia, że świadczenia są kupowane w sposób nie do końca przejrzysty. Niektórzy mieli odczucie, że dyrektorzy placówek „coś załatwiali”, co było niespójne z całością systemu, mimo tego, że istniał plan zabezpieczenia świadczeń medycznych (ich zakupów).

Ostatecznie doszło do realizacji projektu map pod wpływem presji Komisji Europejskiej. Zapowiedziała bowiem, że nie przekaże pieniędzy na sektor zdrowia – w sumie ok. 12 mld zł – dopóki nie powstaną warunki do wykonywania w systemie zdrowia analiz ex ante, a jednym z nich były mapy potrzeb zdrowotnych. Dawały one możliwość wprowadzenia planowania w zdrowiu na podstawie danych.

Andrzej Zybała: To znaczy, że Komisja zdiagnozowała problem w Polsce na takim poziomie szczegółowości?

Marcin Zawicki: W innych sektorach są podobne warunki ex ante stawiane przez instytucje europejskie. Na przykład inteligentne specjalizacje regionalne, które zostały wyłonione w procesie analitycznym i uspołecznionym, podlegają surowym rygorom w zakresie monitorowania i sprawozdawczości.

Barbara Więckowska: Postanowiliśmy spełnić warunek Komisji. Zgodnie z koncepcją „ustawową” pierwsze mapy miały być przygotowane dla sektora szpitalnego, bo tam było więcej danych.

W trakcie realizacji napotykaliśmy sporo problemów organizacyjnych. Chcieliśmy to zadanie rozciągnąć w czasie, ale Komisja Europejska stawiała ostre wymogi – typu, jak chcecie mieć pieniądze, to musicie wszystko przyśpieszyć. Odpowiedzieliśmy: dobrze – zaczniemy tworzyć mapy w onkologii i kardiologii, a potem będziemy robili resztę.

Przyspieszyliśmy. Na realizację map Departament Analiz i Strategii dostał grant unijny i dzięki niemu można było rozbudować zespół analityków z 5 osób do 30. Był to jednak projekt o charakterze szkoleniowym, bo nie było innego typu środków. Przygotowaliśmy pierwsze mapy. Jednocześnie przeszkoliliśmy ok. 1500 osób, w tym dyrektorów szpitali. Zaczęli rozumieć zagadnienie i zaczął powstawać popyt na analizy.

Pokazaliśmy problemy związane z funkcjonowaniem Krajowego Rejestru Nowotworów (KRN) i ich baz z danymi. Połączyliśmy bazy KRN-u z bazą NFZ-etu i z porównań wyszło, że jest 25-procentowe niedoszacowanie liczby chorych z nowotworami. Stworzyliśmy ramy analityczne pozwalające szacować wskaźnik przeżywalności z chorobami nowotworowymi (bierze się pod uwagę liczbę zabiegów w danym ośrodku i odsetek przeżywalności pacjentów). Uzyskanie takich danych przyczynia się do wyższej jakości realnych świadczeń medycznych.

Warto zaznaczyć, że w systemie zdrowia powstawały różne dokumenty analityczne w wielu urzędach. Ostatecznie zaczęło brakować spójności. Dodatkowo doprowadzono do tego w obszarze zdrowia, co mnie teraz bardzo boli. W wielu ośrodkach sektora zdrowia powstały ośrodki analityczne, które konkurują o analityków – Narodowy Instytut Zdrowia Publicznego – Państwowy Zakład Higieny (PZH), który ma przejąć mapy, Agencja Oceny Technologii Medycznych i Taryfikacji, która robi taryfikację, Centrum Systemów Informacyjnych Ochrony Zdrowia (CSIOZ), odpowiedzialne za informatyzację. W NFZ-ecie również powstał Departament Analiz i Strategii, robi analizy, wykonuje je, jak je wykonuje, ale też próbuje, więc też się rozwijają. O analityków konkuruje też ministerstwo…

Andrzej Zybała: Chciałaby pani scentralizować analizę w sektorze zdrowia?

Barbara Więckowska: W jakiś sposób musimy zacząć myśleć o tym, żeby powstała jednostka analityczna generalnie dla zdrowia, bo mnie się wydaje, że my sami zaczynamy tracić możliwość zatrudnienia, a konkurujemy między sobą i jeszcze z sektorem prywatnym. To jest coś nie tak. Zresztą zaczęłam rozmawiać z PZH, żebyśmy ewentualnie próbowali razem tworzyć dokumenty związane z mapami. Oni mogą zaangażować się w analizy epidemiologiczne, bo to jest ich profil.

W ministerstwie główną zasadą naszej pracy analitycznej było to, że nigdy nie dotykaliśmy pieniędzy, czyli nie decydowaliśmy o zleceniu świadczeń dla kogokolwiek. To robi NFZ, ponieważ kontraktuje usługi medyczne, za które płaci. Ministerstwo dba o tworzenie spójnych ram systemowych dla sektora zdrowia, w tym przede wszystkim o bezpieczeństwo pacjenta. Przekonujemy dyrektorów szpitali, że trzeba zacząć rozmawiać o udostępnianiu danych i ich analizie, w tym o wytworzeniu i zastosowaniu wskaźnika przeżywalności. Udało się to w onkologii i kardiologii.

Ponadto istotnym przedsięwzięciem analitycznym było wytworzenie zaawansowanego modelu rozszacowania akceleratorów (terytorialnego ulokowania). Wzbudziło to duże zainteresowanie, ponieważ jest to sprzęt do diagnozowania onkologicznego, na którym placówki zdrowia dziś dobrze zarabiają. Jest to dla nich inwestycja rzędu 812 mln zł, plus jeszcze budowa bunkra ok. 2 mln zł. To może być finansowane ze środków publicznych (Narodowy Program Zwalczania Chorób Nowotworowych i środki unijne).

Model pozwala na optymalny wybór miejsca, gdzie powinien zostać ulokowany kolejny akcelerator. Zakłada on, że wybór lokalizacji powinien być uzależniony od liczby chorych przypadających w danym obszarze na jedno urządzenie. Dostępność geograficzna jest ważna, bo pacjenci muszą codziennie jeździć na 35 minutowe naświetlanie, a gdy jest to daleko, to pacjent musi zostać hospitalizowany, a to kosztuje. Istotne były także prognozy epidemiologiczne dotyczące przyszłych zachorowań.

Założenia do modelu były przedyskutowane z konsultantami krajowymi i wojewódzkimi. Oni mogli mieć wpływ na założenia, wybór miast, w których akceleratory mogłyby stanąć. I muszę powiedzieć, że konsultanci do dziś tego bronią, zaakceptowali wyniki rozlokowania urządzeń. Więc to było dobre, że oni przekonali się do tego, że da się analizować system i go porządkować. Zresztą mówią też innym specjalizacjom, że jak chcecie mieć system planowania, no to zróbcie taki model z DAS, jaki my zrobiliśmy. To nie chodzi o to, żeby budować oddzielny zespół. Analiza w zdrowiu wymaga połączenia dwóch zespołów, z wiedzą merytoryczną i analityczną/informatyczną. W tym tkwi wielkie wyzwanie i to jest naprawdę cholernie trudne. Dla urzędników systemu zdrowia samo stwierdzenie „nowotwór piersi” nic nie znaczy, ważne są kody ICD-10. To one dają nam szansę policzenia liczby chorych i tworzenia baz danych. To z kolei umożliwia programowanie racjonalnej polityki zdrowia.

Andrzej Zybała: Można zatem powiedzieć, że w sektorze zdrowia już została zrobiona znacząca inwestycja w rozwój analizy, choćby w niektórych jego podsektorach.

Teraz, gdy ktoś poprosi o policzenie liczby wykonanych w kraju zabiegów, np. mastektomii, to wyliczamy to po naciśnięciu klawisza „enter”. My to już mamy zakodowane (osłownikowane).

W powyższy sposób zrobiliśmy onkologię i kardiologię. Pozostaje jednak zadanie stworzenia baz danych dla 30 grup chorób. Powstało odpowiednio 30 zespołów, które tworzą podgrupy (ok. 512). Wykonują analizy dla każdego województwa, w którym raportowane są dane o świadczeniach, obejmujące każdy szpital. W efekcie powstały opracowania w sumie na 1600 stron.

Po opublikowaniu wszystkich danych konsultanci medyczni zgłaszali zastrzeżenia. Niektórzy twierdzili, że dane są zafałszowane. Rzecz w tym, że w systemie nie było spójnej metody liczenia świadczeń. Okazało się, że były nawet takie szpitale, które raportowały tyle wykonanych świadczeń, ilu nie wykonuje się w skali całego kraju.

To jest przykład pokazujący, że brakuje nam nadzoru merytorycznego w systemie. To jest zadanie dla ministerstwa. NFZ się skupia na finansowym podejściu – uzupełniłeś druczek/nie uzupełniłeś, wypłacimy czy nie. Natomiast nikt już nie monitorował, czy pacjent jest kładziony trzy razy do szpitala i dopiero podczas ostatniego pobytu robi się mu biopsję nerki.

W systemie brakuje koordynacji, ale liczę, że to się będzie zmieniało po wykonaniu infografik dla map potrzeb zdrowotnych (zawierać będą tylko najważniejsze informacje). Ułatwi to życie ministrom. Wówczas niezależnie od tego, kto będzie ministrem zdrowia, będzie miał zdiagnozowaną sytuację wraz z oceną ekspertów dotyczącą tego, do czego należy dalej dążyć w najbliższym okresie. Jego głównym zadaniem będzie wówczas wybór priorytetów, a nie uczenie się systemu od nowa. Jednak te działania (mapy i rekomendacje) muszą być wdrażane regularnie.

Marcin Zawicki: Wiele informacji, które Pani przytacza, wskazuje na korzyści, jakie można osiągnąć dzięki koncentracji analizy i procesów decyzyjnych. Delegowanie uprawnień decyzyjnych do poziomu województwa, jak się okazuje, nie zawsze sprzyja optymalizacji.

Barbara Więckowska: W systemie zdrowia potrzebny jest system ekspercki jako element budowania przeciwwagi dla danych wytwarzanych przez lekarzy. Lekarz medycyny mówi – bo tak i tak ma być – a ja go pytam i sprawdzam. On się dziwi, dlaczego go sprawdzam. Tak było właśnie z pediatrami. Oszacowaliśmy liczbę łóżek pediatrycznych. Pediatrzy oburzyli się, kiedy zobaczyli, że tak strasznie tniemy ich liczbę.

Potem pan minister kazał się spotkać z pediatrami, ponieważ rozpętała się wielka burza. Zapytaliśmy ich, jakie założenia do prognozy chcieliby przyjąć. Przekazali je. Tłumaczyłam, że dokładnie to zrobiliśmy, tylko trochę inaczej nazywaliśmy. Oni odpowiadają – nie, chcemy inaczej. Zrobiliśmy według ich woli. Różnica między obiema projekcjami w skali kraju była rzędu 20 łóżek. I wtedy było ojej, to dlaczego? Nasza metodyka prognozy też tam pokazuje takie zmniejszenie. Wtedy dopiero otworzyli się, usiedli, zobaczyli, że są szpitale, które mają mniej niż 700 hospitalizacji rocznie, czyli wychodzi, że dwójka dzieci dziennie lub mniej niż dwójka dzieci dziennie przyjeżdża do tego szpitala. Przecież tutaj wyłania się problem bezpieczeństwa. Jakie może być bezpieczeństwo dziecka, jeżeli lekarz nie jest w stanie zgromadzić odpowiednio dużego doświadczenia zawodowego, ponieważ ma do czynienia z małą liczbą pacjentów (przypadków)?

O tym trzeba rozmawiać. W systemie zdrowia pozostaje wiele wyzwań. Jedną z kluczowych kwestii jest centralizacja leczenia. Jest to istotny sposób na utrzymanie odpowiednio wysokiego poziomu (jakości) leczenia i zapewnienia pacjentom bezpieczeństwa. W systemie leczenia onkologicznego po wdrożeniu pakietu onkologicznego kolejnym krokiem powinno być wskazanie ośrodków referencyjnych, czyli takich, które mogą odgrywać rolę punktów odniesienia dla innych w zakresie efektywności i jakości leczenia.

Dyskusje trwają i przy okazji dzięki temu rośnie popyt na analizy. Wzmaga się bowiem zapotrzebowanie na to, aby regularnie sprawdzać, co się dzieje w systemie.

Andrzej Zybała: To, co Pani powiedziała, inspiruje do postawienia Pani pytania o pożądaną całościową strukturę analityczną, która byłaby dopasowana do potrzeb sektora zdrowia czy decyzji, które w nim zapadają.

Barbara Więckowska: Kiedy pierwszy raz zetknęłam się ze środowiskiem medycznym, to odniosłam wrażenie, że nie da się analizować ich danych, i że medycyna to nie matematyka. Było to szczególnie w trakcie przygotowań do wykonywania map potrzeb medycznych. Odbyliśmy ponad 130 spotkań. Dopiero wraz z upływem czasu pojawiało się zrozumienie. W końcu medycy z zespołów eksperckich zrozumieli, o co chodzi nam, analitykom. Zaczęli tłumaczyć – swoim językiem – pozostałym medykom koncepcję map. Udało się wreszcie przebić, udało się przekonać.

Marzy mi się coś, co można nazwać rapid response unit, czyli struktura do szybkich analiz. Mogłoby być tak, że uczelnie dają swojego reprezentanta i właściwe instytucje, które będą chciały przeanalizować najtrudniejsze problemy, np. nagły wzrost umieralności. Powinien powstać zespół, robić szybką analizę, potem jest dyskusja, ewentualnie pogłębiona analiza, to naprawdę da się zrobić…

Nawet szczątkowo coś takiego już zadziałało. W ministerstwie funkcjonuje Rada Naukowa – zespół składający się z różnych przedstawicieli medycyny. Kiedy wyłonił się problem ze smogiem, to rzeczywiście minister poprosił Radę Naukową o wsparcie i dostał analizę krajową. Nie było to badanie naukowe, ale na pewno było cennym wsparciem. Trzeba pamiętać, że nie ma ministra, który znałby wszystkie problemy całej medycyny. Może być ekspertem w jakimś swoim wycinku, a co do reszty musi opierać się na wiedzy merytorycznej innych. Współpraca z konsultantami jest więc cenna.

Z drugiej strony jednak jest też tak, że nawet jeśli resort zamawiał analizy na podstawie określonych danych, to potem wnioski i rekomendacje do podejmowania konkretnych działań nie wynikały zazwyczaj z tych analiz.

Znamienne są trudności, których doświadczałam w trakcie tworzenia departamentu analitycznego, np. z uzyskaniem miejsca do pracy, z wysokością wynagrodzeń, które są zawsze bardziej konkurencyjne w sektorze prywatnym. Trudno było przyciągnąć analityków o pożądanych kwalifikacjach. Ostatecznie kierowany przeze mnie projekt dotyczący map został doceniony przez praktyków. Otrzymał prestiżowe nagrody: Srebrna Statuetka w kategorii Innowacyjność w konkursie Liderów Ochrony Zdrowia (2016) oraz certyfikat Best Practice European Public Sector Award 2017, przyznawany przez European Institute of Public Administration w Maastricht. A zatem również na Zachodzie doceniono nasze myślenie i działanie.

Jeszcze jedna uwaga. Chcę powiedzieć o czymś, co wydaje mi się właściwą podstawą do budowania całościowej struktury analitycznej w systemie zdrowia. Otóż w Ministerstwie Zdrowia wymyśliliśmy sformułowanie – obiektywne analizy dla subiektywnej decyzji (objective analysis for subjective decisions). Wymyśliłam to na potrzeby udziału resortu w europejskiej strukturze badawczej Światowej Organizacji Zdrowia (WHO) – EVIPNet’u (Evidence-informed Policy Network)2. W ramach prac EVIPNet’u powstał użyteczny model analiz. Na jego podstawie postanowiliśmy zająć się analizą podstawowej opieki medycznej z myślą o wytworzeniu wiedzy eksperckiej służącej wsparciu jej efektywności. Powołany został zespół, który wytworzył opracowanie typu policy brief. Bardzo brakuje nam takich analiz, a są one bardzo przydatne.

Opierając się na ich metodologii, wzięliśmy do analizy pierwszy temat – podstawowej opieki medycznej (POZ). Była to akurat sytuacja, kiedy doszło do strajku lekarzy POZ, ponieważ nie akceptowali niektórych rozwiązań w pakiecie onkologicznym (styczeń 2015 r.). Sprzeciw nie wynikał z tego, że pakiet im się nie podobał. W jego ramach lekarze otrzymywali dodatkowe środki na badania. Im się nie podobało to, że musieli przygotowywać sprawozdania z badań, które zlecali pacjentom.

Marcin Sakowicz: Czyżby lekarze patrzyli na leczenie onkologiczne przez pryzmat biurokracji i dodatkowych obciążeń?

Barbara Więckowska: Nie, otóż lekarze są w specyficznej sytuacji. Pozostają bowiem często właścicielami zarówno ośrodków zdrowia działających w systemie podstawowej opieki medycznej (POZ-u), jak i ośrodków opieki ambulatoryjnej [specjalistycznej] (AOS). Lekarz będący właścicielem placówki POZ może wysłać pacjenta w ogóle bez badań do AOS-u (nie ma konieczności sprawozdania wykonanych badań w POZ). W ten sposób może „nabijać” więcej punktów w AOS. Dlaczego? Bo POZ finansowany jest poprzez jednolitą stawkę kapitacyjną (placówka otrzymuje określoną kwotę pieniędzy za każdą zapisaną osobę niezależnie od liczby wizyt lekarskich, z których korzysta), zaś AOS finansowany jest w systemie „za usługę”, czyli NFZ płaci danej placówce AOS w zależności od liczby wizyt pacjenta. Naprawdę to był duży problem.

Udało się nam to zmienić. Powstały nowe reguły, które wymagały, aby placówki AOS wykonywały sprawozdawczość ze zleconych badań. Niestety, jedną z pierwszych decyzji ministra Radziwiłła było odejście od tego obowiązku. I POZ znowu prawie nic nie musi sprawozdawać.

Doświadczenie i analiza

Karol Olejniczak: Jednym z głównych wyzwań, które stoją przed analitykami, jest przybliżanie decydentom przyszłości, czyli pomoc w antycypowaniu efektów ich decyzji i strategicznych wyborów. Chodzi o to, aby wytworzyć sytuację, żeby oni jasno rozumieli, jakie mogą być konsekwencje ich działań – aby one były namacalne i bliskie, a nie abstrakcyjne i odległe.

I tu chciałbym opowiedzieć o pewnym szalonym pomyśle zastosowania metody, która pozwala, aby decydent – na poziomie ludzkim – poczuł skutki decyzji, które podejmuje, w tym ewentualną katastrofę, ale zanim do niej dojdzie. Ta metoda to zastosowanie gier do przewidywania mechanizmów reakcji interesariuszy na daną regulację. Najbardziej znany przykład zastosowania tej metody to sesja symulacyjna – Rubber Windmill. Rząd brytyjski testował ją w latach 80. w trakcie reformy systemu służby zdrowia.

Ostatnio, w ramach projektu NCN, wykorzystaliśmy tę metodę gry symulacyjnej do przewidywania efektów regulacji prawnych. Chodzi o zapisy nowego projektu ustawy o publicznym transporcie zbiorowym. Będą one miały znaczący wpływ zarówno na dostępność komunikacyjną w gminach wiejskich, jak i na regionalny rynek transportowy (przewoźników autobusowych). Zapisy ustawy przenieśliśmy na reguły gry i zaprosiliśmy do gry głównych interesariuszy – władze powiatu, wójtów, właścicieli dużych i małych firm transportowych. Dzięki uprzejmości władz powiatu kościerskiego zagraliśmy w grę z prawdziwymi decydentami. Gra była taką maszyną czasu, w dwa dni gracze przeżyli trzy lata przejścia ze starej do nowej ustawy i funkcjonowania według nowych reguł. Już przy trzeciej turze gracze wiedzieli, że trzeba koordynować rozpisywanie przetargów, bo w trakcie gry dwa razy dzieci nie dowieziono do szkoły i wójt stracił poparcie, ponieważ nikt nie stanął do przetargu.

My testowaliśmy, na ile prawo zakończy się katastrofą, na ile nie. Na planszy – mapie widzieliśmy, czy pojawiają się białe plamy i która gmina sobie nie poradziła. Mieliśmy zapisy przetargów, które gracze rozpisywali, był też czas na refleksję, gdy w wywiadach gracze mówili, jaką mają strategię względem innych przedsiębiorców, innych gmin. Mogliśmy więc zrozumieć, jak poszczególne typy aktorów, których dotknie ustawa, myślą i racjonalizują swoje decyzje.

Na końcu sesji pojawił się też bardzo ciekawy wątek, niespodziewany dla nas badaczy. Pan wicestarosta, osoba z bardzo dużym doświadczeniem, który nota bene przyszedł tylko, by otworzyć grę, ale wciągnął się i został na całe dwa dni, stwierdził, że to dla niego było bardzo ciekawe doświadczenie. Według niego była to najlepsza konsultacja społeczna, jaką przeszedł. Stwierdził: „ja dopiero zrozumiałem, jak funkcjonują przedsiębiorcy i dlaczego…”.

Adam Jasser: I jakie są ich motywacje.

Karol Olejniczak: Dokładnie. Bo jak byśmy usiedli za stołem, to tego by nie było. I my zaczynamy z tym eksperymentować, to jest jakaś szansa. Nie do wszystkich tematów, ale…

Podsumowując ten wątek – analitycy mogą wykorzystywać modele, by prognozować efekty działań publicznych. Ale w sytuacji, gdy dana polityka publiczna dotyka wielu interesariuszy, wiele poziomów instytucji, to uruchamia nieliniowe zależności i sprzężenia, często nieracjonalne reakcje aktorów, które trudno jest modelować. W takich sytuacjach to gry symulacyjne pomagają nam antycypować efekty regulacji.

Barbara Więckowska: Tylko trzeba mieć czas na to, tak, no bo od pomysłu…

Karol Olejniczak: Paradoksalnie nie. Najdłużej zajęło nam aktualizowanie gry o kolejne wersje, bo gra powstawała miesiąc, ale następnego miesiąca była już kolejna wersja tej ustawy.

Między intuicją a analizą

Karol Olejniczak: Chciałbym teraz pociągnąć wątek relacji, która dotyczy przestrzeni między analitykiem a decydentami, ale nie na poziomie instytucjonalnym, a na poziomie ludzkim, i przejść do części preskryptywnej naszej rozmowy. Czyli do tego, jak wspierać skutecznych analityków, żeby docierali z wiedzą do decydentów i byli słuchani.

Pani dr Więckowska zaczęła mówić o budowie zespołów szybkiego reagowania w problemach publicznych czy o tym, jak rozmawiać o danych z osobami, które są laikami w konkretnej polityce, a jednocześnie są decydentami albo ekspertami w wąskim polu. Wy konfrontujecie się z ekspertami, ale którzy myślą wąskimi kategoriami…

Różnice w postrzeganiu wartości analiz i danych mogą wynikać z gry interesów, ale wydaje mi się, że wynikają raczej z ludzkiej natury. Cała polityka publiczna to jest podejmowanie decyzji. A o podejmowaniu decyzji wiemy coraz więcej od psychologów. Ostatnio również ekonomiści zaczęli dostrzegać ograniczoną ludzką racjonalność i uznali ten problem za ważny i praktycznie, i naukowo – przyznali nagrodę Nobla Danielowi Kahnemanowi, a w tym roku Richardowi Thalerowi.

Co mówi nam nauka? Podejmując decyzję, przełączamy się między dwoma systemami decydowania – albo posługujemy się systemem automatycznym, intuicyjnym, ale często omylnym (taki system zasad „pi razy drzwi”), albo systemem drugim – analitycznym, refleksyjnym i bardzo precyzyjnym, ale czasochłonnym. Zasadniczo przez większość życia jedziemy jednak „na automacie” – czyli systemie pierwszym, bo zaoszczędza czas i energię. Jakbyśmy chcieli non stop opierać się na systemie refleksyjnym, to nie wystarczyłoby nam glukozy i ciastek, bo nasz mózg na takim zwykłym biologicznym poziomie potrzebuje dużo energii do myślenia analitycznego.

Eksperci również opierają się na swojej intuicji. Przez lata budują mapę mentalną, której wyrazem staje się na przykład założenie, że mechanizm rynkowy rozwiązuje wszystkie problemy zbiorowe. To podejście okazywało się skuteczne ileś razy i dlatego eksperci następnie ją powtarzają. Wytworzyli w sobie pewną intuicję i rutynę. Pani podała dwa co najmniej przykłady, które są typowo takimi zasadami „pi razy drzwi” tego myślenia intuicyjnego w wykonaniu polityków czy ekspertów.

Lekarz mówi – a ja znam przypadek pana x, który przebiegał w określony sposób i na tym opiera się, diagnozując innych pacjentów. Zapamiętujemy zwłaszcza rzeczy nietypowe, a później tym się kierujemy. To jest zwykłe nasze skrzywienie poznawcze, że łatwiej nam się zapamiętuje wyjątkowe przypadki z samolotu, który spadł (ale zapominamy, że statystycznie to najbezpieczniejszy środek transportu), babci, która dotrwała do 100 lat, a paliła jak kotłownia (ale nie myślimy o udowodnionej relacji między paleniem a ryzykiem raka), to są wszystko takie rzeczy, które się zapisują i tak działa nasz mózg. Przenosząc to na politykę publiczną – gdy się pojawia presja czasu, wyzwanie, to decydenci zaczynają uciekać w system intuicyjny. I tu jest rola analityków, by włączyć system refleksyjny, popatrzeć na problem, unikając skrzywień poznawczych i rozwiązań typu „pi razy drzwi”.

Marcin Zawicki: Koncentrujemy się na funkcji analitycznej administracji rządowej, a zwłaszcza analizie podporządkowanej tworzeniu ustaw. Jest to zrozumiałe, ponieważ ustawy są podstawowym narzędziem dystrybucji środków publicznych. Chciałbym jednak zwrócić uwagę również na poziom wojewódzki. Samorządy województw budowały swój potencjał analityczny związany z wydatkowaniem funduszy europejskich. Im również nie udało się uniknąć nieefektywności wynikającej na przykład z błędnego pojmowania środków pomocy technicznej. Środki te stały się łatwym instrumentem nabywania usług analitycznych na zewnątrz, ale już w mniejszym stopniu wzmacniania potencjału tej administracji poprzez wzmacnianie jej wiedzy zbiorowej. Poza zadaniami, które wymagały wsparcia eksperckiego, samorządy te, moim zdaniem, nazbyt chętnie kontraktowały zadania, które absolutnie nie powinny być zlecane. Przykładem jest monitorowanie wdrażania zadań, za które administracja ta odpowiada.

Analiza rządowa, pozarządowa, biznesowa

Adam Jasser: Jest bardzo wyraźny problem, również administracji rządowej. Na ile korzysta ona z zewnętrznych ekspertów, a na ile buduje swoją własną kompetencję. To jest bardzo ważne. Najlepiej jest, jeśli ma własną zdolność do weryfikacji zewnętrznych analiz.

Marcin Zawicki: Idąc dalej tym tropem, trzeba również powiedzieć, że im bardziej kompetentna w sensie analitycznym jest administracja, tym łatwiej jest jej uczestniczyć w dyskusji merytorycznej z silnymi partnerami, zwłaszcza ze strony sektora gospodarczego. Administracja powinna więc wzmacniać swoje kompetencje analityczne także po to, żeby równoważyć umiejętności, jakie w tym zakresie ma biznes. Interesy gospodarcze są przecież artykułowane i rozgrywane na podstawie wiedzy analitycznej, eksperckiej.

Adam Jasser: Oczywiście, lobbing posługuje się danymi.

Marcin Zawicki: Uważam również, że celem polskiej polityki publicznej powinno być szeroko pojmowane promowanie wiedzy i umiejętności analitycznych w polskiej gospodarce. Nie wszystkie bowiem cele gospodarcze możemy osiągać polityką międzynarodową czy jakąkolwiek inną polityką rządową. Im więcej organizacji branżowych czy sektorowych będzie potrafiło dowodzić swoich racji i aktywnie uczestniczyć na przykład w kształtowaniu polityk regulacyjnych na forum europejskim, tym większa będzie szansa, że określone interesy gospodarcze uda się skutecznie zabezpieczyć. A władzom publicznym, które mają za sobą silne wsparcie merytoryczne organizacji gospodarczych, niewątpliwie będzie łatwiej prowadzić politykę gospodarczą na płaszczyźnie ponad- czy międzynarodowej.

Karol Olejniczak: Chciałem dokończyć myśl, którą zacząłem snuć. A więc mamy decydenta, który ma jakiś dylemat i on stawia jakieś hipotezy. Bo sposób rozwiązania danego wyzwania społeczno-gospodarczego to tylko hipoteza. Jej prawdziwość zweryfikuje życie. Na przykład decydent jest przekonany, że należy się zająć tą i tą jednostką chorobową, no bo już trzeci raport w TVN-ie widział i wyborcy dzwonią, zaczyna mu się wydawać, że to jest ważne.

Teraz wyłania się kwestia, w czym mogą pomóc analitycy. Z naszej dyskusji wynika, że po pierwsze, mogą pomóc wyartykułować hipotezę, bo decydent nawet często nie wie, że domyślnie zakłada jakąś zależność przyczynowo-skutkową typu: jak zakażemy ustawowo sprzedaży śmieciowego jedzenia w szkołach, to rozwiąże się problem otyłości dzieci w Polsce. Więc już sama taka rozmowa o tym z decydentem staje się ważna – o tym, jaką on widzi zależność, dlaczego chce uruchomić pieniądze lub nakaz i co z tego wynika. To jest często pokazane za pomocą danych, zależności między pewnymi zjawiskami, których na co dzień nie widzą rządzący.

Druga rzecz to pomoc w ważeniu argumentów – pokaż mi, czy opcja A, czy opcja B będzie lepiej działała, ile możemy zaoszczędzić, ile stracić – to też jest ważna rola analityków względem decydentów. No i trzecia – testowanie hipotez. Coraz częściej wchodzą w życie zaawansowane metody analityczne, które pozwalają nam testować pomysł działania publicznego – regulacji, projektu, programu – zanim go wprowadziliśmy w pełnej skali. O grach i modelowaniu już mówiłem. Coraz częściej analitycy, wraz z badaczami, „idą w teren” – robią pilotaże rozwiązań z obywatelami. Prosty przykład eksperymentów z listami przypominającymi o zaległościach podatkowych. Bank Światowy z naszymi urzędami podatkowymi zmieniał treść listu i okazało się, że odwołanie się do norm społecznych wpływa znacząco na to, jak ludzie reagują i jak szybko płacą. Był cały pilotaż, ileś form listów było testowanych, i na podstawie wyników tego testu przyjeto formę listu, która najlepiej działała na podatników.

No i teraz mój największy dylemat, który chciałbym tu podnieść. Kto w polskim kontekście jest decydentem i gdzie jest popyt na wiedzę? Czy to są politycy w rządzie? Kto potrzebuje tej wiedzy analitycznej? Minister ma jakąś swoją ideę fix, chce coś zmienić i dlatego teraz potrzebuje informacji?

Posłanki i posłowie – czy rzeczywiście potrzebują takiej wiedzy i chcą konfrontować się ze swoimi hipotezami, które mają gdzieś tam w głowie domyślnie? Czy zainteresowane jest wysokie kierownictwo administracji i szeroka opinia publiczna? A może raczej wąskie grupy interesu jako interesariusze?

To jest mój dylemat albo pytanie osoby zmagającej się z wyzwaniem instytucji – akademii analityków, która zaraz ma ruszyć. Którzy decydenci i aktorzy polityki publicznej nas faktycznie potrzebują i w którym momencie możemy wejść czy pojawić się, żeby nas potrzebowali? Chodzi zatem o to, aby pomóc im w myśleniu, pomóc w przełączeniu się na ten drugi refleksyjny system myślenia. Ich myślenie często opiera się na wartościach, na intuicji, na koalicji, która już została zbudowana. Takie są realia polityki i tak musi być, ale czasami decydenci potrzebują głębszego wglądu analitycznego, informacji opartej na danych. Czasami wyłania się potrzeba zastanowienia się w bezpiecznym jeszcze środowisku, zanim w realnym świecie nastąpi katastrofa czy wielki sukces.

I to jest dylemat: jak nawiązać kontakt, jak zmniejszyć tę lukę między produkcją analiz a potencjalnymi użytkownikami wiedzy – decydentami… Wspomnieliśmy już o tym, że z jednej strony mamy świat danych abstrakcyjnych, a z drugiej proces sprowadzania ich do konkretu, kiedy przekładają się na sytuację takich czy innych grup pacjentów.

Wydaje mi się, że analityk musi starać się być blisko ucha, blisko strategicznego myślenia, bo inaczej nikt go nie będzie słuchał. Albo inaczej musi być usieciowany, rozmawiać z terenem.

Adam Jasser: Odpowiedź na pański dylemat jest prosta. Są dwie metody: albo jest taka metoda organiczna, to znaczy, że jak minister jest sensowny i widzi potrzebę rozmawiania z analitykami…

Karol Olejniczak: Czyli rozmawiamy o poziomie ministra…

Adam Jasser: …bo w Polsce jest taki system – minister jest teoretycznie niezależny, to znaczy on konstytucyjnie odpowiada za swój obszar. I teraz albo ma Pan ministrów, którzy cenią taki sposób myślenia i na przykład myślą sobie tak – widzę problem, dzwonią mi do biura poselskiego, widzę te sygnały, oglądam TVN. To co robię? Zbieram grupę ekspertów i szukam różnych odpowiedzi, uruchamiam innymi słowy proces analityczny. Albo mówię: nie, ja wiem co trzeba z tym zrobić, trzeba dać każdemu pięć stów. I teraz analitycy mają zadanie, aby mu uzasadnić wydanie tych pięciu stów. To są zupełnie dwie rozdzielne metodologie. I to jest jedna rzecz.

A druga rzecz to jest kwestia kultury instytucjonalnej kraju, która wymusiła procedurę. My tu cały czas nie mówimy o procedurze, a kluczowa na koniec dnia jest procedura. I ta procedura niestety musi być powszechna, bo co z tego, że jeden element administracji będzie stosował najlepsze praktyki analityczne, kiedy inne nie będą w procesie decyzyjnym, na przykład ktoś powie – ale właściwie, skąd to się wzięło i po co? Nie, tego nie robimy. Albo w Sejmie ktoś powie – nie, nie, my mamy swój własny projekt i on nie jest w żaden sposób objęty procedurą weryfikowania.

Kiedy premier D. Tusk zapowiedział na pierwszym spotkaniu Rady Ministrów, że od dzisiaj będzie inaczej i że już nie będzie biegunki legislacyjnej, mało kto uwierzył. Ale po roku było już widać efekty, bo cały system się zakorzenił.

Karol Olejniczak: Bo skończyło się magiczne myślenie, że ustawa automatycznie zmienia rzeczywistość. Nagle trzeba było pokazać, czy to magiczne myślenie ma pokrycie w danych. I w tej konfrontacji często okazuje się, że ustawa jest życzeniowa. Trywializując, prawne zadekretowanie, żeby się ludzie nie garbili, nie znaczy, że ludzie nie będą się garbić.

Adam Jasser: W rządzie, w którym pracowałem, też widać było tę wiarę, że ustawa jest dobra na wszystko. Przychodziły na Radę Ministrów projekty, co do których czasem trudno było się zorientować, po co są. Premier był tym często sfrustrowany i stąd w drugiej kadencji okazał dużą determinację, aby zahamować biegunkę legislacyjną i ograniczył goldplating, czyli zjawisko polegające na tym, że ministrowie czy posłowie wykorzystywali okazje do dokładania regulacji krajowych przy okazji tworzenia projektów prawa, których celem było implementowanie prawa unijnego.

Marcin Sakowicz: Zwrócę także uwagę na kolejną rzecz, która ograniczała analizę, a zwiększała proces dokładania nieprzemyślanych projektów legislacyjnych. Otóż od dawna nie udaje się liderom rządowym poradzić sobie z systemem udzielnych księstw, jakie tworzą poszczególne ministerstwa. Tym samym nie ma wspólnego myślenia o pewnych priorytetach, mimo że niektóre problemy są z natury przekrojowe. One po prostu przechodzą bez echa wśród ministrów, którzy zajęci są tylko problemami typowo resortowymi.

Tymczasem są przykłady rządów na świecie, którym udaje się zrobić przekrojowe zespoły działające wspólnie dla całego rządu, ponadministerialne i współpracujące. Ustalane są przykładowo priorytety i wskaźniki na 5 lat i później monitorowane co 6 miesięcy. Tak się zarządza już w wielu państwach, np. w Nowej Zelandii.

Adam Jasser: Centrum rządu, to znaczy DAS i kierownictwo Komitetu Stałego, pełniło taką rolę koordynacyjną. Ale my to robiliśmy bez fanfar i bez obecności w mediach. Zamiast chodzić po mediach i mówić, jak to my teraz wszystko kontrolujemy, staraliśmy się pracować zespołowo i budować wzajemne zaufanie. To było bardzo satysfakcjonujące i przynosiło efekty.

Dla ministerstw to też było korzystne, bo te z nich, które były otwarte na rzeczową współpracę, widziały efekty w postaci szybszego procesu legislacyjnego, a przede wszystkim lepszych rozwiązań. Ale oczywiście byli tacy, którzy chcieli grać siłowo i na nich ten filtr w KPRM był dość bezlitosny.

Nie było też tak, że KPRM miał wszystko policzyć dla ministerstw. Wprost przeciwnie, my byliśmy gotowi pomóc w zakreśleniu ram analitycznych lub wykonaniu jakichś obliczeń, jeżeli ministerstwa tego potrzebowały. Uruchomił się taki virtual cycle, gdzie ludzie ze sobą rozmawiali, konsultowali, wymieniali się danymi.

Innymi słowy, zręby inkluzywnego systemu powstały, tylko problem polega na tym, że każda administracja musi do tego dorosnąć. Zachodnie demokracje dochodziły do swoich systemów 30–40 lat i to już jest zakorzenione. Tym krajom nie zaszkodzi nawet polityk, który na chwilę powie – a ja będę się kierować wyłącznie intuicją. Siła instytucji i procedur, jakość służby cywilnej wcześniej czy później znów będą w cenie. A w polskiej administracji chodzimy od „Sasa do Lasa”.

Andrzej Zybała: Jan Rokita próbował diagnozować procedury decyzyjne podczas kadencji D. Tuska. Stwierdził, że funkcjonował w jego systemie drugi pokój. W jednym trwała oficjalna dyskusja, ale jak miała zapaść decyzja, to przechodził do drugiego pokoju, gdzie byli ludzie zaufani i zapadała finalna decyzja.

Adam Jasser: Nie podzielam tej opinii. W drugiej kadencji udało się nam właśnie „uprocesowić” decyzje legislacyjne. Z mojego punktu widzenia był to proces wewnętrznie przejrzysty i konsekwentny. W oczywisty sposób jednak ostateczna decyzja należała do premiera. Ale to premier naciskał, żeby ta procedura i proces były i działały prawidłowo.

To było kluczowe, bo tak jak w firmie – jeżeli prezes nie jest silnym sponsorem przestrzegania procedur, to nie będą one działały. Wpływ premiera musi być odczuwalny i promieniować na całą administrację, jak kapitana z mostka na okręcie.

Jedynym sposobem, żeby zinstytucjonalizować potencjał analityczny czy procedury analityczne jest to, aby premier miał świadomość, premier czy szef Komitetu Stałego Rady Ministrów, który/która patrzy horyzontalnie na wszystkie działania legislacyjne. Tu mówię o poziomie rządowym, bo pan Marcin Zawicki słusznie wspomniał o samorządach, strategiach lokalnych, ale to jest inny wymiar. Naprawdę, zmienianie ustaw zdrowotnych czy systemu finansowania służby zdrowia to nie jest to samo, co wprowadzanie nawet jakiegoś ciekawego programu w danym samorządzie. To jest inna skala, to dotyczy całego kraju.

Barbara Więckowska: Rozstrzygnięcia systemowe na bazie analizy wywołują opory. Podam przykład. Po tym, jak analitycy wyszacowali zapotrzebowanie na określone urządzenia medyczne na danym terenie, przyszedł pewien polityk. Zapytał, czy na „jego terenie” będzie zainstalowane dane urządzenie. Odpowiedziałam, że z analizy wynika, iż tam nie powinno być, ponieważ mapy potrzeb zdrowotnych nie przewidują go akurat w miejscu, o które pytał. To on – chciałbym wpisać. Odpowiedziałam, że nie przewidujemy wpisania do map, jeśli to nie wynika z analiz (prognoz). To on – a jakby pan minister powiedział, żeby Pani wpisała? – No to wtedy będę musiała zrezygnować z pracy, dziękuję. I już nie wrócił. Tłumaczyłam mu, że to jest krótkowzroczne. On mógłby może załatwić wpis, ale za moment znajdą się inni i mu to wypiszą.

Chodzi o to, że budowaliśmy mapy na podstawie zobiektywizowanych danych – o zachorowalności, określaliśmy zapotrzebowanie na dane procedury medyczne. Z tego powstał model, a z modelu wyniki. Oczywiście, do każdego zjawiska trzeba było zastosować inne modelowanie i współpracować ze środowiskiem, ale na etapie założeń, a nie ingerencji w wyniki.

Siła deliberacji i konsultacji

Adam Jasser: Musimy dążyć do systemu rządzenia, w którym analiza będzie częścią standardowej, rutynowej procedury w każdym ministerstwie. I drugi element, który jest piekielnie ważny, to jest proces konsultacyjny. Przez długi czas administracja rządowa traktowała proces konsultacji społecznej jako coś obowiązkowego, okropnego. Urzędników bolało to, że przychodzą jacyś ludzie (interesariusze), coś gadają, robią zamieszanie, szczególnie lobbyści.

Gdy rozpocząłem pracę w KPRM, wciąż słyszałem, że ci, którzy przychodzą w jakichś sprawach – to lobbyści. Odpowiadałem, że nawet lobbysta może mieć rację, a nas interesuje pozyskanie wiedzy i weryfikowanie tego, co wiemy. To nie znaczy, że powinniśmy przyjmować bezkrytycznie wszystko, co nam mówią interesariusze. Ale jeżeli przedsiębiorcy czy działacze społeczni przyjdą ze swoimi danymi i pokażą nam pewne procesy, które zachodzą w ich sferach działania, to my będziemy mądrzejsi, a nie głupsi.

Powyższe skłania mnie do uwagi na temat źródeł tak zwanej pułapki średniego dochodu. Ona nie wynika stąd, że mamy gorsze parametry ekonomiczne, ale z braku instytucjonalnego rozwoju, zdolności do budowania kompromisów, do budowania tej eksperckiej wiedzy. Ile białych ksiąg czy zielonych ksiąg w Polsce wytwarzano w jakimś trudnym obszarze? Ile jest takich przypadków, żeby ktoś powiedział – społeczeństwo dotknął problem społeczny czy gospodarczy, nie bardzo wiadomo, jak go rozwiązać – to teraz przez pół roku zbierajmy informacje, dane, a potem przedstawmy raport do publicznej dyskusji, a dopiero następnie, ewentualnie, reformujmy pewne mechanizmy, aby pozbyć się problemu.

Marcin Sakowicz: Konsultacje mogą przynosić wielkie korzyści, co wynika z doświadczeń zachodnich, ale też naszych polskich. Są różne typy rozwiązań, już nie mówię o budżetach obywatelskich, ale choćby o panelach obywatelskich, które służą wytwarzaniu kompromisowych wersji rozwiązań. Tworzone są także reprezentatywne grupy danej społeczności lokalnej, które pomagają w wychwytywaniu problemów, którymi polityk powinien się zajmować.

Dużą popularnością cieszą się na świecie analizy behawioralne, także online, które wspierają decydentów w podejmowaniu właściwych decyzji w działaniach publicznych. Przykładowo, Brytyjczycy na konferencji OECD poświęconej innowacjom w sektorze publicznym chwalili się narzędziem predictiv – platformą online do przeprowadzania eksperymentów behawioralnych w interwencjach publicznych3. Platformą zarządza organizacja – spółka celu społecznego, której właścicielem jest rząd Wielkiej Brytanii.

Karol Olejniczak: Od jakiegoś czasu rozwija się cały nurt narzędzi demokracji deliberatywnej. Zastosowano ją na przykład w Gdańsku. Jest często tak, że w pewne tematy nawet polityk nie ma czasu się wgryźć. W temat wgryzają się często tylko wąskie grupy interesu, które de facto sterują procesem demokratycznym, co powoduje, że on dryfuje, bo wszyscy są tak zajęci, utopieni w skomplikowanych problemach, w danych. Społeczeństwo kieruje się często emocjami, w związku z tym łatwiej jest zająć Facebookiem i tweetami uwagę społeczną. Co zrobić?

Tworzymy grupę na podstawie losowania, tak jak ławników do sądu. Powstaje grupa 20 osób i ci obywatele różnych stanów i różnej wiedzy siedzą przez kilka dni – mają płacone – i wgryzają się w temat z ekspertami. I później głosują. Głosowanie jest wiążące – stanowi podstawę decyzji decydentów.

Eksperymenty pokazują, że wąska grupa obywateli, która wgryzie się w temat, podejmuje lepsze decyzje niż politycy czy powszechne referenda. I to niezależnie od poziomu edukacji społeczeństwa, czy w Afryce, czy w USA. Okazuje się, że to są rzetelniejsze rozwiązania i przynoszą lepsze efekty, mimo że wyjściowo ci ludzie mogą mieć skrajne emocje i skrajne poglądy.

Jednak kiedy jest czas na wgryzienie się, najlepiej posłuchać eksperta i zważyć własne racje, emocje i wartości. To jest często dużo lepiej skalibrowane, niż by się wydawało. Jednocześnie jest tak, że masowy proces demokratyczny, jak mówię, dryfuje, jest często przejmowany przez wąskie grupy interesów albo kierowany przez powierzchowne emocje.

Dlaczego wspominam o tych eksperymentach deliberatywnych? To jest metoda, która może poszerzyć warsztat analityka. I tu jest rola dla analityków. Analityk rządowy mógłby być z jedną z osób, która pomaga w takim procesie, daje wkład merytoryczny, pokazuje nie surowe dane, ale już przetworzone właśnie na mapach, wizualizacjach. Trochę to, co Pani opisywała z lekarzami, to jest ten proces.

Marcin Sakowicz: W pełni się zgadzam, narzędzie to spopularyzował prof. James S. Fishkin z Stanford University, tzw. deliberative polling – sondaż deliberacyjny4. To narzędzie już było wykorzystywane w Polsce. Między innymi w 2009 r. wybrana reprezentatywna grupa mieszkańców Poznania spotkała się, aby przedyskutować kwestie zagospodarowania stadionu modernizowanego na mistrzostwa Europy w piłce nożnej w 2012 r. W Gdańsku od 2016 r. funkcjonuje panel obywatelski, z wykorzystaniem metod deliberatywnych dyskutowane są takie kwestie, jak: co zrobić, żeby poprawić zatrzymanie wody deszczowej czy np., na czym polega edukacja demokratyczna?

To deliberatywne podejście jest mocno zakorzenione w wielu miejscach na świecie, nie tylko jako eksperyment, ale ważny element kształtowania interwencji publicznych. W USA np. sondaż deliberacyjny wykorzystywany był również online. Istnieje również wiele badań naukowych potwierdzających skuteczność deliberacji i wykorzystania wiedzy oraz doświadczeń wielu interesariuszy zainteresowanych danych tematem.

Adam Jasser: Powracam do tego, od czego zacząłem. Mamy w tej chwili dość niesprzyjający klimat, i to nie tylko w Polsce, do działań analitycznych. W wielu państwach polityka trochę się oderwała od analitycznego myślenia i opiera się bardzo silnie na emocjach.

Powstaje pytanie, czy to jest po prostu cykliczne i czy w którymś momencie wróci do normy? Wydaje mi się, że siła instytucji na Zachodzie jest na tyle ugruntowana, iż one przetrwają nawet te trudniejsze okresy, a w Polsce może być gorzej. Ferwor rewolucyjny sprawia, że nie ma chęci skorzystania z najlepszych aktywów po poprzednikach i budowania systemu wiedzy i analityki dalej. Może być, że się cofamy, a później znowu będziemy zaczynali od nowa. Brakuje ciągłości instytucjonalnej.

Karol Olejniczak: Decydenci uczą się na sobie. Dopiero doświadczenia osobiste czy wręcz wstrząs sprawiają, że dostrzegają oni nadmiar regulacji, co z kolei powoduje, że ostatecznie tracą głosy. To dopiero wywołuje potrzebę refleksji. Ponadto łatwo dostrzec, że partie, które są w danym momencie w opozycji, nie są zainteresowane danymi będącymi w dyspozycji rządu, bo jak się ma dane, to później ktoś powie – mieli dane, a mimo to nic nie zrobili albo zrobili inaczej. A tak, to polityk będzie tłumaczył, że nic nie wiedział, partia rządząca zaskoczyła działaniami i tak dalej…

Pogoda dla analiz?

Andrzej Zybała: Na koniec być może warto zadać istotne pytanie o ścieżkę w przyszłość. To znaczy, jakie warunki powinny zaistnieć, żeby była szansa na wytworzenie lepszej pogody dla analiz?

Karol Olejniczak: Kluczowe jest udostępnianie danych, które są w miarę wiarygodne i podaż ludzi, którzy potrafią te dane analizować, interpretować i o nich opowiadać.

Marcin Sakowicz: Udostępnianie takich danych, z których można skorzystać. To obejmuje nie tylko dostęp do informacji publicznej, ale wykorzystanie informacji wtórnej do tworzenia nowych usług i rozwiązań. W tym zakresie USA prześcignęły Unię Europejską i teraz również w Polsce nadrabiamy zaległości, aby jak najwięcej danych będących w rękach sektora publicznego było możliwych do wykorzystania przez sektor prywatny.

Barbara Więckowska: Ale pod jednym warunkiem. Z perspektywy czasu, wchodząc do ministerstwa, dokładnie tak samo myślałam – dajcie mi dane i będę szaleć. Niestety, trzeba jeszcze rozumieć, co w tych danych jest, jak skonstruowana jest baza. Dlatego konieczne jest tworzenie platform wymiany danych. Mam nadzieję, że to wyjdzie. Dla nas najważniejsze jest to, żeby połączyć dane NFZ-etu z danymi ZUS-u. Mam nadzieję, że będą do uzyskania dane o tym, kto płaci składkę, dane o tym, kto wrócił na rynek pracy po rehabilitacji. Jest projekt, który koordynuje Ministerstwo Cyfryzacji i zaangażowanych jest dużo innych instytucji oraz uczelnie. Trzymam kciuki za ten projekt – byłby to krok milowy dla analiz w Polsce.

Karol Olejniczak: Widzę tu pewne ryzyko. W samych urzędach jest problem z budowaniem potencjału analitycznego – analitycy, którzy rozumieją dane i potrafią je interpretować, są wciąż wąską grupą. A co dopiero, jak dane weźmie osoba bez przygotowania albo fundacja NGO i robi infografikę na Twitterze, że w tym województwie to cztery razy częściej pacjenci umierają, a to się okaże, że jest źle coś przeliczone.

Marcin Sakowicz: Mam wrażenie, że jeszcze nie wszędzie wytworzyła się taka kultura sprzyjająca dzieleniu się danymi, natomiast podchodząc strategicznie, to władzom publicznym należałoby przypisać zadanie, żeby dane, które są możliwe do upublicznienia, udostępniać najszerzej, a także w sposób najprostszy, jak to tylko możliwe. W ten sposób budujemy potencjał do rozwoju przedsiębiorczości i nowej jakości usług dzięki posiadanym danym.

Karol Olejniczak: Są raporty dla Kongresu amerykańskiego, oni powołali Commission on Evidence Based Policy Making5 z amerykańskim Census Bureau (ichniejszy GUS) i urzędami federalnymi. Przez rok radzili, jak wykorzystywać dane, łączyć je, jednocześnie nie naruszając tego, co jest szczególnie drażliwe dla Amerykanów, czyli poszanowania prywatności obywateli przez państwo. Chociaż, tak na marginesie, taki Amazon wie o obywatelach mnóstwo i obywatele wciąż udostępniają Amazonowi jeszcze więcej informacji o sobie. W tym raporcie pojawią się właśnie dylematy, ale i propozycje rozwiązań w wykorzystywaniu danych w polityce publicznej.

Adam Jasser: Jest jeszcze bardzo ważny element – strach. To znaczy, dopóki decydenci nie odczuwają strachu, że popełnią błąd, to nie będą cenili analizy. To jest moje zdanie podsumowujące. Zetknąłem się z tym w administracji publicznej, zwłaszcza rządowej najwyższego szczebla. Ludzie po prostu z szeroko otwartymi oczami gotowi byli proponować rozwiązania bez poczucia obawy o rezultaty.

Karol Olejniczak: Żeby poczuć strach, trzeba mieć wyobraźnię.

Adam Jasser: Albo już mieć poparzone ręce, czyli doświadczenie. Zawsze jest dylemat pomiędzy szybkością i jakością podejmowania decyzji. Z moich doświadczeń wynika, że pośpiech jest na ogół złym doradcą w reformach. Winston Churchill miał takie powiedzenie, że zwłoka to połowa rozwiązania. Coś w tym jest, bo jeżeli jest czas podjąć trud analityczny, wysłuchać interesariuszy, popatrzeć na dane, przejrzeć rozwiązania z innych krajów, to ryzyko popełnienia błędu można zredukować. W warunkach, kiedy się na kolanie coś szybko robi, bo się wydaje, że za chwilę z tego będzie korzyść polityczna i społeczna, to jest to polityka na chybił-trafił. Więc jakby się politycy trochę bardziej bali konsekwencji nieprzemyślanych decyzji, to chyba lepiej osiągaliby swoje cele. Ale do tego się dochodzi, to jest kultura polityczna.

Karol Olejniczak: Albo istnieją instytucje, które trochę to hamują. Teraz walczy Donald Trump z instytucją, to jest cały czas przepychanie się. On ma każdego dnia nowy pomysł na Twitterze i instytucje to cały czas tonują, starają się wyważyć i stabilizować. On strachu nie okazuje.

Adam Jasser: To dobry przykład. W Polsce instytucje okazały się słabo zakorzenione. Dzisiaj jest tak, że wzrost gospodarczy jest przyzwoity i to przysłania naszą pogarszającą się zdolność do reagowania na sytuacje kryzysowe za pomocą silnych instytucji. Percepcja Polski i jej osiągnięć instytucjonalnych pogarsza się, więc jeżeli nie nastąpi w drugiej kadencji jakieś opamiętanie, to będzie coraz słabiej z polityką opartą na analizie i wiedzy. Będziemy wtedy zupełnie o czym innym rozmawiali.


1 Opinie i wnioski prezentowane w niniejszym artykule przez Marcina Zawickiego stanowią rezultat projektu „Dobre rządzenie – wybrane problemy oceny efektywności”, nr 088/WGAP-KAP/01/2017/SU/7088, realizowanego na Wydziale Gospodarki i Administracji Publicznej Uniwersytetu Ekonomicznego w Krakowie.

2 http://www.euro.who.int/en/data-and-evidence/evidence-informed-policy-making/evidence-informed-policy-network-evipnet

3 http://www.behaviouralinsights.co.uk/ventures/

4 https://comm.stanford.edu/faculty-fishkin/

5 https://www.cep.gov/