Issuu on Google+

2/2010

9

770239

641008

ECONOMIC STUDIES nr 2 (LXV) 2010

ISSN 0239–6416

Cena 28,00 zł (w tym 0% VAT) Nakład 250 egz.

STUDIA EKONOMICZNE

STUDIA EKONOMICZNE • ECONOMIC STUDIES

Instytut Nauk Ekonomicznych Polskiej Akademii Nauk Pałac Staszica ul. Nowy Świat 72 00-330 Warszawa www.inepan.waw.pl

INSTYTUT NAUK EKONOMICZNYCH POLSKIEJ AKADEMII NAUK

WARSZAWA 2010


Studia ekonomiczne Economic studies


INSTYTUT NAUK EKONOMICZNYCH POLSKIEJ AKADEMII NAUK

Studia Ekonomiczne ECONOMIC STUDIES nr 2 (LXV) 2010

Warszawa 2010


Czasopismo Instytutu Nauk Ekonomicznych PAN

Studia Ekonomiczne Rada Programowa Marek Belka, Henryk Dunajewski, Bogusław Fiedor, Dariusz Filar, Stanisław Gomułka, Marian Gorynia, Zbigniew Hockuba, Janina Jóźwiak, Elżbieta Kawecka-Wyrzykowska, Irena Kotowska, Tadeusz Kowalik, Adam Lipowski, Karol Lutkowski, Wojciech Maciejewski, Emil Panek, Urszula Płowiec, Dariusz Rosati, Jan Winiecki, Andrzej Wojtyna Komitet Redakcyjny Krzysztof Bartosik, Urszula Grzelońska (Redaktor Naczelny), Joanna Kotowicz-Jawor, Paweł Kozłowski, Witold Kwaśnicki, Adam Noga, Urszula Skorupska (Sekretarz Redakcji), Andrzej Sławiński, Cezary Wójcik Redakcja Władysława Czech-Matuszewska Opracowanie Graficzne i Projekt okŁadki Beata Gratys © Copyright by Instytut Nauk Ekonomicznych PAN, 2010 ISSN 0239-6416 Projekt jest dofinansowany ze środków Narodowego Banku Polskiego

Realizacja wydawnicza Wydawnictwo Key Text sp. z o.o. 01-180 Warszawa, ul. Górczewska 8 tel. 022 632 11 39; 022 632 11 36, fax wew. 212 www.keytext.com.pl wydawnictwo@keytext.com.pl


Spis treŚci ARTYKUŁY Andrzej T. SZABLEWSKI, Zmiany paradygmatów polityki energetycznej – aspekt liberalizacji i bezpieczeństwa dostaw . . . . . . . . . . . . . . . . . . . . . . . . . . 125 Anna WZIĄTEK-KUBIAK, Zróżnicowanie wzorców działalności innowa­ cyjnej przedsię­biorstw przemysłów o niskiej i wysokiej technologii. Analiza porównawcza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 Dominik SKOPIEC, Problem ryzyka operacyjnego w kontekście dynamicz­nych przemian w działalności banków . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

Artykuł dyskusyjny S. Ryszard DOMAŃSKI, Kwestia własnościowa w transformacji systemowej 193

Listy do redakcji Stefan MAŁECKI-TEPICHT, Makrokonfuzja: Dylematy teorii ekono­ micznej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229


CONTENTS ARTICLES Andrzej T. SZABLEWSKI, Changes in Energy Policy Paradigms – Liberalization and Security of Supply Dimensions . . . . . . . . . . . . . . . . . . . . 125 Anna WZIĄTEK-KUBIAK, Differentiation of Patterns of Innovation Between High and Low Technology Sectors’ Firms. Comparative Analysis . . . . . . . . 141 Dominik SKOPIEC, The Problem of Operational Risk in the Context of Dynamic Changes in Banking Activity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

DISCUSSION ARTICLES S. Ryszard DOMAŃSKI, Ownership in Systemic Transition . . . . . . . . . . . . . . 193

LETTERS TO THE EDITOR Stefan MAŁECKI-TEPICHT, Dilemmas of Economic Theory . . . . . . . . . . . . 229


Studia ekonomiczne 1 Economic studies nr 2 (LXV) 2010

ArtykuŁy

Andrzej T. Szablewski*

ZMIANY PARADYGMATÓW POLITYKI ENERGETYCZNEJ – ASPEKT LIBERALIZACJI I BEZPIECZEŃSTWA DOSTAW UWAGI WSTĘPNE Dokonane na przestrzeni ostatnich czterech dekad dwa zwroty w polityce energetycznej miały na tyle istotny i głęboki charakter, że często, dla podkreślenia ich znaczenia, używa się znanego w teorii nauki określenia „zmiany paradygmatu”. Zwroty te dotyczyły bowiem nie tylko celów i narzędzi, ale także postrzegania roli polityki energetycznej. Oba były wynikiem złożonego zespołu czynników wyrażających dynamiczne zmiany zachodzące zarówno w samych sektorach energetycznych – ropy, gazu węgla i energii elektrycznej – jak i w szeroko rozumianym otoczeniu. Co więcej, dosłownie w ostatnich miesiącach pojawiły się przesłanki, które być może zapowiadają kolejną, rychłą i równie istotną zmianę uwarunkowań, a zatem i kolejny zwrot w polityce energetycznej. Zmiana ta dotyczy sektora gazowniczego, który w  okresie ostatniej dekady stanowił przecież najbardziej istotny, sporny i  budzący największy niepokój problem polityki energetycznej zarówno na poziomie narodowym, zwłaszcza w krajach Europy Wschodniej, jak i ponadnarodowym, czyli Unii Europejskiej. Wspomniane tu zmiany paradygmatu polityki energetycznej wyrażały się przede wszystkim w odmiennej randze, jaką nadawano tradycyjnemu celowi polityki energetycznej, czyli zapewnieniu bezpieczeństwa dostaw paliw i energii elektrycznej. Ten niekwestionowany wcześniej priorytet polityki energetycznej od lat 70. w USA i 80. w Europie zaczyna ustępować priorytetowi liberalizacji sektorów energetycznych, w tym zwłaszcza sektorów sieciowych, tzn. gazowniczego i elektroenergetycznego. Po okresie dominacji priorytetu liberalizacji polityka energe*  Instytut

Nauk Ekonomicznych PAN.


126

A.T. Szablewski

tyczna od początku pierwszej dekady XXI wieku wchodzi w nową fazę. Fazę tę charakteryzuje podtrzymanie priorytetu liberalizacji, choć z narastającymi wątpliwościami, które wiążą się z  rosnącym powtórnie znaczeniem kwestii bezpieczeństwa dostaw oraz z pojawieniem się nowej determinanty polityki energetycznej, jaką jest przeciwdziałanie zmianom klimatu. Pozostawiając na boku kwestię tego ostatniego priorytetu, który, co warto podkreślić, budzi poważne kontrowersje ze względu, z  jednej strony, na skalę ekonomicznych konsekwencji wynikających z jego realizacji, z drugiej zaś – istnienia wątpliwości związanych z samą potrzebą ich ponoszenia z uwagi na coraz silniej kwestionowane merytoryczne podstawy tezy o zmianach klimatu1 – warto skupić się na kwestii zależności między liberalizacją a bezpieczeństwem dostaw zwłaszcza gazu. Zachodzące tu zmiany stanowiły bowiem nie tylko zasadniczą przesłankę dla dokonujących się kolejnych zwrotów w polityce energetycznej, ale i także przedmiot kontrowersji zarówno o charakterze akademickim, bo dotyczyły one ważnego działu mikroekonomii, jaką jest teoria ułomności rynków, jak i czysto praktycznym, bo odnosiły się do kierunków, zakresu i  przyszłości polityki energetycznej i stanowiącej jej ważną część polityki regulacyjnej państwa. Warto podkreślić, że o ile kwestia bezpieczeństwa dostaw jest już od dłuższego czasu przedmiotem stale rosnącego zainteresowania opinii publicznej, o  tyle zagadnienie zmian zachodzących w polityce energetycznej, zwłaszcza w związku pytaniem o relacje, jakie zachodzą między liberalizacją sieciowych sektorów energetycznych a bezpieczeństwem dostaw, rzadko bywa w naszej literaturze naukowej przedmiotem poważnej analizy. Stan ten bardzo mocno kontrastuje z literaturą zachodnią, gdzie już od dłuższego czasu uwaga ekonomistów i ekspertów przesunęła się z tematyki poświęconej genezie, przebiegowi, barierom i oczekiwanym efektom liberalizacji – mierzonym osiągniętym postępem w  zakresie poprawy efektywności kosztowej i alokacyjnej (cenowej) – na kwestie implikacji liberalizacji w zakresie bezpieczeństwa dostaw. W tym sensie artykuł ten wypełnia istotną lukę w stosunkowo ubogiej literaturze naukowej poświęconej kwestiom ekonomicznej specyfiki sektorów sieciowych, zwłaszcza jeśli uwzględnić, że kwestie te umieszczono w kontekście dynamicznie zmieniającej się polityki energetycznej. Celem rozważań jest zbadanie genezy dwóch zasadniczych zmian w strukturze priorytetów polityki energetycznej oraz ocena, w jakim stopniu uwarunkowania charakterystyczne dla modelu zliberalizowanej energetyki pozwalają realizować tradycyjny priorytet tej polityki, jakim jest bezpieczeństwo dostaw, w tym przede wszystkim dostaw gazu. Chociaż kwestia ta w  równym stopniu dotyczy elektroenergetyki i  gazu, to z  pewnością 1  W ostatnich miesiącach doszło do ważnych wydarzeń, które spowodowały zerwanie ze swoistą poprawnością polityczną w odniesieniu do tezy o antropogenicznym charakterze zmian klimatu, co pozwoliło na ujawnienie, że w środowisku klimatologów trwa dyskusja wokół pytań: czy są podstawy do twierdzenia, że rzeczywiście występuje zmiana klimatu, a  jeśli tak to w  jakim kierunku (ocieplenie czy oziębienie) i pod wpływem jakich czynników związanych z działalnością człowieka, jak chcą zwolennicy polityki klimatycznej, czy też zmiana klimatu jest częścią naturalnych, przebiegających cyklicznie w bardzo długich okresach procesów ocieplania się i oziębiania klimatu na kuli ziemskiej.


ZMIANY PARADYGAMATÓW POLITYKI ENERGETYCZNEJ – ASPEKT…

127

w szerokim odbiorze społecznym i w wymiarze politycznym ten drugi aspekt bezpieczeństwa postrzegany jest jako znacznie ważniejszy.

BEZPIECZEŃSTWO DOSTAW FUNKCJĄ LIBERALIZACJI SEKTORÓW ENERGETYCZNYCH Aby zrozumieć znaczenie dokonanego na początku mijającej dekady zwrotu w  podejściu do polityki energetycznej, warto przypomnieć, po pierwsze, jakie uwarunkowania i  założenia leżały u  podstaw pierwszego – zapoczątkowanego jeszcze po koniec lat 70., a polegającego na podjęciu programu reform rynkowym w sektorze elektroenergetycznym i gazowniczym – zwrotu w polityce energetycznej oraz, po drugie, jakie były oczekiwania dotyczące przyszłości polityki energetycznej w warunkach pogłębiającej się liberalizacji obu sektorów; liberalizacja ta, co należy dodać, prowadziła – za sprawą szybko rozwijającego się podsektora elektroenergetyki gazowej – do rosnącej współzależności między rozwojem obu tych sektorów. Przejście od priorytetu bezpieczeństwa dostaw do priorytetu liberalizacji dokonało się pod wpływem trzech grup czynników. Pierwsza grupa dotyczyła czynników z  tzw. sfery realnej, przy czym, co istotne, zaznaczyły się tu ważne różnice między Stanami Zjednoczonymi a Wielką Brytanią, zwłaszcza w odniesieniu do gazu. W  przypadku Stanów Zjednoczonych zasadniczą rolę odegrał kryzys energetyczny lat 70., który ujawnił głębokie mankamenty obowiązującego wówczas systemu daleko posuniętej regulacji sektora gazowniczego2. W zdecydowanym rozluźnieniu tego systemu drogą deregulacji, zwłaszcza cen wydobywanego gazu, upatrywano sposobu na przełamanie nie tylko deficytu w  podaży pochodzącego z krajowych zasobów gazu naturalnego, ale także i słabości w infrastrukturze sieciowej sektora, która nie pozwalała na bardziej efektywną alokację gazu na rynku zbytu. Z kolei w Wielkiej Brytanii, która jako jedyny kraj w Europie zdecydowała się na radykalną liberalizację sektora gazowniczego, przesłanką decydującą o wejściu na drogę tego rodzaju reform, było pojawienie się wyraźnej i, jak się wydawało, trwałej nadwyżki podaży, pochodzącego z niedawno odkrytych na Morzu Północnym własnych złóż gazu, co w sposób naturalny odsuwało na plan dalszy kwestie bezpieczeństwa dostaw3. Druga grupa czynników składała się na zachodzącą w obszarze akademickiej teorii oraz w środowiskach ekspertów zmianę podejścia do sposobu funkcjonowania sektorów sieciowych w  ogóle, w  tym również i  sektora gazowniczego. Chodziło tu:

2  Kwestia ta ma już bogatą literaturę przedmiotu. Por. np.: Breyer [1982, rozdz. 13] i Braeutigam, Hubbard, [1986]. 3  Kwestii tego rodzaju uwarunkowań pozwalających na odejście od priorytetu bezpieczeństwa dostaw gazu wiele miejsca w licznych swoich publikacjach poświęca Helm [2008, s. 13 i dalsze].


128

A.T. Szablewski

11

po pierwsze, o narastające przekonanie, że pod wpływem postępu technicznego oraz rewolucji informatycznej kurczy się zakres monopolu naturalnego w tego rodzaju sektorach, co zarazem oznacza dopuszczenie możliwości poddania tych sektorów konkurencji i regulacji opartej na logice bodźców rynkowych;

11

po drugie, umacnianiu się tego przekonania sprzyjały dwie okoliczności; pierwsza z nich dotyczyła szybko rosnącej, zwłaszcza w Stanach Zjednoczonych, liczby badań empirycznych i  teoretycznych4, które a) wskazywały na rażąca nieefektywność ekonomiczną występująca we wszystkich ogniwach łańcucha produkcyjno-usługowego w  obu sektorach, ale także – co tutaj jest istotne – na występowanie mechanizmu generującego nadmierne inwestycje w  potencjał wytwórczo-sieciowy, b) upatrywały źródeł tej nieefektywności w mechanizmach regulacji publicznej oraz c) pokazywały korzyści wynikające z wcześniej przeprowadzonej deregulacji niektórych sektorów; druga okoliczność wiązała się z narastającym wśród brytyjskich ekonomistów i ekspertów przekonaniem, że wysoce niezadowalające rezultaty licznych prób zreformowania państwowych przedsiębiorstw są wystarczającym dowodem na nieprzezwyciężalną słabość tego rodzaju formy interwencjonizmu5, zaś procesy prywatyzacji przedsiębiorstw trzeba uzupełnić reformami, które poprzez uruchomienie bodźców rynkowych wymuszą poprawę bieżącej efektywności ekonomicznej w tych sektorach.

W tym ostatnim przypadku chodziło o dwie kwestie, a mianowicie wprowadzenie mechanizmów konkurencji w tych obszarach sektorów sieciowych, w których nie występuje monopol naturalny oraz wypełnienie swoistej luki regulacyjnej, która pojawia się wraz prywatyzacją przedsiębiorstw znajdujących się nadal w pozycji monopolu naturalnego. Kierując się krytyką tradycyjnego – opartego na stopie zwrotu – modelu regulacji prywatnego monopolu naturalnego (rate of return regulation), wprowadzono nowatorski, jak się wówczas wydawało, model regulacji6. Istota innowacji polegała tu na zastosowaniu rozwiązania regulacyjnego, które generować miało w przedsiębiorstwach regulowanych bodźce profek4  Tego rodzaju teoretyczno–empiryczne podejście badawcze zapoczątkowały dwa, opublikowane w tym samym roku [1962], artykuły: Averch i Johnsona oraz Stiglera i Friedland. 5  Por. np. Henney [1994]. Wymowę tego sformułowanego w sposób zdecydowany poglądu na temat nieefektywności przedsiębiorstw publicznych w sektorach sieciowych trzeba jednak złagodzić, bowiem problem ten od dawna jest już przedmiotem bardzo ożywionej dyskusji. Bardziej zniuansowane stanowisko w tej kwestii prezentują Vickers i Yarrow [1988, s. 44], którzy podkreślają, że o ile w warunkach rynku konkurencyjnego przewaga przedsiębiorstwa prywatnego wydaje się bardziej prawdopodobna, o tyle w przypadku przedsiębiorstwa mającego charakter monopolu naturalnego nie jest to już takie oczywiste, bowiem tutaj będzie to zależeć od efektywności mechanizmów regulacji. Szeroko i interesująco wypowiada się w tej kwestii również Foster [1992, rozdz. 10]. 6  Jak się jednak potem okazało pierwsze warianty regulacji bodźcowej pojawiły się w praktyce gospodarczej już w XIX wieku. Najwcześniej odnotowany przykład regulacji, którą można określić jako ruchomy schemat zmian cen (sliding-scale plan), a odnoszącej się do przedsiębiorstw wytwarzających gaz, został przyjęty przez brytyjski Parlament już – jak podaje Schmidt [2000, s. 23-25] – w 1855 roku.


ZMIANY PARADYGAMATÓW POLITYKI ENERGETYCZNEJ – ASPEKT…

129

tywnościowe. Stąd też mechanizm ten zwykło się nazywać regulacją bodźcową (incentive regulation)7. Trzecia grupa czynników dotyczyła zmian w otoczeniu politycznym. Chodziło tu zwłaszcza o dojście do władzy M. Thatcher, która kierując się szerszą wizją przywrócenia rynkowego modelu funkcjonowania gospodarki rynkowej doprowadziła do przełomowych reform w  sektorach sieciowych, w  tym także gazowniczym. Ukształtowany wówczas model liberalizacji tych sektorów w  mniejszym bądź większym stopniu był wykorzystywany w innych krajach. Stanowił on także ważną inspirację dla forsowanych przez Komisję Europejską inicjatyw, które doprowadzając do powstania konkurencyjnych, jednolitych europejskich rynków energii elektrycznej i gazu, zamknąć miały proces tworzenia wspólnego rynku dla swobodnego przepływu dóbr, usług, kapitału i siły roboczej8. Do najważniejszych w  tym zakresie osiągnięć Komisji Europejskiej należało przyjęcie kolejno – w 1996 i 1998 roku – dwóch Dyrektyw dotyczących zasad wewnętrznego rynku, odpowiednio energii elektrycznej i gazu9. Tworzyły one podstawy prawne, które miały zapoczątkować proces otwierania rynków energii elektrycznej i  gazu na stopniową i z założenia ograniczona konkurencję. O ile więc pierwsza grupa uwarunkowań pozwalała na odejście od priorytetu bezpieczeństwa dostaw, który nakazywał traktowanie gazu i energii elektrycznej jako szczególnych, strategicznych dóbr, wymagających odizolowania ich od wpływu sił rynkowych i poddania bezpośredniemu nadzorowi państwa, o tyle druga grupa wskazywała na potrzebę przyjęcia w  polityce energetycznej priorytetu wzrostu efektywności, zaś trzecia grupa przesądziła o  możliwości uruchomienia rynkowych, bądź quasi-rynkowych (regulacja bodźcowa) mechanizmów wymuszających poprawę efektywności mikroekonomicznej. Ze względu na specyfikę obu sektorów, w  tym zwłaszcza kluczową rolę czynnika sieciowego, ich liberalizacja nie mogła być jednak – tak jak było to możliwe w przypadku innych sektorów – prostym efektem deregulacji umożliwiającej w sposób spontaniczny rozwój mechanizmów rynkowych. Uruchomienie i efektywne funkcjonowanie tych mechanizmów wymagało bowiem przeprowadzenia trudnego merytorycznie i politycznie pakietu reform. W najbardziej rozwiniętej (choć rzadko realizowanej w praktyce) i opartej, jak się wydawało, na solidnej podstawie teoretycznej formie pakiet ten składał się z czterech elementów: demonopolizacji obu sektorów, co wymagało dokonania pionowej i poziomej ich restrukturyzacji, uruchomienia konkurencyjnych rynków energii elektrycznej i gazu, wprowadzenia nowego, instytucjonalnie wyodrębnionego modelu regulacji oraz prywatyzacji przedsiębiorstw. W kategoriach ekonomicznych istota tych reform sprowadzała się do przeorientowania mechanizmu funkcjonowania tych sektorów. Chodziło o wyeliminowanie silnie zakorzenionej w tradycyjnych mechanizmach ich funkcjonowania orientacji 7  W obszerny sposób o istocie, teoretycznych problemach i trudnościach w stosowaniu regulacji bodźcowej w literaturze polskiej – zob. Szablewski [2003, rozdz. 5, i 2008]. 8  Szerzej o genezie i pierwszej fazie działań KE na rzecz liberalizacji pisze np. Szablewski [2006]. 9  Chodzi tu o: Directive 96/92/EC oraz Directive 98/30 EC.


130

A.T. Szablewski

na maksymalizację inwestycji na rzecz tzw. polityki asset sweating, czyli tworzenia opartych na zysku bodźców zachęcających do maksymalnego wykorzystania posiadanego potencjału, tak aby uniknąć potrzeby budowy nowego potencjału wytwórczego, sieciowego lub magazynowego. W kategoriach praktycznych realizacja tego rodzaju programu reform daleko wykraczała poza wystarczającą w  przypadku innych niż sieciowe sektorów gospodarki deregulację. Powstanie konkurencyjnych i regulowanych w nowy sposób rynków energetycznych było z reguły kilkuletnim procesem, którego sukces wymagał aktywnej i  zdeterminowanej postawy władz odpowiedzialnych za politykę gospodarczą. Stąd też w sposób naturalny głównym celem polityki energetycznej stało się działanie na rzecz liberalizacji energetyki. Tak sformułowanemu celowi polityki energetycznej towarzyszyły dwa założenia. Pierwsze dotyczyło relacji między liberalizacją a  bezpieczeństwem dostaw, druga zaś długookresowych implikacji liberalizacji dla roli polityki energetycznej. Według pierwszego, nie zawsze wyrażanego explicite, założenia, sprawnie działające mechanizmy konkurencji i regulacji bodźcowej nie tylko wymuszą zasadniczą poprawę operacyjnej efektywności kosztowej, ale także z dostateczną siłą generować będą impulsy inwestycyjne gwarantujące niezbędną z  punktu widzenia wymogów bezpieczeństwa dostaw rozbudowę potencjału wytwórczego i  sieciowego, w sposób optymalizujący wynikające stąd koszty dla odbiorców. W ramach więc tego podejścia uzasadnioną i oczekiwaną reakcją na pojawienie się każdego niepokojącego sygnału o potencjalnym zagrożeniu bezpieczeństwa dostaw miało być zwiększenie aktywności państwa w  zakresie usuwania barier blokujących efektywne działanie mechanizmów rynku konkurencyjnego i regulowanego, czyli więcej prywatyzacji, deregulacji i regulacji prokonkurencyjnej10. Jeśli chodzi o drugie założenie, to było ono logiczną konsekwencją pierwszego założenia. Skoro liberalizacja zapewnia bezpieczeństwo dostaw, to wraz z osiąganiem stanu dojrzałości przez konkurencyjne i regulowane w sposób quasi-rynkowy rynki energii elektrycznej i gazu będzie stopniowo zmniejszać się i zmieniać rola państwa w obszarze energetyki. Według tego założenia państwo miałoby skupić się na tworzeniu niezbędnych rozwiązań prawno-instytucjonalnych, zapewniających skuteczne działanie mechanizmów rynkowych i stopniowo przesuwać ciężar działań interwencyjnych z  organów politycznych rządu (ministerstw) na apolityczny organ regulacyjny, który miał zajmować się głównie monitorowaniem rynków i aktywnym działaniem na rzecz usuwania barier hamujących swobodę działania sił rynkowych. W istocie rzeczy tego rodzaju polityka miała więc prowadzić do swoistej depolityzacji polityki energetycznej11, co w praktyce oznaczać miało 10 

Tego rodzaju pogląd szeroko omawia Helm [2005]. Dla poparcia takiej interpretacji najczęściej przywołuje się pogląd wygłoszony w 1982 roku przez Lawsona – ministra odpowiedzialnego w  rządzie M. Thachter za sektor energetyczny – który mówiąc o podstawowych założenia polityki energetycznej stwierdził, że „Nie uważam, aby zadaniem rządu było podejmowanie prób planowania przyszłego kształtu sektora wytwarzania i  dostarczania energii. Zadaniem rządu nie jest nawet bilansowanie podaży i  popytu na energię. Naszym celem jest raczej ustanowienie odpowiednich ram (framework), które zapewnią działanie rynku energetycznego w sposób minimalizujący zakłócenia, tak aby energia była wytwarzana i zużywana efektywnie”. Cytowane za Helm [2005, s. 7]. 11 


ZMIANY PARADYGAMATÓW POLITYKI ENERGETYCZNEJ – ASPEKT…

131

zredukowanie polityki do technicznie rozumianych działań regulacyjnych skoncentrowanych na podnoszeniu sprawności działania mechanizmów wymuszających proefektywnościowe zachowania, a – zdaniem najbardziej radykalnych zwolenników liberalizacji – do wręcz całkowitego zaniku wpływu czynnika publicznego na przebieg procesów wytwarzania i dostarczania energii elektrycznej i gazu12. Tak rysowana perspektywa polityki energetycznej nie znajdowała potwierdzenia nawet w praktyce brytyjskiej. Dokonujący się tam rzeczywisty postęp w liberalizacji rynku gazu nie tylko nie prowadził do istotnego zmniejszenia się roli regulacji publicznej, ale wręcz przeciwnie dokonywał się za sprawą agresywnej regulacji o charakterze prokonkurencyjnym. Regulacja ta wspierała wejście na rynek gazu nowym podmiotom poprzez działania naruszające zasadę równego traktowania. Regulator nakładał bowiem na dominujący na rynku gazu podmiot – dawnego monopolistę British Gas – różnego rodzaju ograniczenia, aby w ten sposób ułatwić jego konkurentom dostęp do rynku. Tego rodzaju regulacja ostatecznie doprowadziła do podziału British Gas i wykształcenia się wysoce konkurencyjnego hurtowego i detalicznego rynku gazu, przy zachowaniu jednak silnych elementów regulacyjnych13. Co więcej, również i  wymiarze czystej polityki energetycznej nie brakowało przykładów wskazujących, że rząd brytyjski wbrew składanym niegdyś deklaracjom, nadal chce ingerować w sposób blokujący wpływ sił rynkowych. Najdalej idącym przykładem tego rodzaju politycznych działań rządu była podjęta w 1998 roku decyzja nakładająca moratorium na budowę elektrowni gazowych. Gwałtowny rozwój tego rodzaju elektroenergetyki sprawił, że brytyjski rynek wytwarzania energii elektrycznej, na początku reform zdominowany przez dwa wykorzystujące swoją silną pozycję rynkową podmioty, w szybkim tempie stawał się rynkiem wysoce konkurencyjnym. Decyzja ta była typowym przejawem realizacji określonego celu polityki energetycznej, jakim była obrona brytyjskiego górnictwa węgla kamiennego, który w związku z dynamicznym rozwojem energetyki gazowej tracił rynek zbytu na węgiel14.

POWRÓT PRIORYTETU BEZPIECZEŃSTWA DOSTAW Początek minionej dekady stanowi wyraźną cezurę w podejściu do roli i perspektyw polityki energetycznej. Składało się na to szereg powiązanych ze sobą oko12  Świadczyć o tym może wypowiedź S. Littlechilda, pierwszego regulatora brytyjskiego sektora elektroenergetycznego oraz konsekwentnego do dzisiaj zwolennika liberalizacji, który regulację traktował tylko jako instrument powstrzymujący najbardziej jaskrawe przejawy nadużywania siły rynkowej (monopolu) nie zaś jako „…substytut konkurencji. To jest instrument (chodzi o regulację – A.S.), który trzeba stosować tylko do momentu, kiedy pojawi się konkurencja”. Cytuję za: Foster [1992, s. 186]. 13  Wśród bogatej literatury poświęconej liberalizacji brytyjskiego sektora gazowego warto zarekomendować opracowanie Waddams [1998]. 14  Z decyzji tej rząd brytyjski częściowo wycofał sie w 2000 r. wydając koncesję umożliwiającą wybudowanie sześciu nowych bloków gazowych. Government Lifts Moratorium on New Gas-Fired Stations [2000], Edie Legal Resource Center, 17 November.


132

A.T. Szablewski

liczności, które sprawiły, że narastać zaczęły wątpliwości wobec zasadności niekwestionowanego szerzej w przeszłości priorytetu liberalizacji w polityce energetycznej, zwłaszcza jeśli liberalizację obu sektorów rozumieć w  kategoriach brytyjskiego modelu – restrukturyzacji demonopolizacyjnej, konkurencji, regulacji bodźcowej i prywatyzacji. Wątpliwości te odżyły zwłaszcza w związku z pojawieniem się szeregu zdarzeń, które ponownie obudziły obawy o stan bezpieczeństwa dostaw. Szczególnie wyraźnie zaznaczyły się one w przypadku sektora elektroenergetycznego. Kryzys kalifornijski i  upadek Enronu w  USA, wiele awarii systemowych po obu stronach Atlantyku oraz pojawiające się w niektórych krajach realne zagrożenia racjonowania dostaw w okresie szczytowego zapotrzebowania zaczęto coraz częściej traktować jako efekt liberalizacji, której zasięg w  sektorze elektroenergetycznym był nieporównanie większy w  porównaniu z sektorem gazowniczym15. Niepokój budziło zwłaszcza zjawisko wyraźnego zahamowania inwestycji w nowe moce wytwórcze, co inspirowało ożywioną, obfitującą w ogromną ilość publikacji debatę wokół pytania, czy konkurencyjne rynki energii elektrycznej oraz wymuszająca obniżkę kosztów operacyjnych regulacja bodźcowa generują z  dostatecznym wyprzedzeniem bodźce inwestycyjne zapewniające niezbędną z  punktu widzenia wymagań bezpieczeństwa dostaw rozbudowę potencjału wytwórczo sieciowego16. U podstaw zgłaszanych tu wątpliwości leżało odżywające przekonanie, że bezpieczeństwo dostaw jest rodzajem dobra publicznego, czyli dobra, którego konkurencyjny rynek energii elektrycznej nie w stanie wytworzyć w rozmiarze społecznie pożądanym17. Podobne obawy dotyczące inwestycyjnych implikacji liberalizacji i związanych z tym postulatów zwiększenia roli instrumentów interwencji państwa wysuwane były również w odniesieniu do sektora gazowniczego. Były one zgłaszane zarówno przez uznanych ekspertów (Honore, Stern [2007]), jak i polityków, regulatora rynku energetycznego i poważne media (Every Little…[2010] s. 35). Z kolei w przypadku sektora gazowniczego, głównym źródłem obaw o implikacje liberalizacji dla bezpieczeństwa dostaw gazu było rosnące uzależnienie od importu gazu. Problem ten najbardziej odczuwany był przez Europę i dotyczył przede wszystkim faktu uzależniania się od dostaw rosyjskiego gazu. Komisja Europejska – która w latach 90. była głównym promotorem reform liberalizujących rynki energii elektrycznej i gazu w większości krajów członkowskich – problem ten zauważyła już w  2000 roku. W  opublikowanym wówczas dokumencie 15  Trzeba tu mocno podkreślić, że pytanie, w  jakim stopniu wymienione wyżej zdarzenia w sferze realnej należało wiązać z liberalizacją, jest przedmiotem poważnej debaty, której spectrum wyznaczają poglądy krańcowo różne reprezentowane np. przez Stiglitza [2006] reprezentującego pogląd skrajnie niechętny reformom rynkowym oraz Bialka [2009], który przyczyny szeroko komentowanych awarii systemowych widzi poza rynkowym system funkcjonowania przedsiębiorstw energetycznych. 16  Przegląd podstawowych problemów i kierunków dyskusji oraz bibliografii tematu zawiera opracowanie Szablewskiego [2009]. 17  O różnych formach ułomności konkurencyjnych, ale i także regulowanych rynków energii elektrycznej, pisze odpowiednio w dwóch artykułach Helm [2007, s. 36 i 2001, s. 36].


ZMIANY PARADYGAMATÓW POLITYKI ENERGETYCZNEJ – ASPEKT…

133

Towards a …[2000], określającym podstawowe cele europejskiej polityki energetycznej, Komisja dostrzegła dwa wymiary zagrożenia wynikającego z nadmiernego uzależnienia się od gazu importowanego z Rosji. Po pierwsze, wzrost tej zależności oznaczał naruszenie żelaznej zasady bezpieczeństwa dostaw, jakim jest dywersyfikacja źródeł dostaw i tras przesyłu gazu18. Po drugie, ważniejszą rolę odgrywał tu fakt, że Rosja nie tylko zdecydowanie odmówiła podpisania Karty Energetycznej, gwarantującej oparty na kryteriach ekonomicznych handel surowcami energetycznymi i swobodę inwestycji w sektorze energetycznym, ale w zasadzie nie ukrywała tego, że gospodarkę zasobami energetycznymi traktuje jako instrument politycznego nacisku. Rodziło to więc pytanie, czy w sytuacji, gdy główny dostawca gazu nie zamierza respektować zasad gospodarki rynkowej i  sprzeciwia się demonopolizacji własnego sektora wydobywczego, możliwe i bezpieczne jest dążenie do liberalizacji rynków gazu w Unii Europejskiej. Dostrzegając problem związany z antyrynkową postawą Rosji, Komisja Europejska nie zmniejszyła jednak presji na liberalizację, uznając, że problem ten można rozwiązać poprzez, po pierwsze, wprowadzenie rozwiązań prawno-regulacyjnych, które poprawiać miały stan bezpieczeństwa dostaw, oraz, po drugie, wzmocnienie jej pozycji jako podmiotu wspólnej polityki energetycznej, uznając, że charakter zagrożeń związanych z bezpieczeństwem dostaw gazu uzasadnia przeniesienie ciężaru ciężkości z polityk narodowych na poziom europejski [Helm, 2008, s. 3]. W  pierwszym przypadku efektem działań było przyjęcie dwóch dyrektyw dotyczących bezpieczeństwa dostaw energii elektrycznej i gazu19, które rozszerzały zakres ingerencji czynnika publicznego w  mechanizmy funkcjonowania obu sektorów. Z  kolei w  drugim przypadku Komisja natrafiła – jak podkreśla Helm [2006] – na opór wielu krajów, które traktowały własną politykę energetyczną jako ważny atrybut suwerenności, bądź też liczyły, że dobre relacje dwustronne pozwolą na zapewnienie bezpiecznych dostaw gazu rosyjskiego na rynek krajowy. Równolegle Komisja Europejska podejmowała próby zdynamizowania procesów liberalizacji w obrębie poszczególnych rynków krajowych oraz zwiększania stopnia ich integracji w sposób przybliżający perspektywę utworzenia wspólnych rynków energii i gazu, zakładając, że ich powstanie przyczyni się do zwiększenia stanu bezpieczeństwa dostaw [Bielkin, 2008, s. 24]. Służyć temu miały dwa kolejne pakiety legislacyjne, których wdrożenie miało spowodować przełom w procesie otwierania rynków krajowych na konkurencję. Działaniom tym towarzyszyły jednak z jednej strony nasilające się głosy krytyczne wskazujące na brak konsekwencji i błędy w realizowanej przez Komisję strategii liberalizacji, z drugiej zaś coraz mocniej eksponowane wątpliwości co do zasadności kontynuowania liberalizacji sektora gazownictwa połączone z postulatami wzmocnienia roli czynnika publicz18  Zasadę tę po raz pierwszy sformułował Churchill przy okazji podjętej w przededniu wybuchu I Wojny Światowej decyzji o przestawieniu brytyjskiej floty wojennej z paliwa węglowego na importowaną ropę, mówiąc, że bezpieczeństwo jej dostaw leży wyłącznie w różnorodności źródeł zaopatrzenia. Podaję za Yerginem [2006]. 19  W przypadku gazu chodzi o Council Directive …[2004].


134

A.T. Szablewski

nego jako podmiotu realizującego określoną politykę interwencyjną korygującą lub uzupełniającą działanie sił rynkowych W pierwszym przypadku zwracano uwagę na dwie kwestie. Po pierwsze, podkreślano, że Komisja Europejska nie zdołała zablokować wielkich procesów konsolidacyjnych, które dokonywały się pod hasłem a) dostosowywania się przedsiębiorstw do konkurencji na europejskim rynku gazu oraz b) stworzenia przeciwwagi w kontaktach z wielkim, rosyjskim państwowym monopolistą Gazpromem. W istocie jednak głównym skutkiem tych zmian strukturalnych było umocnienie monopoli krajowych i w ten sposób zablokowanie możliwości rozwoju konkurencji na poszczególnych rynkach. Po drugie, w  związku z powyższym poddawano w wątpliwość [Helm, 2009, s. 147] realizowany przez Komisję Europejską model liberalizacji, który opierał na wprowadzaniu konkurencji poprzez forsowanie zasady TPA, w  sytuacji gdy na poszczególnych krajowych rynkach gazu potencjalni konkurenci nie mieli dostępu do wolnego gazu nie tylko ze względu na monopolizację rynku wewnętrznego, ale również z  powodu braku możliwości dostępu do gazu w innych krajach. Ta możliwość zależy bowiem od rozbudowy infrastruktury sieciowej pozwalającej na zintegrowanie sieci rurociągów krajowych w system europejski, a także rozbudowy infrastruktury magazynowej pozwalającej na gromadzenie zapasów gazu umożliwiających rozwój rynkowego obrotu tym paliwem. Bez spełnienia tych warunków zapisy o dostępie do sieci nie mają praktycznego znaczenia, zwłaszcza jeśli uwzględnić, że ze względów oczywistych nie można tu było liczyć na zrozumienie przez krajowych monopolistów potrzeby podejmowania tego typu inwestycji. Z kolei przyczyny narastania wątpliwości wobec celowości dalszej liberalizacji wiązać należy z trzema okolicznościami. Po pierwsze, w 2006 roku doszło po raz pierwszy w historii dostaw gazu rosyjskiego do Europy do ich przerwania i nastąpiło to z powodów politycznych, co oznaczało zrealizowanie się scenariusza, który przez wiele krajów starej Europy był wcześniej odrzucany jako całkowicie nierealistyczny. Przyjmowano bowiem założenie, że skoro Związek Radziecki nigdy nie zdecydował się na taki krok, to tym bardziej odrzucano możliwość, aby mogło się stać po upadku komunizmu. Po drugie, zaznaczyła się wyraźna zmiana w stanowisku brytyjskim w kwestii liberalizacji, które jest o tyle ważne, że Brytyjczycy byli obok Komisji Europejskiej najsilniejszym promotorem liberalizacji sektora gazowniczego. Zmiana ta wiązała się bezpośrednio z  wyczerpywaniem się złóż krajowych i  nieuchronnym przekształceniem się Wielkiej Brytanii w wielkiego importera netto, z uwagi na bardzo rozbudowany w tym kraju sektor elektroenergetyki opartej na gazie (30% całkowitego potencjału wytwórczego). Spowodowało to rosnące obawy, czy wysoce konkurencyjny model gazownictwa brytyjskiego nie będzie utrudniał pozyskiwanie gazu w dostatecznej ilości20. Po trzecie wreszcie, fakt szybko rosnących po 2000 roku cen ropy naftowej i gazu interpretowano jako przejaw trwałej i szybko powiększającej się na skutek gwałtow20 

[2008].

Kwestii tej szczególnie dużo miejsca poświęcił Helm w licznych publikacjach, jak np. Helm


ZMIANY PARADYGAMATÓW POLITYKI ENERGETYCZNEJ – ASPEKT…

135

nego wzrostu światowego popytu luki podażowej, która zaostrzy w skali globalnej konkurencję o dostęp do źródeł zaopatrzenia. Zakładano, że ważnym wymiarem tej konkurencji nie będą tylko czynniki ekonomiczne. Wraz z umacnianiem się pozycji krajów–eksporterów gazu rosło niebezpieczeństwo, że znacząca część tych krajów zechce traktować posiadane zasoby gazu do realizacji celów politycznych21 i może to również dotyczyć najbardziej rynkowego segmentu sektora gazowniczego, jakim jest rynek LNG (por. np. Stern [2007]). W tej sytuacji silna polityka energetyczna odwołująca się do rozumianej w kategoriach czysto politycznych solidarności energetycznej, a  nawet do instrumentów o  charakterze militarnym, o  czym świadczą wysuwane postulaty nałożenia na NATO obowiązków w zakresie zapewnienia bezpieczeństwa energetycznego [Garibaldi, 2008, s. 4], pozostawiałaby coraz mniej miejsca dla regulującej roli mechanizmów rynkowych.

CZY jest MOŻLIWY SPADEK ZNACZENIA CZYNNIKA GEOPOLITYCZNEGO? Trend do umacniania się roli strony podażowej i towarzyszący temu wzrost znaczenia czynnika geopolitycznego kosztem czynnika gospodarczego został ostatnio wyraźnie zahamowany. Wpłynęły na to dwie okoliczności. Pierwsza, która ma znaczenie przejściowe, bowiem wiąże się z wywołanym przez kryzys załamaniem popytu, odłożyła przynajmniej na najbliższe lata zagrożenia oparte na wcześniejszych prognozach bardzo szybkiego wzrostu popytu na gaz oraz bardziej optymistycznymi perspektywami odnośnie do rozwoju rynku LNG [Holtz, Hirschhausen, Kemfert, 2009]. Druga okoliczność może mieć implikacje znacznie głębsze, bowiem dotyczy możliwości zasadniczej zmiany po stronie podażowej, która dotąd postrzegana była jako główny czynnik blokujący rozwój mechanizmów rynkowych w sektorze gazowniczym i przesłankę do wzmacniania roli polityki energetycznej w funkcji zapewnienia bezpieczeństwa dostaw. Zmiana ta wiąże się z dokonującą się szybko w Stanach Zjednoczonych transformacją sektora gazowniczego polegającą na coraz większym wykorzystaniu tzw. gazu łupkowego (shale gas). Istotną kwestią był tutaj przełom w technologii pozyskiwania tego gazu dokonany przez małą firmę wiertniczą z Texasu oraz szybko rosnące ceny gazu; mimo relatywnie wysokich początkowo kosztów wydobycia gazu łupkowego uczyniły ten gaz konkurencyjnym stosunku do znaczącej części gazu uzyskiwanego z konwencjonalnych źródeł. Co więcej, szybki postęp w doskonaleniu tego rodzaju technologii wydobywczej oraz korzyści skali wynikające z rosnącego wydobycia tego gazu doprowadziły do obniżenia kosztów jego pozyskiwania o połowę, co sprawiło, że stał się on niższy od kosztów wydobycia gazu z wielu źródeł konwencjonalnych.

21  Problem bezpieczeństwa dostaw gazu w kontekście geopolitycznym był od początku mijającej dekady tematem wielu analiz (por. np. Clingendael [2004] i konferencji (por. np. Security of... [2007]).


136

A.T. Szablewski

Dynamicznie rozwijające się w ostatnich latach wydobycie tego gazu w Stanach Zjednoczonych doprowadziło do całkowitej zmiany sytuacji na tym rynku. Wbrew wyrażanym jeszcze niedawno w samych Stanach Zjednoczonych obawom związanym z  rosnącym uzależnieniem się od dostaw gazu importowanego, w  sytuacji gdy światowy rynek gazu w coraz większym stopniu zdawał się zależeć od czynnika geopolitycznego, w ostatnich miesiącach zanotowano wyraźną nadwyżkę na amerykańskim rynku gazu wynikającą ze wzrostu wydobycia krajowego [An unconventional…, 2010, s. 68]. Pozwoliło to nie tylko przesunąć się USA na pierwsze miejsce listy światowych producentów gazu – miejsce które dotąd zajmowała Rosja – ale także uzyskać stan samowystarczalności. Co ważne, zasoby tego gazu i innych jeszcze rodzajów gazu, które do niedawna uważane były za nie nadające do eksploatacji, w  samych Stanach Zjednoczonych są na tyle ogromne, że pozwolą, przy ostrożnych szacunkach uwzględniających dzisiejsze zużycie gazu w USA, na ich eksploatację przez najbliższe 100 lat. Wreszcie co jeszcze ważniejsze, rodzaj skał zawierających gaz łupkowy występuje powszechnienie na kuli ziemskiej, a zatem są podstawy, aby sądzić, że podobne perspektywy w zakresie wydobycia gazu ma wiele innych krajów. Według pierwszych szacunków Światowej Rady Energetycznej22, zasoby tego gazu mogą aż pięciokrotnie przekraczać zasoby gazu konwencjonalnego. Wiele wskazuje na to, że również Polska może posiadać porównywalne do amerykańskich (jeśli uwzględnić różnice w obecnym poziomie zużycia) zasoby tego gazu. Według pierwszych szacunków złoża tego gazu mogłyby także wystarczyć na 100 lat eksploatacji . W chwili obecnej wytypowano trzy możliwe obszary, w których, biorąc pod uwagę warunki geologiczne, wystąpić może gaz łupkowy. Pierwsza jednak weryfikacja tych bardzo optymistycznych szacunków nastąpi w  ciągu najbliższych miesięcy, kiedy znane będą wstępne wyniki prowadzonych właśnie prac poszukiwawczych23. Obecnie obserwujemy wyraźne przesunięcie się układu sił na światowym rynku gazu na korzyść odbiorców. Przejawia się to w  nasilającej się zniżkowej tendencji cen, zwłaszcza na tak ważnym rynku, jak rynek amerykański, gdzie ceny spadły z 13 USD do poziomu poniżej 5 USD za porównywalną ilość gazu. Wynika ona z powstania wyraźnej nadwyżki gazu, zwłaszcza na rynku LNG, która przynamniej w najbliższych latach będzie się utrzymywać w związku z wyraźnym wolniejszym niż wcześniej zakładano wzrostem popytu. Z  krajowej perspektywy warto odnotować wyraźnie słabnącą pozycję Gazpromu. Wbrew wcześniejszym przewidywaniom, że cena gazu rosyjskiego wzrośnie trzykrotnie do poziomu 1500 USD za 1000 m3, w ostatnim czasie spadła ona do 350 USD i w bieżącym roku, według “The Economist” [An unconventional…, 2010, s. 68], będzie nadal spadała. Aby ratować sprzedaż Gazprom od pewnego czasu renegocjuje ze swoimi głównymi klientami formuły cenowe w kontraktach długoterminowych w sposób uwzględniający w większym stopniu cenę rynku spot, co uczynić ma gaz rosyjski bardziej konkurencyjnym na rynku europejskim. Rosnąca nadwyżka taniejącego gazu nie tylko powoduje utratę czę22  23 

Szerzej o światowych zasobach tego gazu w World Energy… [2009, s. 400 i dalsze]. Podano za: Hadro [2009] oraz Shale Gas...[2010].


ZMIANY PARADYGAMATÓW POLITYKI ENERGETYCZNEJ – ASPEKT…

137

ści rynku europejskiego na rzecz Norwegii, ale, co jeszcze ważniejsze, stanowi zagrożenie dla inwestycyjnych planów Gazpromu związanych z  rozbudową i modernizacją infrastruktury sieciowej oraz przede wszystkim uruchomieniem niezwykle skomplikowanego technicznie i  kosztownego wydobycia gazu z wielkiego złoża Sztokman, położonego w północno-wschodniej Syberii. Trudno w  tej chwili przesądzić, w  jakim stopniu ostatnie zmiany na rynku gazu wywołane są przez czynniki o charakterze cyklicznym, a więc krótkotrwałym, w jakim zaś mają charakter trwały, czyli wiążą się z perspektywami, które otwierają się w związku z potencjalnie ogromnymi i bardziej równomiernie rozłożonymi zasobami gazu łupkowego i innych jeszcze rodzajów gazu uważanych dotąd za nieatrakcyjne z komercyjnego punktu widzenia. Jeśli przyjąć, że są to zmiany bardziej trwałe, może to mieć ogromne konsekwencje, jeśli chodzi o kierunki rozwoju sektora gazowniczego i elektroenergetycznego, zwłaszcza w kontekście pytania o rolę węgla i energetyki atomowej w wytwarzaniu energii elektrycznej. W każdym razie z punktu widzenia przedmiotu tego opracowania oznaczałoby to zasadnicze zmniejszenie roli czynnika geopolitycznego, który dotąd generował obawy o zagrożenie dostaw gazu i skłaniał do zwiększenia roli czynnika politycznego kosztem czynnika ekonomicznego, zawężając w  ten sposób przestrzeń dla rozwoju mechanizmów rynkowych jako sposobu zapewnienia tego bezpieczeństwa. Wreszcie warto zwrócić uwagę na pojawiające się po raz pierwszy pozytywne oceny dotyczące wpływu liberalizacji na proces przekształcania się Wielkiej Brytanii ze stanu samowystarczalności, jeśli chodzi o  zasoby krajowego gazu, w  stan rosnącej zależności od importu gazu. Wbrew formułowanym obawom, zwłaszcza dotyczących słabości bodźców inwestycyjnych w warunkach liberalizacji rynku gazu, o czym była mowa wcześniej, liberalizacja nie utrudniła tego rodzaju transformacji i nie naraziła tego kraju na zwiększone ryzyko utraty bezpieczeństwa dostaw gazu [Holtz, Hirschhausen, Kemfert, 2009, s. 146-149]. Stało się tak bowiem dzięki dokonanej, z odpowiednim wyprzedzeniem, rozbudowy niezbędnej infrastruktury sieciowo-magazynowej. Ten sukces – jak wskazują cytowani autorzy – oznacza, że brytyjski zliberalizowany model funkcjonowania sektora gazowniczego może nadal służyć jako wzór dla innych krajów europejskich.

BIBLIOGRAFIA An Unconventional Glut [2010], “The Economist”, March 13. Averch H., Johnson L.J. [1962], Behaviour of the Firm under Regulatory Constraint, “American Economic Review”, No. 52. Bialek J. W. [2009], Recent Blackouts in US and Continental Europe: Is Liberalization to Blame?, “EPRG Working Paper”, No. 0827, January. Bielkin P. [2006], The European Union’s Energy Challenges, CRS Report for Congress, Order Code RL33636, September 11.


138

A.T. Szablewski

Braeutigam R., Hubbard R. [1986], Natural Gas: The Regulatory Transition, w: Regulatory Reform. What Actually Happened (ed. by L. Weiss, M. Klass), USA. Breyer S. [1982], Regulation and Its Reform, Harvard University Press, Cambridge, Mass. Clingendael [2004], Study on Energy Security and Geopolitcs, Report prepared for DG TREN, January http://www.clingendael.publications/2004/2000401000ciep study.pdf Council Directive 2004/67/EC of 26 April 2004 Concerning Measures to Safeguard Security of Natural Gas Supply [2004], Official Journal of the European Union, Brussels, 29 April, Commission of the European Communities. Directive 96/92/EC of the European Parliament and of the Council of 19 December 1996 Concerning Common Rules for the Internal Market in Electricity, Brussels, Commission of the European Communities [1996], Official Journal of the European Union, L204, 21st July, Brussels, Commission of the European Communities. Every Little Helps [2010], “The Economist”, 20th. Foster C.D. [1992] Privatization, Public Ownership and the Regulation of Natural Monopoly, Blackwell Publishers, Oxford. Garibaldi I. [2008], NATO and European Energy Security, “American Enterprise Institute Public Policy Research”, No.1, March. Hadro J. [2009], Shale-potential, “Geophysical Research Abstracts”, Vol. 11, EGU General Assembly. Helm D. [2001], The Assessment: European Networks – Competition, Interconnection, and Regulation, “Oxford Review of Economic Policy”,Vol. 17, No. 3. Helm D. [2007], European Energy Policy: Meeting the Security of Supply and Climate Changes, European Investment Bank, Vol. 12. Helm D. [2008], Credible Energy Policy. Policy Exchange, Clutha Mouse, London. Helm D. [2006], Russia, Germany and European Policy, http://www.dieterhelm.co.uk Helm D. [2009], EU Energy and Environmental Policy: Options for Future, w: The UE in a World of Transition: Fit for What Purpose (ed. by Tsoukalis), Policy Network. Helm D. [2008], Energy security without the North See – time to European, University of Oxford, Feb. 15th 2008 (http://www.dieterhelm.co.uk). Helm D. [2005], The Assessment: The New Energy Paradigm, “Oxford Review of Economic Policy”, Vol. 21, No.1 Henney A. [1994], A  Study of the Privatization of the Electricity Supply Industry in England &Wales, Published by EEE Limited, London. Holtz F., Hirschhausen Ch., Kemfert C. [2009], Perspective of the European Natural Gas Markets, “The Energy Journal”, May. Honore A., Stern J. [2007], A  Constrained Future for Gas in Europe?, w: The New Energy Paradigm, (ed. D. Helm), Oxford University Press, Oxford. Schmidt M., [2000] Performance-Based Ratemaking: Theory and Practice, Public Utilities Reports, Vienna, Virginia. Security of Supply in Liberalized Energy Markets. Transatlantic Experiences and Future Challenges [2007], Conference Report, Global Public Policy Institute, Berlin, May. Shale Gas the Future for Poland [2010], “Warsaw Business Journal”, 02.03. Stern J. [2007], The New Security Environment for European Gas; Worsening Geopolitics and Increasing Competition or LNG, “Energy Politics”, Issue X11: Spring.


ZMIANY PARADYGAMATÓW POLITYKI ENERGETYCZNEJ – ASPEKT…

139

Stigler G.J., Friedland C. [1962], What Can Regulators Regulate? The Case of Electricity, “The Journal of Law and Economics”, Vol. V. Stiglitz J.E. [2006], Szalone lata dziewięćdziesiąte. Nowa historia najświetniejszej dekady w dziejach świata, Wydawnictwo Naukowe PWN, Warszawa. Szablewski A.T. [2009], Perspektywy liberalizacji sektora elektroenergetycznego – aspekt bezpieczeństwa dostaw w warunkach konkurencyjnych rynków energii elektrycznej, w: Rynki kapitałowe a  koniunktura gospodarcza (pod red. A.T. Szablewskiego, R. Wójcikowskiego), „Monografie Politechniki Łódzkiej”, Łódź. Szablewski A.T. [2003] Zarys teorii i praktyki reform regulacyjnych na przykładzie energetyki, INE PAN, DiG, Warszawa. Szablewski A.T. [2008], Problem asymetrii informacji w regulacji monopolu, „Studia Ekonomiczne”, INE PAN, nr 3-4. Szablewski A.T. [2006], Liberalizacja europejskiego rynku energii elektrycznej – implikacje dla MŚP, w: Szanse rozwoju polskiego sektora MŚP na jednolitym rynku europejskim (pod. red. J. Otto, R. Stanisławskiego), Tom II, „Monografie”, Łódź. Towards a  European Strategy for the Security of Energy Supply [2000], Green Paper, COM, Commission of the European Communities, Brussels. Vickers J., Yarrow G. [1988], Privatization. An Economic Analysis, The MIT Press, Cambridge, Mass. Waddams P.C. [1998], The UK Gas Industry, w: Competition and Regulated Industries (ed. by D. Helm and T. Jenkinson), Oxford University Press, Oxford. World Energy Outlook [2009], OECD/IEA. Yergin D. [2006], Ensuring Energy Security, “Foreign Affairs”, Vol. 85, Issue 2.

STRESZCZENIE Polityka energetyczna, zwłaszcza w  kontekście obaw o  stan bezpieczeństwa dostaw (security of supply), w  tym przede wszystkim dostaw gazu, rzadko bywa w naszej literaturze ekonomicznej przedmiotem wnikliwej analizy uwzględniającej ważny tu kontekst historyczny. Trzeba bowiem pamiętać, że jeszcze do niedawna polityka energetyczna zdominowana była przez priorytet liberalizacji, który w  istocie przesunął zagadnienie bezpieczeństwa dostaw na plan dalszy. Notowany od początku mijającej dekady powrót tradycyjnego priorytetu polityki energetycznej, jakim jest zapewnienie bezpieczeństwa dostaw, często wiązany jest z obawami, że liberalizacja, po pierwsze, nie tworzy właściwych warunków umożliwiających podjęcie szerokiego programu inwestycji w modernizację i rozbudowę potencjału sieciowo-magazynowego oraz, po drugie, nie stanowi dobrego rozwiązania w warunkach rosnącego znaczenia czynnika geopolitycznego, w tym zwłaszcza zwiększającego się uzależnienia Europy od dostaw gazu. Zaprezentowane w pracy ujęcie stanowi próbę prześledzenia genezy oraz implikacji związanych z dwoma zasadniczymi zwrotami – często określanymi jako zmiany paradygmatów – w polityce energetycznej ostatnich lat. W końcowej części przedstawiono ujawniające się w ostatnim czasie przesłanki, które zdają się wskazywać na moż-


140

A.T. Szablewski

liwość zasadniczego zmniejszenia roli czynnika geopolitycznego i wynikające stąd konsekwencje co do kształtu polityki energetycznej. Słowa kluczowe: bezpieczeństwo energetyczne, paradygmaty polityki energetycznej, liberalizacja energetyki, gaz łupkowy, czynnik geopolityczny.

Changes in Energy Policy Paradigms – Liberalization and Security of Supply Dimensions The issue of energy policy, in particular the aspect of gas supply security, has rarely been thoroughly analyzed in the historical context in the Polish economic literature. It is probably due to the fact that, until recently, liberalization was the top priority of energy policy, overshadowing the issue of security of supply. The current decade has seen the energy policy’s focus return to the traditional priority of supply security. It reflects concerns that liberalization, firstly, does not create desired conditions for executing a broad program of investments in transmission and storage capability modernization and expansion, and secondly, is not a good solution in the context of an increasing importance of the geopolitical factor, in particular Europe’s growing dependence on gas imports. The paper aims to present the origins and implications of the two important turning points – often referred to as paradigm changes – in the energy policy of the last few years. The paper ends with a discussion of recent indicators of a possible dramatic decline in the role of the geopolitical factor and its consequences for the shape of the energy policy. Key words: energy security, energy policy paradigms, liberalization of energy markets, slate gas, geopolitical factor.


Studia ekonomiczne 1 Economic studies nr 2 (LXV) 2010

Anna Wziątek-Kubiak*

ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACYJNEJ PRZEDSIĘBIORSTW przemysłów O NISKIEJ I WYSOKIEJ TECHNOLOGII. ANALIZA PORÓWNAWCZA WSTĘP W  literaturze dotyczącej wzorców działalności innowacyjnej przedsiębiorstw wyodrębnić można dwa główne nurty. Pierwszy kierunek, zakładając homogeniczność zachowań innowacyjnych przedsiębiorstw różnych dziedzin produkcji przemysłowej, koncentruje się na badaniu zróżnicowania strategii innowacji przedsiębiorstw [Srholec, Verspagen, 2008; Llerena, Oltra, 2002; Damanpour and Wischnevsky, 2006; Jensen, Johnson, Lorenz, Lundvall, 2007; Jong, Marsili, 2006]. Drugi nurt, przyjmując założenie o  międzybranżowym zróżnicowaniu zachowań innowacyjnych firm, koncentruje się na badaniu specyfiki wzorców, w  tym czynników innowacji firm dwóch rodzajów branż przemysłu przetwórczego, w  literaturze anglojęzycznej zwanych sektorami (ang. sectors): o  tzw. wysokiej intensywności technologicznej (synonim wysokiej technologii) oraz pozostałych, zwanych branżami niskiej i średniej intensywności technologicznej (odpowiednio – niskiej i  średniej technologii) [Wziątek-Kubiak, Balcerowicz, Pęczkowski, 2009]. Przez kilkadziesiąt lat do połowy lat 90. druga z wymienionych grup branż nie była przedmiotem badań. Wynikało to m.in. z uznania badań naukowych (B&R) za kluczowy czynnik rozwoju i determinantę innowacji. Jeśli jednak zgodzimy się *  Instytut

Nauk Ekonomicznych PAN.


142

A.Wziątek-Kubiak

z Dosim, iż „innowacje to poszukiwanie odkrywanie, eksperymentowanie, rozwijanie, imitacja i adaptacja nowych produktów, procesów produkcyjnych i nowych organizacyjnych jednostek” [Dosi, 1988, s. 222], oznacza to, iż innowacje nie są wyłącznie oparte na badaniach naukowych. Takie podejście skierowało uwagę ku branżom o  niskiej naukochłonności (pojęcie to jest w  literaturze synonimem niskiej intensywności technologicznej czy technologii). Porównanie ich z branżami o wysokiej technologii stymulowało dyskusje nad międzysektorowym zróżnicowaniem czynników i  wzorców innowacji [Hirsch–Kreisen, Jacobson, Laestadius, Smith, 2003; Hirsch–Kreisen, Hahn, Jacobson, 2008]. Branże o niskiej technologii mają ważny udział w produkcji i zatrudnieniu gospodarki polskiej i  Unii Europejskiej (UE). W  długim okresie ich udział w  gospodarce UE zmniejszył się w  stosunkowo niewielkim stopniu. Jeśli branże te są integralną częścią rozwiniętych gospodarek, bez której gospodarki te nie mogłyby funkcjonować, a relacje między nimi i branżami o wysokiej technologii mają charakter powiązań jak między dostawcami i odbiorcami [Robertson i Patel, 2003], to być może ich zachowania innowacyjne (innovation behaviour) są komplementarne do branż o wysokiej technologii. Skoro te ostatnie branże odróżniają się od branż o niskiej technologii wysoką naukochłonnością, to powstaje pytanie, czy pociąga to za sobą wykorzystanie przez firmy każdego z  dwóch typów branż odmiennych czynników innowacji? Czy więc te dwie grupy branż odróżniają się odmiennymi wzorcami działalności innowacyjnej? W Polsce dyskusja nad innowacyjnością branż przemysłu przetwórczego koncentruje się wokół branż o  wysokiej technologii (nazywanych np. branżami wysokiej szansy). Celem opracowania jest pokazanie różnic we wzorcach działalności innowacyjnej polskich firm branż o wysokiej i niskiej technologii w porównaniu do krajów Unii Europejskiej. Wprowadzenie unijnego odniesienia nadaje opracowaniu bardziej ogólny charakter. Zwraca bowiem uwagę na specyfikę wspomnianych branż w zakresie innowacji w krajach o słabiej (jak Polska) i wysoko rozwiniętej gospodarce. Równocześnie przeprowadzona analiza porównawcza ma kontekst bardziej ogólny. Jej tłem jest powszechnie stosowana klasyfikacja branż i jej kryteria. W  ten sposób analiza porównawcza ma wymiary: branżowy, krajowy i ogólny. Opracowanie składa się z pięciu części. W pierwszej pokazano kształtowanie się dychotomicznej klasyfikacji branż na te o  wysokiej i  niskiej intensywności technologicznej (synonim naukochłonności i technologii). Część drugą poświęcono zróżnicowaniu powszechności wprowadzania innowacji przez firmy dwóch analizowanych branż. W  trzeciej części pokazano odmienności strategii innowacji przedsiębiorstw tych branż. Część czwarta poświęcona jest międzysektorowemu zróżnicowaniu wykorzystania wewnętrznych, a  piąta – zewnętrznych czynników innowacji. Przestawione w pracy zróżnicowanie wzorców działalności innowacyjnej oparto na metodologii i  czynnikach innowacji zawartych w Podręczniku Oslo [2006].


ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 143

KLASYFIKACJA BRANŻ PRZEMYSŁU WEDŁUG INTENSYWNOŚCI TECHNOLOGICZNEJ JAKO WYRAZ POSZUKIWANIA MOTORÓW WZROSTU GOSPODARCZEGO Klasyfikacja gałęzi przemysłu według tzw. poziomu intensywności technologicznej, a dokładniej – poziomu naukochłonności produkcji ma kilkudziesięcioletnią historię. Jej geneza jest związana z próbami identyfikacji branżowych motorów wzrostu gospodarczego w czasach, gdy zaczęto dostrzegać kluczowe znaczenie badań naukowych (B&R) dla rozwoju. Klasyfikacja ta ulegała znaczącym modyfikacjom. Było to wynikiem zmian jej kryteriów, a także nie w pełni konsekwentnego odchodzenia od kryterium naukochłonności1 na rzecz innowacyjności, która za Schumpeterem była wyprowadzona z przedsiębiorczości. B&R są tylko jednym z elementów tego ostatniego ujęcia, a ich prowadzenie nie jest jedynym źródłem innowacji, a szerzej – wiedzy [Jacobson, Heanue, 2005, s. 315]. Uznano więc, iż źródłem innowacji jest nabywanie wiedzy przez doświadczenie (doing), stosowanie (using), współdziałanie (interacting), wytwarzanie (producing) oraz poszukiwanie (searching) [Lundvall, Johnson, 1994]. Najprawdopodobniej pojęcie gałęzi o  wysokim poziomie naukochłonności pojawiło się po raz pierwszy w  latach 30. XX wieku. Wtedy to Amerykańska Rada ds. Badań Naukowych po oszacowaniu poziom naukochłonności produkcji przemysłowej kilku krajów rozwiniętych wprowadziła klasyfikację firm amerykańskich według tego kryterium2. W latach 40. i 50. naukochłonność przemysłu szacowana była przez amerykańskie3, kanadyjskie i brytyjskie instytucje. Informacje te były wykorzystywane przez firmy do identyfikacji strategii ich konkurentów. Kwestia naukochłonności branż przemysłu podejmowana była także w analizach dotyczących funkcjonowania gospodarki, na przykład handlu międzynarodowego. Hoffmeyer [1958] wyodrębnił 4 grupy branż różniących się poziomem naukochłonności produkcji i  dowodził, iż USA ma przewagę komparatywną w gałęziach naukochłonnych. Verner i Posner, rozszerzając teorię obfitości czynników produkcji (Heckshera-Ohlina-Samuelsona) o  czynnik postępu technicznego, wskazywali na znaczenie B&R w  różnicowaniu się międzynarodowego podziału pracy. Szczególnie wiele uwagi poświęcono problemowi naukochłonności przemysłu przetwórczego. Jednakże badania te ograniczały się do branż naukochłonnych (research intensive), w których wykonywano 2/3 prowadzonych B&R. Zaliczano do nich przemysły: lotniczy, pojazdów, elektroniczny, maszyn elektrycznych, maszynowy, instrumentów i chemiczny. Dowodzono, iż gałęzie te rozwijały się najszybciej, ich udział w światowym handlu szybko się powiększał, a saldo obro1  Mierzonej

udziałem B&R w dochodzie narodowym. B&R w wartości sprzedaży. 3  Jak np. Związek Amerykańskich Przedsiębiorców Przemysłu Przetwórczego czy Amery­ kańskie Biuro ds. Statystyki Pracy (Bureau of Labour Statistics). 2  Udział


144

A.Wziątek-Kubiak

tów handlowych było dodatnie dla krajów rozwiniętych [OECD, 1963, s. 29-33]. W 1970 roku OECD wprowadziła kolejną klasyfikację przemysłu przetwórczego, dzieląc go na 4 grupy: oparte na badaniach naukowych (science-based), mieszane (mixed), o średniej naukochłonności (average) oraz nienaukochłonne (non-science based) [OECD, 1970, s. 135]. Skład branż naukochłonnych różnił się od przytoczonego wcześniej. Wtedy też, najprawdopodobniej po raz pierwszy w ramach prac OECD, wprowadzono kategorię innowacji, którą utożsamiano z  naukochłonnością. Dyskusja nad różnicami w konkurencyjności między krajami, w tym nad luką technologiczną Europy względem USA, prowadziła do użycia nowego pojęcia intensywności technologicznej. Było ono synonimem naukochłonności. Wykorzystywano go do oceny zmian struktury handlu zagranicznego i zagranicznych inwestycji bezpośrednich, zwłaszcza amerykańskich w Europie Zachodniej. Te bowiem – jak podkreślano – znajdowały się głównie w branżach o wysokiej intensywności technologicznej (technology-intensive). Przy identyfikacji branż intensywnie technologicznych wykorzystywano także inne wskaźniki, jak poziom kwalifikacji siły roboczej czy zatrudnienia pracowników naukowo-badawczych. Konkurencyjnościowa perspektywa analiz intensywności technologicznej branż sprawiała, iż interesowano się nie tyle samymi gałęziami intensywnie technologicznymi co ich związkiem z konkurencyjnością gospodarki w różny sposób mierzoną. W  połowie lat 80., opierając się na kryterium naukochłonności, w  OECD obok gałęzi o  wysokiej intensywności technologicznej, zwanych też gałęziami o wysokiej technologii (w rozumieniu naukochłonności), wyodrębniono gałęzie o średniej technologii, o niskiej technologii oraz gałęzie nienaukochłonne. Zadziwiająca jest niekonsekwencja w  formułowaniu nowych klasyfikacji. Przykładowo szybko zapomniano o  wcześniej wprowadzonych ulepszeniach wskaźnika naukochłonności4. W  roku 1997 OECD we współpracy z  Eurostatem opracowała klasyfikację gałęzi produkcji opartą na ich intensywności technologicznej, a de facto – naukochłonności. Ten podział, pokazany w tabeli 1, jest szeroko wykorzystany w literaturze i będzie stosowany w dalszej części pracy. Ze względu na brak dostępności danych statystycznych dwie branże przemysłu: lotniczy i farmaceutyczny nie są w pracy uwzględniane, wśród branż o wysokiej technologii. Najprawdopodobniej więc dane dotyczące branż o  wysokiej technologii będę niedowartościowane. Wyżej przedstawionemu nurtowi badań nad klasyfikacją przemysłu na podstawie kryterium naukochłonności towarzyszą podejmowane od lat 60. badania nad innowacyjnością, którą za Schumpeterem wyprowadzano z  przedsiębiorczości. Interdyscyplinarne badania podejmowane w Science Policy Research Unit [SPRU] nad innowacyjnością rozumianą szerzej niż naukochłonność [Godin, 2002, s. 5] 4  Przez pewien czas uwzględniano bowiem nie tylko bezpośrednie (finansowane i wykonywane w obrębie danej branży) badania naukowe, ale także badania pośrednie, czyli wykorzystywanie przez daną branżę wyników badań naukowych innej branży.


Źródło: OECD [1999].

zyjny, komunikacyjny 11 Maszyn biurowych 11 Instrumentów medycznych, optycznych, precyzyjnych

11 Lotniczy 11 Farmaceutyczny 11 Sprzęt radiowo-telewi-

Gałęzie o wysokiej intensywności technologicznej

11

11

11 11

tryczna Pojazdy samochodowe Pozostały sprzęt samochodowy Chemiczny (bez farmaceutycznego) Maszyny i urządzenia

11 Maszyny i aparatura elek-

Gałęzie o wysoko średniej intensywności technologicznej

11 11

11

11

nych i koksowniczy Gumowy i produktów plastikowych Inne niemetaliczne produkty mineralne Metale podstawowe Produkty metalowe z wyjątkiem maszyn i urządzeń

11 Produktów petrochemicz-

Gałęzie o nisko średniej intensywności technologicznej

11

i wyroby ze skór Spożywczy, napoje, używki 11 Odzieżowy, wyroby futrzarskie 11 Włókienniczy 11 Meblowy

11 Papier i papierniczy 11 Skóry wyprawione

drzewnych

11 Recycling 11 Drzewny, materiałów

Gałęzie o niskiej intensywności technologicznej

Tabela 1. Typologia gałęzi przemysłu według intensywności technologicznej

ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 145


146

A.Wziątek-Kubiak

wspierały zainteresowania rządów niektórych krajów tą problematyką5. Natrafiały one na sprzyjający grunt w środowiskach naukowych Europy Zachodniej i Stanów Zjednoczonych. Jednakże choć w połowie lat 60. używano pojęcia „innowacja”, to w dalszym ciągu mierzono ją intensywnością B&R. Dopiero krytyka K. Pavitta, konsultanta OECD [OECD, 1976, s. 2-3], wskazującego, że B&R nie mierzą całości wydatków na innowacje [Godin, 2002, s. 6], a także interdyscyplinarne wyniki badań SPRU zwróciły uwagę na nienakładanie się pojęcia innowacji i  badań naukowych. Pociągnęło to za sobą odchodzenie przez OECD od utożsamiania innowacji z B&R na rzecz szerszego rozumienia pojęcia innowacji [Godin, 2002, s. 8-9]. W ten sposób zaczęła się kształtować dziedzina wiedzy zwaną ekonomią innowacji [Fagerberg i Verspagen, 2002]. Jednakże wcześniej opracowana klasyfikacja branż przemysłu, a  zwłaszcza jej kryteria się nie zmieniły. Równocześnie dalsze prace i działania w ramach OECD i Eurostatu prowadziły do przygotowania zharmonizowanej metodologii nad badaniem działalności innowacyjnej w postaci Podręcznika Oslo; metodologia ta zostanie wykorzystana w pracy. W jej ujęciu innowacja to „wdrożenie nowego lub znacząco udoskonalonego produktu (wyrobu/usługi) lub procesu, nowej metody marketingowej lub metody organizacyjnej w praktyce gospodarczej, organizacji miejsca pracy lub stosunkach z otoczeniem” [Podręcznik Oslo, 2006, s. 48]. Ten sposób rozumienia jest dalece kontrowersyjny. Jednakże wszystkie urzędy statystyczne krajów UE prowadzą badania innowacji na podstawie wspomnianej metodologii. Oznacza to istnienie wielkiej bazy danych, która pozwala na ocenę działalności innowacyjnej przedsiębiorstw w  oparciu o  zharmonizowaną, choć dalece niedoskonała metodologię, a  więc także na przeprowadzenie porównań międzynarodowych. Wieloletnia koncentracja badań na branżach o wysokiej intensywności technologicznej, czemu towarzyszyło zróżnicowanie identyfikacji ich cech, prowadziła do pomijania w analizach kwestii innowacyjności pozostałej, największej części gospodarki, w tym także problematyki międzygałęziowej dyfuzji innowacji. Jak pokazał Hirsch-Kreisen [2003], ich udział w  produkcji, zatrudnieniu, wartości dodanej, a  nawet w  handlu zagranicznym krajów rozwiniętych, choć powoli maleje, pozostał bardzo wysoki. Zauważono też, iż te same branże oraz produkty w  różnych krajach cechują się różnym poziomem naukochłonności [Hatzich­ ronoglou, 1997]. W świetle dotychczasowych badań nad zróżnicowaniem innowacji między firmami wyodrębnionych branż (na podstawie kryterium naukochłonności) powstaje pytanie, czy taka klasyfikacja odzwierciedla ogólny (w rozumieniu - dla wszystkich krajów) wzorzec działalności innowacyjnej firm? Innymi słowy, czy zróżnicowanie wzorców innowacji jest takie same w krajach rozwiniętych i słabiej rozwiniętych, w  których naukochłonność produkcji i  intensywność stosowania innowacji jest dalece odmienna? Wreszcie, czy przyjęte kryterium klasyfikacji branż nie waży 5  Przykładowo Brytyjska Federacja przemysłu przeprowadziła ankietę, w  której pytała o wydatki na działalność innowacyjną rozumianą jako wprowadzenie nowych lub ulepszenie istniejących produktów i technologii przypadające na godzinę pracy zatrudnionego.


ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 147

na zróżnicowaniu wzorców innowacji między nimi? W artykule została podjęta próba odpowiedzi na te pytania. Jak pokazywały liczne badania [Carrol, Pol, Robertson, 2000], w ramach branż o wysokiej technologii funkcjonuje wiele przedsiębiorstw i rozwijane są typy produkcji o  niskiej technologii. I  odwrotnie, w  krajach rozwiniętych w  branżach o niskiej technologii znajduje się wiele przedsiębiorstw wytwarzających produkty o wysokim poziomie zaawansowania technologii. Z drugiej strony, opierając się na tablicach nakładów i wyników, Hatzichronoglou [1997] wyodrębnił i oszacował dwa typy naukochłonności: bezpośrednią (direct), czyli powstającą w danym przedsiębiorstwie i dziedzinie produkcji, i pośrednią (indirect), czyli wykorzystywanie wyników badań przez kolejnych odbiorców działających w innych branżach. Skoro bowiem żadna gałąź przemysłu nie działa w izolacji, to zmiany naukochłonności i innowacyjności w jednej gałęzi – także przez sprzężenia międzygałęziowe – przekładają się na zmiany innowacyjności w innych. Nośnikiem dyfuzji i rozprzestrzeniania się innowacji między gałęziami i rodzajami produktów jest nie tylko przepływ produktów i  czynników produkcji, ale także różnorodne formy powiązań i  współpracy. Pokazują to badania w  ramach koncepcji pozytywnych efektów zewnętrznych wiedzy (knowledge spillovers), a więc procesu promieniowania wiedzy od jej wytwórców do innych sfer działalności. Te analizy i wątpliwości postawiły pod znakiem zapytania zasadność stosowanej klasyfikacji branż. Skoro innowacyjność jest pojęciem szerszym, zawierającym znacznie szerszą gamę czynników niż same badania naukowe, to klasyfikacja branż według naukochłonności nie musi się nakładać na ich podział według kryterium innowacyjności. Powstaje pytanie, czy wysokiej naukochłonności danej branży towarzyszy odmienna niż w branżach o niskiej naukochłonności intensywność wykorzystania czynników innowacji. Czy więc różne pod względem naukochłonności branże przemysłu cechują się odmiennymi wzorcami innowacji? Czy takie zróżnicowanie wzorców innowacji ma miejsce także w  krajach słabiej rozwiniętych o  niskiej naukochłonności produkcji i  niskiej intensywności innowacyjności? Czy więc mimo zróżnicowania intensywności innowacji i naukochłonności między krajami w  rzeczywistości gospodarczej można wyodrębnić odmienne wzorce innowacji specyficzne dla poszczególnych branż? Wreszcie nasuwa się pytanie, czy wybór naukochłonności jako kryterium klasyfikacji branż, która jest ważnym czynnikiem innowacji, nie powoduje nieuchronności zróżnicowania wzorców innowacji między tak wyodrębnionymi branżami?

ZRÓŻNICOWANIE UPOWSZECHNIENIA INNOWACJI WŚRÓD PRZEDSIĘBIORSTW BRANŻ O NISKIEJ I WYSOKIEJ TECHNOLOGII W  analizowanym okresie upowszechnienie innowacji wśród polskich przedsiębiorstw przemysłowych, mierzone udziałem przedsiębiorstw innowacyjnych w ogólnej liczbie przedsiębiorstw przemysłu przetwórczego, było o połowę niższe


148

A.Wziątek-Kubiak

od średniej dla rozszerzonej Unii Europejskiej (UE-27). W 2004 roku 41,75% ogólnej liczby przedsiębiorstw przemysłowych tych ostatnich krajów stanowiły firmy innowacyjne, podczas gdy tylko 25,6% w Polsce. Zmniejszenie się w latach 2002-2006 wskaźnika powszechności innowacji wśród polskich przedsiębiorstw z 25,6% do 23,1% wskazuje na zwiększenie luki w tym zakresie. Tabela 2. Upowszechnienie innowacji wśród przedsiębiorstw dwóch rodzajów branż przemysłu przetwórczego w latach 1998–2006 (udział firm innowacyjnych w ogólnej liczbie firm danej branży przemysłu w %) Wyszczególnienie

1998–2000*

2002–2004*

2004–2006

Gałęzie o wysokiej technologii 11 Radiowo-telewizyjny, komunika-

cyjny (sprzęt)

28

39

40,5

19

34

35,7

37

34

36,3

9

14

21,2

11

15

17,8

11 Papier i papierniczy

19

28

22,9

11 Spożywczy, napoje, używki

14

22

20

skór

7

11

15

Odzieżowy, wyroby futrzarskie

7

10

7,1

Włókienniczy

15

23

21,2

Meble

18

22

22,2

11 Maszyn biurowych 11 Instrumentów medycznych,

optycznych, precyzyjnych

Gałęzie o niskiej technologii 11 Recycling 11 Drzewny, materiały i wyroby

drzewne

11 Skóry wyprawione i wyroby ze

* Szacunek na podstawie wykresu GUS (z dokładnością do 1–2 pkt proc.). Źródło: GUS [2006, 2008].

Niższe upowszechnienie innowacji wśród polskich firm przemysłowych w  porównaniu do średniej unijnej przekładało się na niższe upowszechnienie innowacji wśród firm analizowanych grup branż (tab. 2). Wskaźnik upowszechnienia innowacji polskich firm branż o niskiej technologii był niższy od średniej dla polskiego przemysłu przetwórczego, podczas gdy branż o wysokiej technolo-


ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 149

gii – znacznie wyższy (por. tab. 2). Prawidłowość ta nie odbiegała od unijnej. W 2004 roku w UE innowacyjnych było 34% ogólnej liczby firm branż o niskiej technologii. Było to mniej niż wynosiła średnia przemysłu przetwórczego tych krajów (41,7%) i blisko dwukrotnie mniej niż średnia dla branż o wysokiej technologii (63%) [Heidenreich, 2009]. Przykład krajów UE, ale także innych krajów rozwiniętych wskazuje, iż im wyższy jest poziom technologii, rozumianej jako naukochłonność branży, tym większe jest upowszechnienie innowacji wśród jej firm. Jest ono największe wśród firm branż o wysokiej technologii, a zdecydowanie najniższe wśród firm branż o niskiej technologii. Na tle unijnych odpowiedników powszechności innowacji polskich przedsiębiorstw branż o wysokiej technologii była bardzo niska. Wskaźnik ten był zbliżony lub nieco niższy od poziomu firm branż o niskiej technologii krajów unijnych. Po drugie, bardzo niskie było upowszechnienie innowacji wśród polskich firm przemysłów o niskiej intensywności technologicznej, a więc tych, które mają wysoki udział w produkcji przemysłowej Polski. Po trzecie, różnice między powszechnością innowacji firm branż o wysokiej i niskiej technologii w polskim przemyśle przetwórczym były zbliżone do tych występujących w UE. Wziąwszy pod uwagę stosunkowo wysoki udział produkcji branż o niskiej technologii w produkcji przemysłowej Polski nasuwa się konkluzja o silnym wpływie powszechności innowacji firm branż o niskiej technologii na niski poziom upowszechnienia innowacji polskiego przemysłu. Zwróćmy uwagę, iż w branżach o niskiej technologii bardzo wysoki udział w produkcji mają przedsiębiorstwa małe. Wskaźnik ich powszechności innowacji w Polsce (w 2004 r. wynosił 18,4%) jest zdecydowanie niższy niż unijnych odpowiedników. W Finlandii i Niemczech dwa razy większa niż w Polsce część firm małych była innowacyjna. W Niemczech innowacyjność małych firm była jeszcze większa. Mamy więc do czynienia z  wpływem cech firm małych, a więc także wpływem struktury rynku na ocenę innowacyjności branż. To z kolei wskazuje na zasadność zwiększenia działań państwa na rzecz zwiększenia innowacyjności wśród małych firm.

ZRÓŻNICOWANIE CELÓW STRATEGII INNOWACJI PRZEDSIĘBIORSTW Dostępności danych statystycznych publikowanych przez GUS i Eurostat na podstawie metodologii Podręcznika Oslo sprawia, iż w  dalszej części opracowania koncentrować się będziemy na przedsiębiorstwach innowacyjnych, czyli takich, które wprowadziły innowacje w rozumieniu Podręcznika Oslo. Jeśli innowacje są źródłem konkurencyjności i ekspansji przedsiębiorstw, to ich model innowacyjności odzwierciedla strategię innowacji, a pośrednio także strategię walki konkurencyjnej [Butler, 1988], w  tym metody konkurencji. Na strategię innowacji przedsiębiorstw wpływa: 11

wybór typów innowacji (produktowe, procesowe, mieszane), na jakich przedsiębiorstwa się koncentrują,


150

A.Wziątek-Kubiak

11

efekty innowacji (obniżka kosztów produkcji czy zróżnicowanie produktów), które mają bezpośrednie odniesienie do typów innowacji,

11

zróżnicowanie wykorzystania czynników wewnętrznych i zewnętrznych innowacji przez przedsiębiorstwa.

W tym punkcie koncentrować się będziemy na pierwszych dwóch wymienionych elementach strategii innowacji, a szerzej – na jej celach. Dla strategii innowacji przedsiębiorstw kluczowe znaczenie ma wybór typów innowacji, które bezpośrednio odzwierciedlają cele tej strategii, ale i  strategii konkurencji: zróżnicowanie produktów czy obniżka kosztów produkcji. To kluczowe znaczenie typów innowacji dla jej strategii wynika z faktu, iż, po pierwsze, każdy z tych typów innowacji wpływa na inne sfery działalności przedsiębiorstwa. Innowacje produktowe przybierają postać wyników działalności innowacyjnej przedsiębiorstwa. Innowacje procesowe, będąc swego rodzaju pośrednikiem między ponoszonymi nakładami a wynikami, silniej związane są z procesem produkcji oraz z jej organizacją. Implikuje to, iż, po drugie, innowacje produktowe są narzędziem wdrażania strategii różnicowania produktów. Innowacje procesowe mają z kolei silniejszy wpływ na efektywność działania przedsiębiorstwa, w tym jego koszty. Po trzecie, te dwa typy innowacji różnią się także rodzajem wiedzy, na jakiej się opierają i  jaką wykorzystują. Innowacje produktowe są z  reguły oparte na wiedzy skodyfikowanej (codified), a procesowe – bardziej praktycznej (tacid). Wiedza uprzedmiotowiona w tych ostatnich ma więc bardziej charakter personalny, specyficzny dla danego przedsiębiorstwa. Wyraża umiejętności i wiedzę nabytą także w  procesie zdobywania doświadczenia przez zatrudnionych w danej firmie. Jest więc szersza niż zatrudnieni mogą ją sformułować, a więc bez transferu zatrudnionych jest ją trudniej transferować do innych przedsiębiorstw. To z  kolei sugeruje, iż, po czwarte, innowacje procesowe silniej niż innowacje produktowe powinny być oparte na czynnikach wewnętrznych. Nie oznacza jednak, że w przypadku innowacji procesowych pozytywne efekty wiedzy (knowledge spillovers) nie odgrywają istotnej roli, zwłaszcza w krajach słabiej rozwiniętych słabo wyposażonych w  zasoby innowacyjne [Bitzer, Geishecker, Gorg, 2008; Leon-Ledesma, 2005]. Powyższy podział innowacji nie jest zamknięty. Zastosowanie jednej z wymienionych form innowacji nie musi wykluczać stosowania drugiej formy. Wdrożenie innowacji produktowych może bowiem wymagać wdrożenia innowacji procesowych. Zastosowanie tych ostatnich może pociągać za sobą zasadniczą poprawę jakości towaru, a więc także innowacje produktowe. Obok innowacji produktowych i  procesowych występuje trzeci element klasyfikacji rodzajów innowacji, czyli równoczesne stosowanie strategii cenowej oraz strategii zróżnicowania produktów (innowacje mieszane, produktowo-procesowe). W Polsce i innych krajach unijnych więcej przedsiębiorstw stosuje tę właśnie strategię niż czystą postać strategii zróżnicowania produktów (następstwo innowacji produktowych) lub cenową (odpowiednio – innowacji procesowych).


ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 151

Badania empiryczne nad innowacyjnością przedsiębiorstw krajów rozwiniętych, w tym także unijnych, wskazują na większą powszechność stosowania innowacji procesowych przez firmy branż o  niższej technologii, a  produktowych – o wyższej technologii. Prawidłowość ta ma miejsce także w polskim przemyśle przetwórczym. Świadczy o tym analiza zróżnicowania częstotliwości wprowadzania i efektów każdego z obu rodzajów innowacji przez polskie firmy analizowanych branż. W Polsce podobnie jak w UE w strategii innowacji i konkurencyjności znacząco większy odsetek firm branż o  wysokiej technologii stosowało innowacje produktowe (tab. 3). Powszechność koncentrowania się na innowacjach produktowych firm branż o niskiej technologii była też niższa od średniej dla przemysłu przetwórczego. Natomiast znacząco większy odsetek firm tych ostatnich branż koncentrował się na innowacjach procesowych. Wskazuje to, iż w Polsce podobnie jak w firmach krajów unijnych innowacje procesowe były bardziej powszechne wśród firm branż o  niższej technologii, podczas gdy innowacje produktowe – wśród firm branż o wyższej technologii. Tabela 3. Powszechność innowacji produktowych i procesowych wśród firm innowacyjnych (w % ogólnej liczby firm innowacyjnych przemysłu przetwórczego) Lata

Firmy branż o wysokiej technologii

Firmy branż o niskiej technologii

Średnia dla przemysłu przetwórczego*

Innowacje produktowe 1998–2000

88,6

72,7

81,5

2002–2004

92,7

72,0

78,6

2004–2006

84,8

70,9

74,7

Innowacje procesowe 1998–2000

58,0

73,0

69,1

2004–2006

65,2

75,4

75,3

* Średnia (ważona) dla innowacyjnych firm przemysłu przetwórczego Polski, które badane były przez GUS (wypełniały ankietę PNT-02). Źródło: Obliczono na podstawie PNT-02 dla lat 1998–2000, 2002–2004, 2004–2006.

W ostatnim okresie w polskim przemyśle przetwórczym malał odsetek przedsiębiorstw innowacyjnych, które wprowadziły innowacje produktowe, a rósł tych, które wprowadziły innowacje procesowe (tab. 3). Wskaźnik powszechności stosowania innowacji produktowych zmniejszył się z 81,% do 74,7% na rzecz wzrostu wskaźnika powszechności stosowania innowacji procesowych. Dotyczyło to


152

A.Wziątek-Kubiak

obu analizowanych branż. Jednakże spadek częstotliwości wprowadzania innowacji produktowych firm branż o wysokiej technologii, czyli tych, w których większa część firm stosowała innowacje produktowe, był mniejszy. Oznacza to pogłębienie różnic w  strategii innowacyjności przedsiębiorstw analizowanych branż. Powstaje pytanie, jakie są przyczyny tych zmian? Zastosowanie przy wyjaśnianiu tej kwestii zmodyfikowanej przez Utterbacka i  Abernathy (1975) wersji teorii cyklu produktu uwzględniającej interakcje między innowacjami produktowymi i  procesowymi prowadzi do wniosku, iż wytwarzane przez polskie firmy wspomnianych branż produkty przemysłowe są w trzeciej, ostatniej fazie cyklu produktu, a więc szybko się „starzeją”. Z reguły towarzyszy temu przechodzenie od strategii zróżnicowania produktów na rzecz strategii obniżania kosztów wytwarzanych produktów, a  więc wzrost intensywności konkurencji cenowej. Jakość polskich towarów nie jest wysoka, a warunkiem jej poprawy jest wprowadzenie innowacji procesowych. Jednakże w przypadku towarów znajdujących się w fazie dojrzałej, czyli przy szybkim starzeniu się produktów, istnieje realne zagrożenie wprowadzeniem przez zagranicznych konkurentów jakościowo nowych towarów. W dojrzałej fazie cyklu produktu przechodzenie od strategii zróżnicowania produktów do strategii obniżki kosztów produkcji nie musi więc prowadzić do zwiększenia udziałów rynkowych, czyli do wygrywania walki konkurencyjnej. W czasach współczesnych główną metodą wygrywania walki konkurencyjnej jest zróżnicowanie towarów. Głównym twórcą wprowadzanych innowacji w Polsce były przedsiębiorstwa (około 2/3 liczby firm). Wśród firm, które same opracowywały nowe produkty, większy był odsetek firm branż o wysokiej technologii. Odwrotnie było w przypadku opracowania nowych technologii. Wśród firm, które same opracowały nowe technologie, większy był odsetek firm branż o niskiej technologii. Strategia innowacji firm branż o wysokiej technologii miała więc bardziej charakter produktowy, a tych o niskiej technologii – charakter procesowy. Tezę tę potwierdza podporządkowanie współpracy z  ośrodkami naukowo-badawczymi stosowanej strategii innowacji. Mianowicie przy opracowaniu nowych produktów większa części firm branż o wysokiej technologii wprowadzała do produkcji wyroby opracowane przez instytuty naukowo-badawcze. Inaczej było w  przypadku nowych technologii. Więcej (o blisko 10 punktów procentowych) przedsiębiorstw branż o niskiej technologii było twórcami nowych technologii, ale także nieco więcej tych przedsiębiorstw wdrażało do produkcji nowe technologie opracowane przez ośrodki naukowo-badawcze. O odmienności strategii innowacji analizowanych branż świadczy też zróżnicowanie między nimi efektów działalności innowacyjnej. Są one następstwem przyjętych przez przedsiębiorstwo celów strategii innowacji. Najczęściej występującymi efektami działalności innowacyjnej polskich przedsiębiorstw była poprawa jakości wyrobów oraz zwiększenie asortymentu produktów. Skoro dotyczyły one niemal co drugiego przedsiębiorstwa innowacyjnego (tab. 4), to odgrywały podstawową rolę w  strategii innowacji. Poprawa jakości


ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 153

towarów może być następstwem zarówno innowacji produktowych jak i procesowych, a  więc na jej podstawie nie można określić rodzaju strategii innowacji. Inaczej jest natomiast w przypadku wzrostu asortymentu wyrobów. Wynika on, jak się wydaje, ze stosowania strategii różnicowania produktów. Z kolei zwiększenie elastyczności produkcji, obniżka kosztów pracy oraz materiałochłonności produkcji jest rezultatem wprowadzania innowacji procesowych. Miała ona miejsce w znacznie mniejszym odsetku (poniżej 20%) ogólnej liczby firm innowacyjnych. Tabela 4. Efekty działalności innowacyjnej polskich przedsiębiorstw przemysłu przetwórczego w latach 2004–2006 (% liczby przedsiębiorstw innowacyjnych) Stopniowanie znaczenia

Firmy branż o wysokiej technologii

Firmy branż o niskiej technologii

Średnia

Poprawa jakości wyrobów

Podstawowe znaczenie

44,6

46,8

47,3

Bez znaczenia

11,4

21,9

17,9

Zwiększenie asortymentu

Podstawowe znaczenie

62,5

41,9

45,5

Bez znaczenia

18,8

24,2

20,7

Zwiększenie udziału w rynku

Podstawowe znaczenie

44,4

30,4

33,7

Bez znaczenia

19,6

30

27,2

Zwiększenie elastyczności produkcji

Podstawowe znaczenie

17,9

28,7

27,9

Obniżka kosztów pracy

Podstawowe znaczenie

9,8

19,0

18,2

43,7

42,8

Obniżka materiałochłonności

Podstawowe znaczenie

8,5

16,1

16,2

Bez znaczenia

66,5

48,6

47,1

Wypełnienie przepisów, norm, standardów

Podstawowe znaczenie

39,6

25,7

29,3

Zgłoszenie wynalazku do opatentowania

Podstawowe znaczenie

10,7

2,9

7,7

Rodzaj efektu

Bez znaczenia

Bez znaczenia

Źródło: Jak w tabeli 3.

54


154

A.Wziątek-Kubiak

Produktowe efekty wprowadzenia innowacji (zwiększenie asortymentu produkcji, wypełnienie norm i  standardów) osiągała znacznie większa część firm branż o wysokiej technologii. Z kolei procesowe efekty innowacji (obniżka kosztów pracy i materiałochłonności, zwiększenie elastyczności produkcji) znacznie częściej występowały wśród firm branż o niskiej technologii. Dla niemal co drugiej firmy branż o wysokiej technologii innowacje procesowe nie miały znaczenia (tab. 4). Efekty innowacji produktowych nie miały z kolei znaczenia dla co piątej firmy branż o niskiej technologii. Uwagi te potwierdzają zróżnicowanie strategii innowacji między przedsiębiorstwami branż o  wysokiej i  niskiej technologii. W pierwszych większe znaczenie miało zróżnicowanie produktów, podczas gdy w drugich – obniżka kosztów produkcji. Zaskakujący może wydawać się fakt, iż poprawa jakości wyrobów miała podstawowe znaczenie dla nieco większej części firm branż o niskiej niż wysokiej technologii. Zapewne było to skutkiem wprowadzenia przez te pierwsze innowacji procesowych. Jednakże, z drugiej strony, wspomniana poprawa nie miała znaczenia dla stosunkowo dużej, bo dwukrotnie większej części innowacyjnych firm branż o niskiej niż o wysokiej technologii. To z kolei wskazuje, iż zastosowanie innowacji procesowych w znaczącym odsetku firm branż o niskiej technologii częściej prowadziło do obniżki kosztów produkcji niż do poprawy jakości towarów, a więc do efektów procesowych, a nie produktowych. Potwierdza to wyższą powszechność stosowania innowacji produktowych wśród firm branż o  wysokiej technologii, a  procesowych – wśród firm branż o  niskiej technologii. Powyższe uwagi potwierdzają, iż zróżnicowanie częstotliwości stosowania różnych typów innowacji odzwierciedla zróżnicowanie strategii innowacji, jakie stosowały przedsiębiorstwa różnych typów branż. Fakt ten ma bezpośredni związek ze zróżnicowaniem naukochłonności produkcji między firmami analizowanych branż. Innowacje produktowe mają bowiem bardziej naukochłonny charakter. Konstatację tę potwierdza także wielokrotnie wyższy wskaźnik zgłoszeń do opatentowania wynalazków i sprzedaży nowych technologii firm, które wprowadziły innowacyjne produkty. Z drugiej jednakże strony polskie firmy branż o niskiej technologii podobnie jak firmy unijne znacznie częściej niż firmy branż o wysokiej technologii rejestrowały znaki handlowe i wzory przemysłowe. Potwierdza to kluczową rolę marketingu i wzornictwa w strategii innowacyjnej firm branż o niskiej technologii (por. też tab. 5), a więc odmienność struktury czynników innowacji względem branż o wysokiej technologii. Powyższe uwagi wskazują, iż konkurencyjność cenowa, która realizowana jest przez wprowadzenie innowacji procesowych, jest bardziej powszechną metodą walki konkurencyjnej firm branż o  niskiej technologii zarówno w Polsce jak i w pozostałych krajach UE. Konkurencja przez zróżnicowanie produktów wyróżniała polskie firmy branż o  wysokiej technologii, a  metodą jej osiągania było wprowadzenie innowacji produktowych [Utterback, Suarez,1993].


ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 155

ZRÓŻNICOWANIE WYKORZYSTANIA WEWNĘTRZNYCH CZYNNIKÓW INNOWACJI Wewnętrzne źródła innowacji obejmują wszelkie formy działalności kreatywnej prowadzonej przez zatrudnionych w przedsiębiorstwach, zwłaszcza B&R, ale także działalność marketingową. Do źródeł zewnętrznych zalicza się współpracę w zakresie działalności innowacyjnej, także w sferze B&R z innymi podmiotami, transfer (przykładowo przez kupno) wyników B&R powstających poza przedsiębiorstwem oraz zakup wiedzy uprzedmiotowionej, przykładowo w postaci maszyn i urządzeń. Te ostatnie są kluczowym czynnikiem wzrostu innowacyjności przedsiębiorstw. Mimo że większość przedsiębiorstw analizowanych branż sama opracowała innowacje, to struktura wykorzystywanych czynników innowacji była odmienna. Wyróżniającą cechą struktury wydatków na innowacje polskich przedsiębiorstw jest bardzo niski udział wydatków na badania naukowe, a szerzej – na wiedzę nieuprzedmiotowioną. W  krajach rozwiniętych 25% wydatków firm na innowacje bezpośrednio jest powiązane z  wydatkami na B&R [Brouwer, Kleinknecht, 1997]. W  2004 roku w  Polsce udział wydatków na prowadzone w przedsiębiorstwach innowacyjnych B&R w ich wydatkach na innowacje ogółem wynosił 7,5%. Był to jeden z  najniższych wskaźników w  UE6. Od 2000 roku wskaźnik ten w Polsce systematycznie się zmniejszał. Na zakup wyników B&R od innych podmiotów (tzw. zewnętrzne B&R) polskie firmy przeznaczały zaledwie 4,3% wydatków ogółem na innowacje, co jest dwukrotnie mniejszym wskaźnikiem niż na przykład firm niemieckich. Na wewnętrzne i zewnętrzne B&R przedsiębiorstwa w Polsce przeznaczały blisko pięciokrotnie mniejszą część całkowitych wydatków na innowacje niż firmy niemieckie (odpowiednio 11,9% i  51,9%). Świadczy to nie tylko o  niewielkim potencjale badawczym polskich przedsiębiorstw, ale też o olbrzymiej luce między polskimi i unijnymi przedsiębiorstwami innowacyjnymi w  zasobach wiedzy mającej źródła w  prowadzonych w  firmach badaniach naukowych7. W latach 2000-2006 udział wydatków na nieuprzedmiotowione czynniki innowacji, czyli na B&R, szkolenie i marketing, w wydatkach na innowacje polskich przedsiębiorstw przemysłowych ogółem zmniejszył się z  18,4% do 15,2%. W znacznej mierze było to skutkiem spadku udziału wydatków na B&R (z 12,8% do 9,2%) na rzecz wzrostu udziału wydatków na tzw. zewnętrzne źródła wiedzy. Pociągnęło to za sobą wzrost udziału zewnętrznych źródeł innowacji, głównie uprzedmiotowionych z i tak bardzo wysokiego poziomu bo z 76,4% do 81,6%. Głównym źródłem innowacji polskich firm są maszyny i  urządzenia, których udział w wydatkach innowacyjnych systematycznie się zwiększał. 6  Wskaźnik

ten dla firm niemieckich wynosił 43,9%. marginesie tych uwag zauważmy, iż przeprowadzone badania [Chinkov, 2006; Toma­ szewicz, Świeczewska, 2008, 2007] wskazują, iż badania naukowe prowadzone za granicą miały większy niż badania naukowe prowadzone w Polsce wpływ na wzrost wydajności pracy polskiego przemysłu. 7  Na


156

A.Wziątek-Kubiak

Wyszczególnienie

B&R wewnętrzne

Zakup gotowej technologii

Oprogra­mo­wanie

Budynki

ogółem

w tym import

Szkolenie

Marketing

Maszyny i urządzenia

Tabela 5. Sektorowe zróżnicowanie struktury wydatków na innowacje polskich przedsiębiorstw w latach 2004–2006 (w %)

Średnia

9,3

2,0

2,3

22,8

59,2

26,1

0,3

2,9

30,7

8,9

4,8

10,7

38,5

12,5

0,6

2,3

3,0

2,5

2,9

25,8

70

25,6

0,3

5,1

Firmy branż o wysokiej technologii NT

Źródło: Obliczenia na podstawie [GUS, 2008].

Dostępność danych statystycznych pozwala na porównanie wyłącznie struktury wydatków na innowacje (tab. 5), które odzwierciedlają strukturę wykorzystania różnych czynników innowacji identyfikowanych w Podręczniku Oslo. Po pierwsze, bezpośrednia intensywność naukowa (B&R) wydatków na innowacje (mierzona udziałem wewnętrznych B&R w nakładach innowacyjnych ogółem) polskich firm branż o wysokiej technologii była dwukrotnie niższa niż ich unijnych odpowiedników. Udział wydatków na B&R polskich firm tych branż w  wydatkach na innowacje ogółem wynosił 30,7%, a  unijnych – 65,4% [Heidenreich, 2009, s. 488]. Jednakże na tle średniej dla polskiego przemysłu przetwórczego wspomniany współczynnik polskich firm był wysoki. Był bowiem trzykrotnie wyższy od średniej dla przemysłu przetwórczego (tab. 5). Wskaźnik ten dla unijnych firm branż o  wysokiej technologii był zaledwie o  około 24% wyższy od średniej dla przemysłu unijnego ogółem. Z drugiej strony intensywność nakładów na innowacje polskich firm branż o  niskiej technologii była bardzo niska: trzy razy niższa od średniej dla polskiego przemysłu przetwórczego ogółem, dziesięciokrotnie niższa od polskich firm branż wysokiej technologii i unijnych firm branż o niskiej technologii (wynosiła 33,8%). Na tle polskiego przemysłu intensywność naukowa firm branż o wysokiej technologii jest więc wysoka, podczas gdy firm branż o niskiej technologii – bardzo niska. Ponieważ intensywność naukowa polskiego przemysłu, mierzona udziałem B&R w wydatkach na innowacje (9,3%), jest zdecydowanie niższa niż unijnej (49%), niższa też była intensywność badawcza polskich firm branż o wysokiej technologii. Po drugie, udział wydatków na wewnętrzne i zewnętrzne B&R polskich firm branż o  wysokiej technologii w  wydatkach na innowacje ogółem sięgał 39,6%,


ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 157

a branż o niskiej technologii – 6,2% (tab. 5), przy średniej dla przemysłu wynoszącej 11,3%. Gdybyśmy uwzględnili także wydatki na oprogramowanie, marketing i szkolenie, to udział nakładów na nieuprzedmiotowione źródła innowacji firm branż o wysokiej technologii sięgałby 47,9%, a niskiej technologii – zaledwie 13,5%. Po trzecie, polskie firmy branż o niskiej technologii przeznaczały na marketing większą część wydatków na innowacje niż firmy branż o  wysokiej technologii. Odsetek tych wydatków był niewiele mniejszy od łącznych wydatków na wewnętrzne B&R i zakup gotowej technologii. Po czwarte, dla polskich firm branż o niskiej technologii głównym źródłem innowacji był zakup maszyn i urządzeń. Ich udział w wydatkach na innowacje był o około 30% wyższy niż ich unijnych odpowiedników8 i o około 20% większy od średniej dla polskiego przemysłu przetwórczego. Choć międzysektorowe różnice w odsetku firm obu branż samodzielnie opracowujących innowacje były stosunkowo niewielkie, to źródła innowacji były w każdym z analizowanych typów branż odmienne. To więc, że większość firm w  Polsce zarówno branż o  wysokiej jak i  niskiej technologii sama opracowała innowacje, nie znaczy, iż wykorzystują takie same źródła innowacji. Dla innowacyjności przedsiębiorstw, obok wysokości wydatków na B&R, kluczowe znaczenie ma też systematyczność prowadzenia B&R w firmie. Badania międzynarodowe pokazują, iż prawdopodobieństwo wprowadzenia innowacji tych firm, które wydają na B&R mniej niż 3% przychodów ze sprzedaży i czynią to sporadycznie, a  nie w  sposób ciągły, jest mniejsze niż tych, które prowadzą B&R w sposób systematyczny. Stąd w literaturze wzięto pod uwagę kwestię systematyczności prowadzenia badań naukowych, która może mieć większe lub zbliżone znaczenie do ich wielkości. W  analizowanym okresie w  polskim przemyśle zwiększył się odsetek firm, które prowadziły B&R. Równocześnie jednak zmalał odsetek podmiotów, które czyniły to w sposób ciągły. Rosnący odsetek firm, które prowadziły B&R dorywczo wskazuje na rosnącą wśród firm świadomość znaczenia badań dla innowacji, w tym także dla absorpcji wiedzy powstającej poza przedsiębiorstwem. Jednakże spadek udziału firm, które prowadziły B&R w sposób ciągły, może powodować spadek efektywności prowadzonych badań. Im wyższy był poziom technologii branży, a  więc jej naukochłonność, tym większy był odsetek firm, które stale prowadziły B&R i  mniejszy był odsetek firm, które ich nie prowadziły. Co druga firma branż o wysokiej technologii prowadziła badania naukowe w  sposób ciągły, a  niewiele było firm, które takich badań w ogóle nie przeprowadzały. Z drugiej strony, bardzo niewielka część firm branż o niskiej technologii prowadziła B&R w sposób ciągły, a większość z nich (blisko 2/3 liczby) nie prowadziła tych badań. To z kolei miało szersze implikacje. Wiązało się z nie tylko z niewielkim udziałem ich wydatków na B&R w nakładach innowacyjnych, ale co ważniejsze – obniżało zdolność do współpracy 8  Przeciętne wydatki na ten cel firm przemysłu przetwórczego UE wynosił 27,7%, a dla firm sektora o niskiej technologii – 51%.


158

A.Wziątek-Kubiak

Tabela 6. Częstotliwość różnych sposobów prowadzenia badań naukowych przez firmy Lata

1998–2000

2002–2004

2004–2006

Firmy branż o wysokiej technologii

Firmy branż o niskiej technologii

Średnia dla przemysłu przetwórczego

Ciągły

52,8

6,5

18,5

Dorywczy

16,5

10,9

19,6

Nie prowadziło

30,7

82,6

61,9

Ciągły

46,1

8,6

16,5

Dorywczy

24,6

17,5

22,3

Nie prowadziło

29,3

74,0

61,2

Ciągły

51,8

5,9

14,7

Dorywczy

25,4

29,0

30,2

Nie prowadziło

22,8

65,1

55

Sposób prowadzenia B&R

Odsetek przedsiębiorstw, dla których informacja o innowacji pochodząca z przedsiębiorstwa miała zasadnicze znaczenie dla jego działalności innowacyjnej 2002–2004 2004–2006

Wewnętrzne źródła informacji

64,4

47,3

53,6

67,1

44,5

48,9

Odsetek przedsiębiorstw, w przypadku których informacja o innowacjach pochodząca od innych przedsiębiorstw tej samej grupy miała zasadnicze znaczenie 1998–2000

19,2

15,9

18,3

2002–2004

12,5

8,6

11,4

2004–2006

13,8

11,8

12,6

Źródło: Jak w tabeli 3.

w zakresie innowacji z innymi podmiotami. Wyższy odsetek firm branż o wysokiej technologii, które prowadziły B&R i czyniły to w sposób ciągły, świadczy nie tylko o większym znaczeniu badań w działalności innowacyjnej, ale i o większej ich efektywności. Z drugiej strony, im wyższa była intensywność badawcza branż i ciągłość prowadzonych badań, tym dla większej części jego firm kluczowe znaczenie miały wewnętrzne źródła informacji o innowacjach. Odsetek firm branż o niskiej technologii, w których zasadniczą rolę odgrywały informacje o innowacjach pochodzące ze źródeł wewnętrznych, był znacząco niższy niż odsetek firm branż o wyso-


ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 159

kiej technologii. Potwierdza to kluczowe znaczenie B&R dla absorpcji wiedzy zewnętrznej, czyli dostępnej w otoczeniu. Zróżnicowaniu udziału B&R w wydatkach na innowacje między firmami analizowanych branż towarzyszyło także różnicowanie powszechności korzystania z zakupionej (zewnętrznej) nieuprzedmiotowionej wiedzy. Tabela 7. Zakup nowej technologii materialnej i niematerialnej w latach 2004–2006 (odsetek firm innowacyjnych) Firmy branż o wysokiej technologii

Firmy branż o niskiej technologii

Średnia dla przemysłu przetwórczego

Polska

7,6

4,5

5,4

Zagranica

4,4

2,8

3,8

Zakup usług konsultingowych

Polska

8,3

8,5

12,0

Zagranica

6,2

2,8

4,4

Zakup środków automatyzacji

Polska

10,3

14,0

14,7

Zagranica

12,9

14,9

16,1

Rodzaj technologii

Zakup licencji

Pochodzenie

Źródło: Jak w tabeli 3.

Im wyższy był poziom naukochłonności produkcji branż, tym większy był odsetek firm, które kupowały wyniki badań w postaci licencji i usług konsultingowych (tab. 7). Im mniejszy był udział wydatków na wewnętrzne B&R w wydatkach na innowacje i mniej firm prowadziło badania w sposób ciągły, tym mniej firm korzystało z  zakupu nieuprzedmiotowionej technologii. Orientacja firm branż o niskiej technologii na wykorzystywanie zewnętrznych materialnych źródeł innowacji, głównego źródła innowacji, przełożyła się na wyższy udział firm korzystających z  zakupu środków automatyzacji firm wspomnianych branż (tab. 7). Potwierdza to zróżnicowanie źródeł innowacji i strategii innowacji między analizowanymi typami branż. Dla firm branż o wysokiej technologii głównym źródłem innowacji jest wiedza nieuprzedmiotowiona, podczas gdy dla firm branż o niskiej technologii – stworzona w  innych branżach i  zmaterializowana w  maszynach i urządzeniach. Zróżnicowaniu zaangażowania przedsiębiorstw w B&R towarzyszyło zróżnicowanie wyników sprzedaży efektów tej działalności w postaci sprzedaży licencji i  usług konsultingowych, ale także zgłoszenie wynalazku do opatentowania. Wyższemu wskaźnikowi zaangażowania w B&R firm branż o wysokiej technologii towarzyszył zdecydowanie wyższy wskaźnik sprzedaży wyników tych badań niż firm branż o niższej technologii. Jednakże w przypadku tych ostatnich firm wspominany wskaźnik choć był niski, to znaczenie się zwiększył.


160

A.Wziątek-Kubiak

Tabela 8. Sprzedaż bezpośrednich efektów działalności innowacyjnej przez przedsiębiorstwa innowacyjne (% liczby firm innowacyjnych)

Lata

Firmy branż o wysokiej technologii

Firmy branż o niskiej technologii

Średnia dla przemysłu przetwórczego

1998–2000

0,9

0,0

0,2

2004–2006

1,8

0,1

0,4

1998–2000

0,9

0,0

0,2

2004–2006

3,6

0,6

1,3

1998–2000

1,4

0,4

0,7

2004–2006

1,8

1,0

1,1

1998–2000

19,6

3,1

0,5

2004–2006

10,7

2,9

7,7

Rodzaje efektów działalności innowacyjnej Sprzedaż licencji Sprzedaż usług konsultingowych Sprzedaż środków automatyzacji Zgłoszenie wynalazku do opatentowania

Źródło: Jak w tabeli 3.

ZRÓŻNICOWANIE WYKORZYSTANIA ZEWNĘTRZNYCH ŹRÓDEŁ INNOWACJI Od mniej więcej połowy lat 80. w literaturze zaczęto dostrzegać, iż proces innowacji w coraz większej mierze ma charakter otwarty (open innovation). Jako połączenie różnych (zewnętrznych i wewnętrznych) zasobów i pomysłów proces innowacji nie jest procesem zamkniętym wewnątrz przedsiębiorstwa i ma charakter interakcyjny [Drejer, Jorgensen, 2006]. Rosnące skomplikowanie procesów innowacyjnych zwiększa prawdopodobieństwo trudności w jego opracowaniu i realizacji. Niedobór innowacyjnych zasobów oraz potrzeba zmniejszenia ryzyka związanego z opracowaniem i wdrożeniem innowacji zachęcały firmy do korzystania z innowacyjnych zasobów otoczenia, zwłaszcza takich które są komplementarne do zasobów przedsiębiorstw [Oerlemans, Meeus, Boekema, 2001, s. 345]. Najbardziej aktywne firmy innowacyjne szeroko korzystają z  wiedzy powstającej w innych organizacjach [Chesbrough, Crowther, 2006], zwłaszcza że wewnętrzne B&R i zewnętrzne know how mają często charakter komplementarny [Cassiman i Veugelers, 2006], a nie – jak sądzono [Pisano, 1990] – substytucyjny. Umiejętność korzystania z zewnętrznych zasobów zwiększa efektywność prowadzonych w firmie B&R [Ku, Gurumurthy, Kao, 2007; Cassiman, Veugelers, 2006; Cohen, Levinthal, 1990].


ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 161

Z  jednej strony firmy szeroko korzystają z  zewnętrznych źródeł informacji dotyczących innowacji, z  drugiej zaś wchodzą w  różnorakie formy współpracy w zakresie innowacji. Współpraca ta może obejmować różne obszary, od B&R do wspólnego opracowania produktu czy technologii, mieć charakter rynkowy oraz pozarynkowy, formalny i  nieformalny. Może mieć też miejsce w  ramach łańcucha powiązań produkcyjnych, czyli z klientami i dostawcami, a także poza tym łańcuchem: z  konkurentami, jednostkami badawczymi i  innymi podmiotami. Prawdopodobieństwo nawiązywania współpracy z klientami rośnie wraz ze wzrostem złożoności innowacji, trudności określenia rynku dla innowacyjnego produktu, a  także gdy nowo stworzony produkt jest nowy na rynku [Tether, 2002]. Niektóre cechy współpracy z klientami są zbliżone do tej z dostawcami. Prawdopodobieństwo nawiązywania kooperacji w zakresie innowacji z dostawcami i  jej podtrzymywania jest większe wraz z  wydłużaniem się horyzontu czasu współpracy. Przedsiębiorstwo stoi bowiem przed wyborem „wykonać czy kupić” (make or buy) produkt od dostawcy, a na wybór ten wpływa horyzont czasu współpracy. Z kolei współdziałanie w dziedzinie innowacji z konkurentami może dotyczyć wielu obszarów działalności przedsiębiorstwa, na przykład opracowania takich samych standardów, które są podstawą konkurencji między firmami czy wypracowania zbliżonych standardów ochrony środowiska. Firmy nie muszą konkurować ze sobą we wszystkich towarach, jakie produkują. Mogą znaleźć obszary, gdzie ich przewagi konkurencyjne są komplementarne, co umożliwia im wspólne tworzenie nowego produktu lub usługi. Podejmują także współpracę, by lepiej poznać konkurenta [Hamel, Doz, Prahalad, 1989] oraz przejmować od niego pozytywne efekty zewnętrzne wiedzy, jaką posiada. Niedobór innowacyjnych zasobów w nowych krajach członkowskich powoduje, iż wpływ pozytywnych, w  tym także międzynarodowych efektów zewnętrznych wiedzy będących następstwem różnych form współpracy międzynarodowej na działalność innowacyjną jest znacząco większy niż w krajach o rozwiniętej gospodarce rynkowej [Bitzer, Geishecker, Gorg, 2008; LeonLedesma, 2005]. Niskiemu zaangażowaniu nieuprzedmiotowionych czynników innowacji w procesie tworzenia innowacji w Polsce towarzyszyło silniejsze niż krajach UE zaangażowanie firm we współpracy w zakresie innowacji. W analizowanym okresie w Polsce co druga innowacyjna firma współpracowała w dziedzinie innowacji z innymi podmiotami. Był to dwukrotnie wyższy odsetek niż w krajach unijnych. W szczególności dotyczyło to częstotliwości współpracy w zakresie innowacji polskich firm z  dostawcami, klientami i  konkurentami. Wysoka częstotliwość tej współpracy z  dostawcami wskazuje na stabilizowanie się nowo ukształtowanej w latach 90. sieci powiązań kooperacyjnych. W stosunku do firm krajów unijnych niewielka natomiast była częstotliwość współpracy polskich firm z innymi przedsiębiorstwami ich grupy oraz z jednostkami szeroko rozumianego branż sektora badawczego (tab. 9).


162

A.Wziątek-Kubiak

Tabela 9. Częstotliwość współpracy firm z różnymi partnerami w latach 2004-2006 (odsetek firm innowacyjnych)

Partnerzy współpracy

Odsetek przedsiębiorstw, które współpracowały w dziedzinie innowacji

Firmy branż o wysokiej technologii

132 (58,9)

Firmy branż o niskiej technologii

778 (38,2)

Średnia dla przemysłu przetwórczego 2 299 (49,6)

Inne polskie przedsiębiorstwa należące do grupy (% ogólnej liczby przedsiębiorstw)

4,0

2,9

4,9

Inne zagraniczne przedsiębiorstwa należące do grupy

6,7

6,4

9,3

Polscy dostawcy wyposażenia, materiałów, komponentów

29,9

25,9

30,8

Zagraniczni dostawcy wyposażenia, materiałów, komponentów

23,2

13,8

18,6

Polscy klienci

29,3

15,6

22,6

Zagraniczni klienci

20

9,4

14,7

Polscy konkurenci

17

8,5

10,5

6,7

3,1

5,6

Krajowe jednostki badawcze

22,7

4,1

13,3

Zagraniczne uczelnie krajowe

0,4

0,0

0,5

Polskie pozostałe instytucje badawcze

0,9

0,2

0,5

Zagraniczne pozostałe instytucje badawcze

4,0

0,6

1,4

Polskie firmy konsultingowe

8,5

8,3

Zagraniczne firmy konsultingowe

4,9

1,5

Zagraniczni konkurenci

10 2,9

Źródło: Jak w tabeli 3.

Obraz zróżnicowania częstotliwości współpracy polskich i unijnych firm analizowanych rodzajów branż z różnymi podmiotami był zbliżony. Współpraca ta zarówno w Polsce jak i w krajach unijnych najczęściej była wykorzystywana przez firmy branż o  wysokiej technologii, a  w  znacznie mniejszym zakresie – branż o niskiej technologii. Aż 58,9% polskich firm branż o wysokiej (w UE – 37,4%),


ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 163

a zaledwie 38,2% – o niskiej technologii (odpowiednio – 25,2%) współpracowało z innymi podmiotami w zakresie innowacji. Około dwukrotnie większa część polskich i unijnych firm branż o wysokiej w porównaniu do niskiej technologii współpracowała z krajowymi i zagranicznymi klientami, konkurentami, a także z zagranicznymi dostawcami. W zakresie współpracy polskich firm z jednostkami naukowo-badawczymi różnica między firmami branż o  wysokiej i  niskiej technologii była blisko pięciokrotna. Im więc większy odsetek firm danego rodzaju branż zaangażowany był w B&R i im większą część wydatków na innowacje przeznaczono na B&R, tym większa była częstotliwość współpracy polskich firm w zakresie innowacji z innymi podmiotami. Nie jest to polska specyfika. Potwierdza, iż wiedza nabyta w  wyniku prowadzenia przez firmę B&R zwiększa świadomość konieczności wykorzystania zewnętrznych źródeł innowacji i ułatwia ich wybieranie oraz wykorzystanie. Stwarza więc nie tylko przesłanki do tej współpracy, ale i umiejętność nawiązywania kontaktów, ich wykorzystania i podtrzymywania. Znaczące, bo blisko dwukrotne były różnice w  częstotliwości współpracy z  dostawcami zagranicznymi między firmami analizowanych typów branż na korzyść branż o wysokiej technologii. W zakresie współpracy z podmiotami rynkowymi częstotliwość współpracy polskich firm branż o wysokiej technologii była od 2 do 4 razy większa niż firm branż o  niskiej technologii. Tylko w  zakresie współpracy z  krajowymi dostawcami różnice między firmami wspomnianych branż były niewielkie. Zewnętrznym źródłem innowacji przedsiębiorstw jest nie tylko współpraca w  zakresie innowacji, ale także umiejętność korzystania z  informacji płynącej z rynku, w tym od jego podmiotów. Z tego względu firmy wprowadzające bardziej zaawansowane innowacje korzystają z  szerszego zakresu informacji [Amar, Landry, 2005]. Tabela 10. Źródła informacji o innowacjach w latach 2004–2006 (% liczby przedsiębiorstw innowacyjnych) Rynkowe

Instytucjonalne

Konku­ renci

Klienci

Dos­ taw­cy

Krajowe placówki B&R

Inne, w tym zagraniczne B&R

Szkoły wyższe

Wysokiej technologii

19,0

39,7

13,8

4,4

2,7

5,4

28,6

Niskiej technologii

18,4

28,6

18,9

6,4

4,3

5,7

25,6

Średnia

18,9

31,4

18

7,2

3,6

5,1

25,8

Rodzaj firm branż o

Źródło: Jak w tabeli 3.

Pozos­tałe Targi, wys­ ta­wy, pub­li­ kac­je


164

A.Wziątek-Kubiak

Najważniejszym źródłem zewnętrznej informacji o innowacjach dla obu typów branż polskiego przemysłu byli klienci oraz wystawy, targi i publikacje. Udział polskich firm przemysłowych, które korzystały z ostatniego z wymienionych źródeł informacji zewnętrznej, był ponad dwukrotnie wyższy niż firm krajów EU, choć powoli i systematycznie się zmniejszał. Podobnie jak w krajach UE tak i w Polsce klienci byli ważnym źródłem informacji zewnętrznej dla nieco większej części firm branż o  wyższej niż o  niższej technologii. Konkurenci byli ważnym źródłem informacji dla większej części firm polskich niż unijnych. Odzwierciedla to wysoka świadomość polskich firm o ich niższej konkurencyjności względem podmiotów unijnych. Odwrotnie było w przypadku dostawców. Byli oni ważnym źródłem informacji o innowacjach dla mniejszej części firm polskich niż unijnych. Jednakże zarówno w przypadku polskich jak unijnych podmiotów dostawcy byli ważnym źródłem informacji dla większej części firm branż o niższej technologii. Znaczenie tego źródła informacji dla firm branż o niskiej technologii potwierdza także relatywnie wysoki udział wydatków innowacyjnych na dostawy maszyn i urządzeń w wydatkach innowacyjnych ogółem. Są to więc sektory, które według Pavitta [1984] są zdominowane przez dostawców (supplier dominated firms). Zaskakujące jest niewielkie wykorzystanie przez polskie i unijne firmy w obu typach branż wymienionych w badaniu CIS instytucji badawczych jako źródła informacji o innowacjach. Różnice w wykorzystaniu tego źródła informacji między polskimi i unijnymi firmami były małe. Podsumowując, większość firm branż o wysokiej technologii korzystała z niemal wszystkich źródeł informacji zewnętrznej. Wykorzystanie tego źródła informacji o innowacjach firm branż o niskiej technologii było znacząco mniejsze. To z kolei wydaje się potwierdzać, iż prowadzenie przez firmy B&R poprawia umiejętność korzystania z  zewnętrznych źródeł innowacji, a  więc zwiększa zakres wykorzystywanych czynników innowacji.

UWAGI KOŃCOWE Wzorce działalności innowacyjnej przedsiębiorstw branż o wysokiej i niskiej technologii są odmienne. Strategia innowacji firm branż o wysokiej technologii koncentruje się na innowacjach produktowych, których głównym źródłem jest wiedza nieuprzedmiotowiona, zwłaszcza B&R. Naukochłonny charakter tych firm wiąże się z  koncentracją na innowacjach produktowych, ale też stwarza lepsze przesłanki do współpracy w zakresie innowacji z innymi podmiotami i do wykorzystania zewnętrznych informacji o innowacjach. Przedsiębiorstwa branż o niskiej technologii koncentrują się na innowacjach procesowych, których podstawą jest w  wiedza uprzedmiotowiona, zwłaszcza w postaci maszyn i urządzeń. W strategii innowacji znacznie mniejsza część firm branż o niskiej technologii współpracowała w zakresie innowacji z innymi podmiotami. Wyjątek stanowi współpraca z krajowymi dostawcami, co potwierdza procesowy charakter innowacji. Jednakże dla większości polskich firm wspomnia-


ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 165

nych branż sektor badawczy jest ważniejszym – niż dla firm branż o  wysokiej technologii – źródłem informacji o  innowacjach. Oznacza to, iż firmy branż o  niskiej technologii w  odmienny sposób i  w  innym zakresie niż firmy branż o wysokiej technologii korzystały z wiedzy nieuprzedmiotowionej. Z drugiej strony cechy branż o wysokiej i niższej technologii polskich przedsiębiorstw niewiele różnią się od cech ich unijnych odpowiedników. Przeprowadzona analiza potwierdza wnioski z analizy Robertsona i Patela [2006, s. 716], iż kraje, które zajmują wysokie miejsce w rankingu branż o wysokiej technologii, zajmują także wysokie miejsce w rankingu branż o niskiej technologii. Tym, co różni firmy polskie od unijnych, jest niski poziom wykorzystania nieuprzedmiotowionej wiedzy oraz wyższy poziom współpracy w zakresie innowacji. Jednakże różnice w poziomie wykorzystania tego rodzaju wiedzy między branżami o wysokiej i niskiej technologii w Polsce są zbliżone do istniejących w krajach UE. Powstaje pytanie, czy sama klasyfikacja branż na podstawie kryterium naukochłonności implikuje zróżnicowania wzorców innowacji, a zanalizowane czynniki sformułowane i  dostępne w  ramach badań Podręcznika Oslo zróżnicowanie to wzmacniają. Informacje zawarte w  Podręczniku, a  udostępniane przez GUS, zawierają tylko wybrane czynniki innowacji. Przykładowo nic nie wiemy o poziomie kwalifikacji zatrudnionych w  firmach obu typów branż, o  działaniach firm branż o niskiej technologii na rzecz efektywnego wykorzystania wiedzy uprzedmiotowionej, a  więc o  ich działaniach o  charakterze innowacyjnym, które nie zawsze muszą wymagać prowadzenia szeroko zakrojonych badań naukowych.

BIBLIOGRAFIA Amar N., Landry R. [2005], Source of Information as Determinants of Novelty of Innovation in Manufacturing Firms: Evidence from the 1999 Statistic Canada Innovation Survey, “Technovation”, No. 25, s. 245–259. Bitzer J., Geishecker I., Gorg H. [2007], Productivity Spillovers through Vertical Linkages: Evidence from 17 OECD Countries, “Economic Letters”, 99, s. 328– 331. Butler J.E. [1988], Theories of Technological Innovation as Useful to Ols for Corporate Strategy, “Strategic Management Journal”, No. 9, s. 15–29. Cassiman B. i Veugelers R. [2006], R&D Co-operaion and Spillovers: Some Empirical Evidence from Belgium, “American Economic Review”, Vol. 92 (4), s. 1169– 1185. Carrol P., Pol E., Robertson P.L. [2000], Classification of Industries by Level of Technology: an Appraisal and some Implications, “Prometheus”, Vol. 18, No. 4. Chesbrough H., Crowther A.K. [2006], Beyond High-tech: Early Adopters of Open Innovation in Other Industries, “R&D Management”, Vol. 36 (3), s. 229–236. Chinkov G. [2006], Research and Development Spillovers in Central and Eastern Europe, “Transition Studies Review”, No. 13, s. 339–355. Clausen T., Verspagen B. [2008], Quantitative Analyses of Innovation Strategies in European Firms: Guidelines and Preliminary Results from Selected Countries, MICRODYN project, Deliverable D22.


166

A.Wziątek-Kubiak

Cohen W.M., Levinthal D.A. [1989], Innovation and Learning: the Two Faces of R&D, “Economic Journal”, Vol. 99, s. 569–596. Dietzenbacher E. [2000], Spillovers of Innovation Effects, “Journal of Policy Modelling”, Vol. 22(1), s. 27–42; Dosi G. [1988], The Nature of Innovative Process (in): Dosi G., Freeman C., Nelson R, Silverberg G., Soete L. (red.) Technical Change and Economic Theory, Frances Pinter, London 2, s. 221–238. Drejer I., Jorgensen B.H. [2006], The Dynamic Creation of Knowledge: Analysing Public-private Collaborations, “Technovation”, Vol. 25, s. 83–94. Faberger J., Verspagen B. [2002], Technology-gap, innovation –diffusion and transformation: an evolutionary interpretation, “Research Policy”, Vol. 31, s. 1291–1304. Godin B. [2004], The Obsession for Competitiveness and Its Impact on Statistics: the Construction of High-technology Indicators, “Research Policy”, Vol. 33, s. 1217– 1229. GUS [2006], Działalność innowacyjna przedsiębiorstw w latach 2002–2004,Warszawa. GUS [2008], Działalność innowacyjna przedsiębiorstw w  latach 2004–2006, Warszawa. Hamel G., Doz Y., Prahalad C.K [1989], Colaborate with Your Competitors and Win, “Harvard Business Review”, Vol. 67, No. 1, s. 133–139. Hatzichronoglou T. [1997], Revision of the High-Technology Sector and Product Classification, “OECD Science, Technology and Industry Working Papers”, 1997/2, OECD Publishing. doi:10.1787/134337307632. Heidenreich M. [2009], Innovation Patterns and Location of European Low- and Medium Technology Industries, “Research Policy”, Vol. 28, s. 483–494. Hirsch-Kreinsen H., Jacobson D., Laestadius S., Smith K. [2003], Low-tech Industries and the Knowledge Economy. State of the Art and Research Challenges. August, project PILOT; Hirsch-Kreisen H., Hahn K., Jacobson D. [2008], The Low-tech Iissue (in:) Innovation in Low-tech Firms and Industries Hirsch-Kreisen H. and D. Jacobson (eds) Edward Elgar, Cheltenham, UK and Northampton, MA, USA. Jacobson D., Heanue K. [2005], Implications of Low tech Research for Policy (in:) Hirsch-Kreisen H., Jacobson D., Laestadius S. (eds) Low tech Innovation in the Knowledge Economy, Peter Lang, Frankfurt, s. 315–331. Jensen M.B., Johnson R., Lorenz E., Lundvall B.A. [2007], Forms of Knowledge and Modes of Innovation, “Research Policy”, Vol. 36, s. 680–693. Jong de J.P.J., Marsili O. [2006], The Fruit Flies of Innovations: A  Taxonomy of Innovative Small Firms, “Research Policy”, Vol. 35, s. 213–229. Kleinknecht A., van Montfort K., Brouwer E. [2002], The Non-trivial Choice Between Innovation Indicators, “Economics of Innovation and New Technology”, Vol. 11 (2), s. 109–121. Ku K-C, Gurumurthy C.K., Kao H.-P. [2007], Inter Firm Collaboration of Joint Ventures in IC Foundry Business, “Technovation”, Vol. 27(5), s. 296–305. Llerene P., Oltra V. [2002], Diversity of Innovative Strategy as a Source of Technological Performance, “Structural Change and Economic Dynamics”, Vol. 13, s. 179–201. Leon-Ledesma M.A. [2005], Exports, Product Differentiation and Knowledge Spillovers, “Open Economies Review”, Vol. 16, s. 363–379.


ZRÓŻNICOWANIE WZORCÓW DZIAŁALNOŚCI INNOWACyJnej PRZEDSIĘBIORSTW… 167

Lundvall B.-A., Johnson, B., [1994], The Learning Economy, “Journal of Industry Studies” 1, 92, s. 23–41. OECD [1970], Gaps in Technology: Comparison between Member Countries in Education, R&D, Technological Innovation, International Economic Exchanges, Paris. OECD [1976], The Measurement of Innovation-Related Activities in the Business Enterprise Sector, DSTI/SPR/76.44. OECD [1986], Science and Technology Indicators, Paris. OECD [1999], Benchmarking Knowledge-based Economies, Paris. Oerlemans L., Meeus M., Boekema F., [2001], Firm Clustering and Innovation: Determinants and Effects, “Papers in Regional Science”, Vol. 80, s. 337–356. Pavitt K. [1984], Sectoral Patterns of Technological Change: Towards a Taxonomy and a Theory, “Research Policy”, Vol. 13, s. 343–373. Pisano G.P. [1990], The R&D Boundries of the Frm: an Empirical Analysis, “Administrative Science Quarterly”, 35, s. 153–176. Podręcznik Oslo [2006], Zasady gromadzenia i interpretacji danych dotyczących innowacji, Wydanie trzecie, Ministerstwo Nauki i Szkolnictwa Wyższego, Warszawa. Robertson P.L., Pol. And P. Carroll [2003], Receptive Capacity of Established Industries as a Limiting Factor in the Economy’s Rate of Innovation, “Industry and Innovation”, Vol. 10, s. 457–474. Robertson P.L., Patel P. R. [2007], New Wine in Old Bottles: Technological Diffusion in Developed Economies, “Research Policy”, Vol. 36, s. 708–721. Srholec M., Verspagen B. [2008], The Voyage of the Beagle in Innovation System Land. Explorations on Sectors Innovation, Heterogeneity and Selection, UN University, UNU-Merit, WP Series 2008–008. Tether B.S. [2002], Who Cooperates for Innovations and Why: An Empirical Analysis, “Research Policy”, Vol. 31, No. 6, August, s. 947–967. Tomaszewicz, Ł., Świeczewska I. [2008], The Impact of Innovation on the Efficiency of the Polish Economy, Paper Presented at INTERFORUM Conference in Cyprus. Tomaszewicz, Ł., Świeczewska I. [2007], Intersectoral Dffusion of Innovation. The Case of Poland (w:) Modelling Economies in Transition 2006, W. Welfe, P. Wdowiński (eds.),. AMFET, Łódź, s. 53–76. Utterback J.M. i  Suarez, F.F. [1993], Innovation Competition and Industry Sructure, “Research Policy”, Vol. 22, s. 1–21. Wziątek-Kubiak A., Balcerowicz E., Peczkowski M. [2009], The Innovation Patterns of Firms in Low and High Technology Manufacturing Sectors in the New Member States, “WIIW Working Papers”, 09/09.

Streszczenie Opierając się na wspólnym formularzu dot. innowacji krajów Unii Europejskiej artykuł pokazuje podobieństwa i różnice we wzorcu innowacji między przedsiębiorstwami przemysłu przetwórczego działającymi w tzw. przemysłach o wysokie i niskiej technologii w Polsce w porównaniu do krajów UE. Przy ocenie wzorców innowacji uwzględniono: wskaźniki aktywności innowacyjnej firm, realizowane


168

A.Wziątek-Kubiak

strategie innowacji oraz źródła innowacji zewnętrzne względem wewnętrznych, uprzedmiotowione i nieuprzedmiotowione. Artykuł pokazuje, iż przedsiębiorstwa obu rodzajów przemysłów w swojej działalności innowacyjnej bardzo często opierają się na wiedzy zewnętrznej. Jest ona częściej wykorzystywana przez polskie przedsiębiorstwa niż unijne. Rzadsze generowanie przez polskie przedsiębiorstwa wiedzy nieuprzedmiotowionej przekłada się na szersze korzystanie z  wiedzy zewnętrznej. Różnicom w strategii innowacji (produktowa względem procesowej) wdrażanej przez przedsiębiorstwa dwóch typów przemysłów towarzyszą różnice w wykorzystaniu różnych źródeł wiedzy. Nie ma znaczących różnic między wzorcami innowacji polskich i unijnych firm sektorów o wysokiej i niskiej technologii. Sugeruje to, iż kryterium klasyfikacji przemysłów (poziom naukochłonności) ma silny wpływ na zróżnicowanie wzorców innowacji między analizowanymi rodzajami przemysłów. Słowa kluczowe: wzorce innowacji, źródła innowacji, przemysłu wysokiej technologii, przemysły niskiej technologii, strategie innowacji

Differentiation of patterns of innovation between high and low technology sectors’ firms. Comparative analysis Based on the third and fourth waves of the Community Innovation Survey (CIS3 and CIS4), the paper presents the similarities and differences in innovation patterns among manufacturing firms operating in low and high technology industries in Poland, as compared to the European Union counterparts. The analysis of innovation patterns involved firm innovation activity indicators, executed innovation strategies, and sources of knowledge – external versus internal to the firm, and tangible versus intangible. The paper shows that, firstly, external knowledge is very frequently used in both low and high technology firms in Poland. External knowledge is more often used in Poland than in the incumbent EU countries’ firms. Moreover, less frequent internal development of intangible knowledge in Poland is accompanied by more widespread use of various external innovation sources, including cooperation. Secondly, differences in innovation strategy (product versus process innovation) between firms of two types of industries are accompanied by differences in the frequency of use of various sources of knowledge. Thirdly, there are no significant differences in innovation patterns between Polish and the EU low technology firms as well as between Polish and the EU high technology firms. The paper concludes that R&D intensity as a criterion of typology of industries has a strong influence on the variance in innovation patterns between analyzed industries. Key words: innovation patterns, innovation sources, low-tech industries, high­ ‑tech industries, innovation strategies.


Studia ekonomiczne 1 Economic studies nr 2 (LXV) 2010

Dominik Skopiec*

PROBLEM RYZYKA OPERACYJNEGO W KONTEKŚCIE DYNAMICZNYCH PRZEMIAN W DZIAŁALNOŚCI BANKÓW W ostatnich latach wzrosło znaczenie ryzyka operacyjnego w działalności banków. Przyczyniło się do tego przede wszystkim wiele czynników związanych z głębokimi przemianami działalności banków. Doprowadziły one do serii spektakularnych afer finansowych, które w pewnej części spowodowały nawet bankructwa niektórych banków. Do najgłośniejszych tego typu wydarzeń należał przypadek Bearings Bank, który ogłosił upadłość w marcu 1995 roku. Od tamtej pory coraz wyraźniejszy stał się wzrost zainteresowania ryzykiem operacyjnym, w szczególności ze strony nadzoru bankowego. Wyrazem tego jest uwzględnienie kategorii ryzyka operacyjnego w „Nowej Umowie Kapitałowej” opublikowanej przez Bazylejski Komitet Nadzoru Bankowego w 2004 roku. Celem niniejszego artykułu jest analiza czynników, które doprowadziły do wzrostu znaczenia ryzyka operacyjnego w działalności banków, a także przedstawienie rozwiązań, jakie podjęto w  celu ograniczania tego ryzyka. Szczególną uwagę poświęcono wadom wspomnianych rozwiązań oraz możliwym sposobom ich wyeliminowania.

RYZYKO W DZIAŁALNOŚCI BANKÓW Ryzyko jest jednym z kluczowych czynników determinujących zachowania finansowe. Stanowi także jeden z najważniejszych elementów warunkujących funkcjonowanie banku oraz determinujących wynik jego działalności. Nie funkcjonuje jednak uniwersalna definicja ryzyka trafnie odzwierciedlająca jego istotę. Przyjęcie takiej czy innej definicji zależy przede wszystkim od kontekstu oraz celu definio*  Kolegium

Gospodarki Światowej SGH.


170

D. Skopiec

wania. Ryzyko można określać jako miarę niepewności odnoszącej się do przyszłych wyników finansowych, bądź jako miarę odchylenia aktualnych wyników od oczekiwanych. Przy założeniu pierwszego sposobu postrzegania ryzyka odchylenie takie może wystąpić zarówno w kierunku dodatnim (pozytywnym), jak i ujemnym (negatywnym). Ryzyko nie ma tu więc jasno określonego charakteru, oznacza jedynie występowanie fluktuacji o różnym kierunku [Jorion, 2003, s. 533–534]. Z drugiej strony można patrzeć na ryzyko jako na miarę prawdopodobieństwa wystąpienia straty. Koncentracja ma tu miejsce na negatywnej stronie ryzyka, które jest postrzegane jako zjawisko powodujące ujemne odchylenia od założonego celu czy planowanych wyników finansowych. Określane jest wówczas jako sytuacja, w której ma miejsce odchylenie negatywne od sytuacji pożądanej bądź oczekiwanej [Fabozzi, 2007, s. 15–16]. W naukach ekonomicznych można więc wyróżnić dwie podstawowe koncepcje ryzyka. Negatywna koncepcja ryzyka traktuje je jako zagrożenie, które wiąże się z wystąpieniem straty. Podmioty gospodarcze podejmują tu działania mające na celu jego zmniejszenie. W takim ujęciu ryzyko to możliwość nieosiągnięcia oczekiwanego efektu. Neutralna koncepcja ryzyka postrzega je natomiast jako zarówno zagrożenie, jak i szansę (np. w postaci większych zysków z tytułu podjęcia ryzyka). Ryzyko występuje wówczas, gdy nie znany jest wynik określonego działania. Oznacza to, że zrealizowany wynik może być lepszy bądź gorszy od spodziewanego. Podmiot podejmujący ryzyko czyni to w  celu uzyskania dodatkowych korzyści, które stanowią tzw. premię za ryzyko. W tym ujęciu ryzyko oznacza więc możliwość uzyskania efektu różniącego się od oczekiwanego [Jajuga, 2007, s. 13–14]. Ryzyko często bywa utożsamiane z  niepewnością. Nie są to jednak pojęcia synonimiczne. Ryzyko przede wszystkim ma charakter obiektywny, a niepewność naturę subiektywną. Ryzyko określić można jako zobiektywizowaną niepewność wystąpienia niepożądanego zdarzenia. Ryzyko można zmierzyć prawdopodobieństwem, które stanowi kryterium obiektywne, podczas gdy niepewność można ocenić jedynie poziomem wiary, czy dane zdarzenie może wystąpić, czyli na podstawie kryterium subiektywnego. Innymi słowy, ryzyko ma charakter kwantyfikowalny, podczas gdy niepewność cechy tej nie posiada [Niedziółka, 2002, s. 23–24]. Rozróżnienie to jest istotne w przypadku analizy ryzyka operacyjnego, ponieważ przez wiele lat twierdzono, że de facto ma ono charakter niemierzalny. Próby pomiaru ryzyka operacyjnego są stosunkowo nowym zjawiskiem.

ISTOTA RYZYKA OPERACYJNEGO Sposób definiowania ryzyka operacyjnego stanowi jeden z najważniejszych elementów procesu zarządzania ryzykiem w banku, ponieważ to właśnie od przyjętej definicji zależy sposób jego identyfikacji, pomiaru i  ograniczania. Początkowo definicje ryzyka operacyjnego wynikały z faktu przeciwstawienia go ryzyku strategicznemu, pojmowanemu jako ryzyko związane z długookresową działalnością banku, w szczególności związane z kadrą zarządzającą i podejmowanymi przez


PROBLEM RYZYKA OPERACYJNEGO W KONTEKŚCIE DYNAMICZNYCH PRZEMIAN… 171

nią decyzjami co do głównych obszarów działania banku. Ryzyko operacyjne miało zaś dotyczyć bieżącej działalności banku i związanych z nią decyzji o charakterze operacyjnym [Holton, 2004]. W takim ujęciu ryzyko operacyjne ma charakter techniczno-organizacyjny, a  nacisk kładzie się na jego związek z  operacjami przeprowadzanymi przez bank i jego podstawową działalnością. Określenia „ryzyko operacyjne” i „ryzyko techniczno-organizacyjne” stosowane były zamiennie [Zawadzka, 1996, s.13–14]. W definiowaniu ryzyka operacyjnego różnie ujmowane bywa też jego źródło w stosunku do banku. Niektórzy przyjmują, iż ryzyko to wynika jedynie z czynników wewnętrznych, takich jak błędy powstałe przy dokonywaniu i  rozliczaniu transakcji, które spowodowane są przez błędy popełnione przez pracowników lub urządzenia techniczne [Iwonicz-Drozdowska, 2002, s. 133–134]. Inni oprócz czynników natury wewnętrznej podkreślają także znaczenie czynników spoza struktury banku i  zakładają, że ryzyko operacyjne jest efektem zarówno czynników endogenicznych, jak i egzogenicznych, takich jak katastrofy czy klęski naturalne [Kałużny, 2004]. Najczęściej stosowanym rozwiązaniem było jednak definiowanie ryzyka operacyjnego jak każdy inny rodzaj ryzyka, który nie jest ryzykiem rynkowym ani kredytowym. Później ten typ definicji ulegał modyfikacjom i uszczegóławianiu poprzez enumerację czynników ryzyka. Najwcześniej zaliczono tu błędy popełnione przez ludzi i błędy techniczne.

SPECYFIKA RYZYKA OPERACYJNEGO W porównaniu z innymi rodzajami ryzyka występującymi w działalności banków ryzyko operacyjne ma pewne specyficzne cechy. Przede wszystkim do tego ryzyka ma zastosowanie wspomniana negatywna koncepcja ryzyka, która zakłada, iż ryzyko wiąże się tylko z negatywnym odchyleniem od oczekiwanego wyniku i jest źródłem potencjalnych strat. Ryzyka operacyjnego nie podejmuje się tak jak ryzyka kredytowego czy rynkowego w celu osiągnięcia korzyści – efektem jego wystąpienia może być jedynie strata. Ponadto ryzyko operacyjne towarzyszy każdemu rodzajowi podejmowanej przez bank działalności. Będzie więc występowało w przypadku zarówno tradycyjnej działalności kredytowo-depozytowej, jak i  oferowania przez banki produktów strukturyzowanych czy instrumentów pochodnych, a także w przypadku prowadzenia działalności maklerskiej i ubezpieczeniowej. Inną cechą charakterystyczną ryzyka operacyjnego jest fakt, iż rośnie wraz ze złożonością organizacji, stosowanych systemów oraz oferowanych produktów i usług. Nie jest więc prostą funkcją wielkości operacji prowadzonych przez bank. Ponadto jego całkowita eliminacja nie jest możliwa, często jest także trudniejsza niż w przypadku pozostałych rodzajów ryzyka. Także analiza czynników ryzyka, jego konsekwencji i  skutków, a  zarazem jego pomiar nie jest prosty. Źródła ryzyka operacyjnego często pozostają ukryte (na przykład niezgodne z prawem czy nielegalne działania pracowników banku), bądź są niespodziewane (jak kata-


172

D. Skopiec

strofy naturalne). Pomiar jest także skomplikowany, ponieważ znaczną część strat z tytułu ryzyka operacyjnego powoduje występowanie zdarzeń bardzo rzadkich i trudnych do przewidzenia, co utrudnia stosowanie metod statystycznych na skutek braku dostatecznych baz danych. Cechą specyficzną ryzyka operacyjnego jest także fakt, iż jest ono ryzykiem wielowymiarowym, dotyczącym różnego rodzaju działań i operacji. W jego zakres wchodzą tak różne od siebie zdarzenia, jak oszustwa pracowników, łamanie przepisów BHP przez banki, ataki hakerów czy ataki terrorystyczne. Taki stan nie tylko utrudnia kwantyfikację tego ryzyka, lecz także i  zarządzanie nim. Charakterystyczne dla ryzyka operacyjnego jest także to, iż nie kumuluje się w sektorze (rzadko występuje w kilku bankach jednocześnie), ale straty z jego tytułu mogą być tak duże, że są w stanie zagrozić całemu systemowi bankowemu. Ponadto redukowanie innych rodzajów ryzyka, np. rynkowego czy kredytowego, może zwiększyć narażenie banku na ryzyko operacyjne. Dotyczy to zwłaszcza instrumentów pochodnych, w  przypadku których często pracownikom banków brakuje odpowiedniego doświadczenia i kwalifikacji, co zwiększa ryzyko błędu. W tym przypadku zwiększa się także ryzyko wystąpienia niezgodnych z prawem zachowań pracowników banku, co potwierdzają liczne przykłady z  praktyki [Krasodomska, 2008, s. 23–24]. Szczególnie widoczny jest negatywny charakter ryzyka operacyjnego; przejawia się tym, że podjęcie innego rodzaju ryzyka może wiązać się z zyskiem (np. w przypadku ryzyka kredytowego), natomiast ryzyko operacyjne wiąże się tylko ze stratami, a zarządzanie nim ma na celu zmniejszenie prawdopodobieństwa ich wystąpienia lub zminimalizowanie ich negatywnych następstw. Specyficzne dla ryzyka operacyjnego jest nie tylko to, iż wiąże się ono tylko ze stratami, lecz także charakter tych strat. Z jednej strony występują bowiem straty o  dużej częstości, lecz niedużej wartości. Na temat tych strat bank jest w stanie zebrać dane i dzięki temu poddać ryzyko modelowaniu. Z drugiej strony występują jednak straty o bardzo niskiej częstości, lecz jednocześnie bardzo dużej wartości. Są na tyle rzadkie, iż bank nie jest w stanie zebrać dostatecznych danych do analizy statystycznej. Jednocześnie dotkliwość tych strat wymusza podejmowanie pewnych kroków mających na celu zarządzanie tym ryzykiem, co często jest praktycznie niewykonalne ze względu na to, że zdarzenia takie, jak katastrofy naturalne czy ataki terrorystyczne, są niemożliwe do przewidzenia. Taka specyfika ryzyka operacyjnego powoduje, iż zarządzanie nim jest dużo trudniejsze niż ryzykiem kredytowym czy rynkowym, w odniesieniu do których odpowiednie dane są zazwyczaj dostępne.

WZROST ZNACZENIA RYZYKA OPERACYJNEGO W SEKTORZE BANKOWYM Ryzyko operacyjne nie jest niczym nowym w działalności banku. Występowało ono zawsze, jednak wskutek zmian charakteru działalności banków i uwarunko-


PROBLEM RYZYKA OPERACYJNEGO W KONTEKŚCIE DYNAMICZNYCH PRZEMIAN… 173

wań rynkowych wiążących się z przemianami w sposobie prowadzenia działalności gospodarczej zyskało w ostatnich latach nowe znaczenie. Wymownym przykładem zmiany podejścia do kwestii ryzyka operacyjnego, jego pomiaru i zarządzania nim stało się uwzględnienie tej kategorii ryzyka w  „Nowej Umowie Kapitałowej” (Umowa Kapitałowa z 1988 roku nie obejmowała bowiem ryzyka operacyjnego). Na wzrost znaczenia ryzyka operacyjnego oraz zmianę podejścia do zarządzania nim miały wpływ zmiany zachodzące zarówno w samych bankach, jak i w ich otoczeniu. Komitet Bazylejski wyszczególnił niektóre z nich, a mianowicie [Sound Practices, 2003]: 11

intensyfikacja wykorzystania wysoko zautomatyzowanych technologii, z czym wiąże się transformacja ryzyka wynikającego z błędów popełnianych przy stosowaniu technik ręcznych w ryzyko o charakterze systemowym (ze względu na globalny zasięg systemów);

11

wzrost wykorzystania e-commerce, z czym wiąże się ryzyko bezpieczeństwa systemu oraz oszustwa wewnętrzne i zewnętrzne;

11

fuzje, przejęcia i procesy konsolidacyjne na wielką skalę;

11

pojawienie się banków jako dostarczycieli różnorodnych usług (nie związanych z tradycyjnymi usługami bankowymi);

11

większe wykorzystanie metod ograniczania ryzyka kredytowego i rynkowego, którego efektem może być zwiększona ekspozycja na ryzyko operacyjne;

11

rosnące wykorzystanie usług outsourcingowych.

Nie są to jednak wszystkie czynniki wpływające na wzrost ekspozycji na ryzyko operacyjne. Bardziej rozbudowana klasyfikacja w  tym zakresie wyodrębnia poszczególne czynniki w ramach dwóch grup, przyczyn wewnętrznych i zewnętrznych.

Wewnętrzne przyczyny wzrostu ekspozycji na ryzyko operacyjne Jedną z przyczyn wewnętrznych jest informatyzacja działalności bankowej, czyli zwiększenie wykorzystania systemów informatycznych, co spowodowało zmniejszenie prawdopodobieństwa błędu popełnianego przez ludzi, ale jednocześnie wzrost prawdopodobieństwa błędów systemowych, których skutki są potencjalnie dużo większe. Wiąże się z tym wzrost znaczenia ryzyka technologicznego w postaci włamań do systemu, dokonywania nieautoryzowanych transakcji czy kradzieży danych. Przyczyną wewnętrzną jest także wzrost stopnia skomplikowania produktów bankowych i  instrumentów finansowych. Odbywał się on poprzez rozwój instrumentów finansowych, takich jak egzotyczne instrumenty pochodne. Ułatwia


174

D. Skopiec

to zarówno popełnienie błędów, jak i  dokonywanie różnego rodzaju oszustw, natomiast utrudnia ich wykrycie, wskutek czego potencjalne straty stają się większe. Czynnikiem wzrostu znaczenia ryzyka operacyjnego o charakterze wewnętrznym jest także stosowanie coraz bardziej skomplikowanych technik redukcji ryzyka kredytowego i  rynkowego (w  postaci np. pochodnych kredytowych czy sekurytyzacji aktywów), które stają się jednocześnie źródłem zwiększonego ryzyka operacyjnego. Do tej grupy czynników zalicza się także system wynagradzania pracowników, szczególnie dealerów, oparty w mniejszym stopniu na stałym wynagrodzeniu, a w większym na premii za wyniki. Taki system motywacyjny wywołuje często pokusę fałszowania wyników. Bardzo istotnym czynnikiem jest tu także wzrost roli outsourcingu w celu redukcji kosztów, co prowadzi do ryzyka bezpieczeństwa instytucji związanego z dostępem osób spoza niej do pewnych danych [Piołunowicz, 2006, s. 51].

Zewnętrzne przyczyny wzrostu ekspozycji na ryzyko operacyjne Drugą zasadniczą grupą czynników wpływających na wzrost znaczenia oraz ekspozycji na ryzyko operacyjne w bankach są przyczyny zewnętrzne. Jedną z nich jest wzrost wolumenu obrotów. Banki dokonują na rynku wielkich transakcji, wielokrotnie przewyższających ich kapitał własny, co jednocześnie stwarza zagrożenie, że straty wynikające z oszustw lub błędów mogą być olbrzymie. Kolejną ważną przyczyną jest integracja różnych funkcji w ramach banku: banki sprzedają za pomocą swoich kanałów dystrybucji już nie tylko produkty typowo bankowe, ale także ubezpieczeniowe czy tradycyjnie łączone z funduszami inwestycyjnymi, ze względu na swoją specyfikę wymagające dodatkowej wiedzy i doświadczenia, których pracownicy banków często nie posiadają. Ponadto wymagają one modyfikacji i dostosowania procedur oraz systemów bankowych, co jest dodatkowym źródłem ryzyka. Ważnym czynnikiem jest tu także globalizacja, która spowodowała zacieśnienie więzi między różnymi elementami systemu finansowego, z  czym wiąże się ryzyko, że problemy w jednej instytucji mogą pociągnąć za sobą kłopoty wielu innych. Czynnikiem zewnętrznym są też fuzje i przejęcia. Dotyczą one w wielu wypadkach instytucji działających w różnych kulturach zarządczych i w związku z tym wywołują głębokie zmiany nie tylko systemów informatycznych, ale także systemów kontroli wewnętrznej, co naturalnie zwiększa ekspozycję na ryzyko operacyjne. Wzrost znaczenia ryzyka operacyjnego i zainteresowania nim jest więc rezultatem „rewolucji finansowej”, która w wyniku liberalizacji, globalizacji i deregulacji przekształciła tradycyjne funkcje banku. Narastająca konkurencja wymusiła dążenie do wzrostu wydajności, redukcji kosztów i wprowadzania innowacji techniczno-organizacyjnych i  produktowych. Ponadto spadek dochodów ze źródeł


PROBLEM RYZYKA OPERACYJNEGO W KONTEKŚCIE DYNAMICZNYCH PRZEMIAN… 175

odsetkowych wymusił na bankach wchodzenie na rynek ryzykownych instrumentów finansowych w poszukiwaniu wyższych, lecz niestabilnych zysków. Banki zmuszone były do wyjścia poza pierwotną rolę pośrednika finansowego i poszerzenia swojej oferty o produkty i usługi oferowane do tej pory przez inne wyspecjalizowane w nich instytucje finansowe (takie jak towarzystwa ubezpieczeniowe, domy maklerskie czy spółki leasingowe) [Korenik, 2006, s. 22–23]. Wynikiem tego procesu jest stosowanie przez banki na coraz szerszą skalę innowacji produktowych, technologicznych i organizacyjnych, co przyczyniło się do wzrostu ekspozycji na ryzyko operacyjne.

ROLA BAZYLEJSKIEGO KOMITETU NADZORU BANKOWEGO W TWORZENIU NORM OSTROŻNOŚCIOWYCH Podmiotem, który jest najważniejszym międzynarodowym ośrodkiem normotwórczym w zakresie bankowych regulacji ostrożnościowych, jest Bazylejski Komitet Nadzoru Bankowego (Basel Committee on Banking Supervision)1. Głównym polem działalności Komitetu w latach 80. było opracowanie międzynarodowych standardów w zakresie adekwatności kapitałowej (określa się ją jako wielkość funduszy własnych banku w stosunku do jego aktywów, aby jego działalność była bezpieczna, a kapitał zdolny do absorpcji ewentualnych strat). Powodem wyboru takiego priorytetu było pogarszanie się w tym okresie współczynnika wypłacalności banków oraz wzrost ryzyka transakcji międzynarodowych. Swoje prace Komitet skoncentrował więc na tworzeniu międzynarodowej umowy, która wzmacniałaby stabilność i ujednoliciła wymogi kapitałowe, a także niwelowała dotychczas występujące zakłócenia konkurencji wynikające z różnych wymogów formułowanych przez władze nadzorcze poszczególnych krajów. Wynikiem tych prac było opublikowanie w  lipcu 1988 r. tzw. Umowy Kapitałowej (The Basel Capital Accord), czyli Międzynarodowej Konwergencji Pomiaru Kapitału i Standardów Międzynarodowych (International Convergence of Capital Measurement and Capital Standards). Umowa regulowała przede 1  Organizacja ta powstała w 1974 roku z inicjatywy prezesów banków centralnych dziesięciu najbardziej uprzemysłowionych państw świata: Stanów Zjednoczonych, Niemiec, Wielkiej Brytanii, Włoch, Francji, Kanady, Holandii, Belgii, Szwajcarii i Japonii. W późniejszym okresie dołączyły do nich Luksemburg, Szwecja i Hiszpania. Przyczyną powstania Komitetu były zaburzenia, jakie pojawiły się na międzynarodowych rynkach finansowych w wyniku upadku Bankhaus Herstatt w  Republice Federalnej Niemiec [History of the Basel Committee, 2007]. Członkowie Komitetu spotykają się zwykle trzy lub cztery razy w  roku w  Banku Rozrachunków Międzynarodowych (Bank for International Settlements) w  Bazylei, gdzie mieści się jego stały sekretariat. Komitet stanowi forum regularnej współpracy międzynarodowej w zakresie nadzoru bankowego. Głównym jego celem jest doskonalenie nadzoru bankowego w  skali światowej. Komitet nie posiada ponadnarodowej władzy w zakresie nadzoru bankowego, a wydawane przezeń zalecenia nie mają mocy prawnej. Formułuje on wytyczne i standardy, oczekując, iż władze nadzorcze poszczególnych państw podejmą odpowiednie działania w celu ich wdrożenia w swoich porządkach prawnych w sposób najbardziej dla nich dogodny. Komitet zachęca jednak do ujednolicania podejścia w tym zakresie. Warto podkreślić, że nieposiadające mocy prawnej wytyczne są stosowane w nadzorze bankowym większości rozwiniętych państw.


176

D. Skopiec

wszystkim kwestię ryzyka kredytowego, które uznawane było za najważniejszy komponent ryzyka bankowego. Określono więc zabezpieczenie dla tego rodzaju ryzyka, elementów składowych i wielkości. Jako miarę adekwatności kapitałowej przyjęto współczynnik wypłacalności określony na poziomie 8%, który musiał być utrzymywany przez banki w celu zapewnienia odpowiedniego poziomu bezpieczeństwa. Postanowienia Umowy zostały wdrożone przez państwa będące członkami Komitetu, a także wiele innych krajów, w tym przez Polskę. Ponieważ Umowa Kapitałowa z założenia nie miała być statyczna w czasie, wniesiono do niej kilka poprawek. Najistotniejszą z  nich było wprowadzenie w 1996 roku kategorii ryzyka rynkowego z uwagi na wzrost jego znaczenia w działalności banków. Określono w  niej wymogi kapitałowe z  tytułu narażenia na ryzyko rynkowe [Amendment to the Capital Accord, 1996]. Pomimo dokonanych poprawek tempo przeobrażeń rynków finansowych, a także działalności banków wynikające ze wspomnianych na początku rozdziału procesów, wymusiło konieczność skonstruowania nowej umowy. Najważniejszymi czynnikami takiego posunięcia były [Konsultacje i wdrożenie postanowień Nowej Umowy Kapitałowej, 2005]: 11

dynamiczny rozwój rynków finansowych: od czasu publikacji Umowy Kapitałowej w 1988 r. wprowadzono wiele nowych produktów finansowych, unowocześniono metody ograniczania ryzyka, a  rynki finansowe uległy znacznym przekształceniom;

11

wzrost znaczenia ryzyka operacyjnego i  dążenie do objęcia go wymogami kapitałowymi analogicznie do ryzyka kredytowego i rynkowego;

11

zbyt uproszczone sposoby stosowania wag ryzyka w Umowie Kapitałowej: klasyfikacja była oparta na ograniczonej liczbie kategorii, stąd konieczne stało się stworzenie dokładniejszej i bardziej wrażliwej na ryzyko klasyfikacji;

11

rozszerzenie możliwości stosowania wewnętrznych modeli: dążono do stworzenia największym i zaawansowanym bankom możliwości wykorzystywania własnych, wewnętrznych modeli do obliczania wymogów kapitałowych.

Prace nad modyfikacją Umowy Kapitałowej wiązały się z przeprowadzeniem szerokich konsultacji i publikacją trzech dokumentów konsultacyjnych, kolejno w latach 1999, 2001 i 2003. Ostatecznie Nowa Umowa Kapitałowa (NUK) została opublikowana w  czerwcu 2004 roku pod nazwą International Convergence of Capital Measurement and Capital Standards. W porównaniu z Umową Kapitałową, która koncentrowała się na ryzyku kredytowym i  kapitale na jego zabezpieczenie i  obejmowała po 1996 roku także kategorię ryzyka rynkowego, Nowa Umowa Kapitałowa zawiera postanowienia odnoszące się do standardów w  zakresie ryzyka operacyjnego, którego nieuwzględnienie w  starej umowie stało się jedną z  przyczyn jej opracowania. Ponadto jest znacznie bardziej obszerna i  szczegółowa (liczy ponad 240 stron, podczas gdy stara tylko 30 stron). Szczegółowość ta ma odzwierciedlić wzrost


PROBLEM RYZYKA OPERACYJNEGO W KONTEKŚCIE DYNAMICZNYCH PRZEMIAN… 177

skomplikowania systemu finansowego. Jest jednocześnie bardziej elastyczna, gdyż daje bankom większą swobodę w zakresie wyboru metody obliczania adekwatności kapitałowej. Daje także bankom możliwość wyboru własnych, wewnętrznych metod, które byłyby bardziej wrażliwe na ryzyko, a w związku z tym dokładniej mierzyłyby ekspozycję na straty. Przy ich zastosowaniu obliczony wymóg kapitałowy byłby dzięki temu niższy. Nowa Umowa Kapitałowa składa się z trzech powiązanych wzajemnie filarów: minimalnych wymogów kapitałowych, procesu analizy nadzorczej i  dyscypliny rynkowej. Te trzy filary z założenia stanowią spójną całość, a właściwe wdrożenie NUK wymaga zastosowania postanowień i zaleceń wszystkich filarów [Hull, 2007, s. 188–189].

Definicja i czynniki ryzyka operacyjnego w ujęciu Komitetu Bazylejskiego Obecnie większość badaczy oraz banków i innych instytucji finansowych odwołuje się do definicji ryzyka operacyjnego sformułowanej przez Komitet Bazylejski. Według Nowej Umowy Kapitałowej ryzyko operacyjne to „ryzyko straty wynikającej z niewłaściwych lub zawodnych procesów, ludzi i systemów lub też ze zdarzeń zewnętrznych”. Zaznaczono, iż definicja ta obejmuje ryzyko prawne, ale nie uwzględnia ryzyka strategicznego i ryzyka reputacji. Określono także, że ryzyko prawne obejmuje, ale nie ogranicza się do grzywien, sankcji karnych lub odszkodowań karnych wynikających z działania organów nadzoru, jak również z umów prywatnych [International Convergence, 2004]. Charakterystyczne dla tej definicji jest wyłączenie ryzyka reputacji i  ryzyka strategicznego. W szczególności dotyczy to ryzyka reputacji, gdyż występowało ono wcześniej w definicjach stosowanych przez wiele banków, podczas gdy ryzyko strategiczne było w nich zazwyczaj pominięte. Ryzyko reputacji jest bowiem ryzykiem utraty dobrego wizerunku banku, co prowadzi do utraty dotychczasowych i  potencjalnych klientów, a  w  związku z  tym również i  źródeł finansowych. Źródłem tego ryzyka są elementy charakterystyczne dla ryzyka operacyjnego, takie jak błędy systemów czy pracowników. Ryzyko strategiczne nie jest natomiast związane z bieżącą działalnością banku i decyzjami o charakterze operacyjnym, lecz wynika z decyzji o charakterze długofalowym dotyczących polityki inwestycyjnej czy wizji rozwoju banku. Definicja Komitetu Bazylejskiego zawiera cztery czynniki ryzyka operacyjnego [Teker, 2005, s. 2–5]: 11

procesy,

11

ludzie,

11

systemy,

11

zdarzenia zewnętrzne.


178

D. Skopiec

Z kategorią procesy wiążą się straty powstałe w wyniku błędów w przyjętych procedurach (błędnie zaprojektowane lub wykonane), bądź braku wymaganych procedur. Powodem tego może być niezrozumienie funkcjonowania procesów w banku lub ich duży stopień skomplikowania. Z kategorią ludzie związane są straty spowodowane przez obecnych lub byłych pracowników. Może to wynikać z oszustw mających na celu osiągnięcie korzyści materialnych i niematerialnych. Należy tu w szczególności wskazać na takie działania, jak obejście regulacji wewnętrznych lub prawa, a również na czynniki typu poziom rotacji kadr, wynagrodzenia czy systemy motywacyjne. Do kategorii systemy zaliczamy straty spowodowane przez awarie systemów lub technologii. Są one nieumyślne z założenia, w przeciwnym wypadku byłyby zaliczone bądź do kategorii ludzie (jeśli są wywołane przez pracownika), bądź do zdarzeń zewnętrznych. Istotne znaczenie ma tu stopień wykorzystania technologii informatycznych, z czym wiąże się poziom prawdopodobieństwa wystąpienia straty. Do kategorii zdarzenia zewnętrzne zaliczamy straty spowodowane działaniem sił naturalnych lub będące rezultatem działania strony trzeciej (osób spoza struktury banku). W  szczególności są to katastrofy (powodzie, huragany, trzęsienia ziemi, przerwy w dostawie energii elektrycznej), zewnętrzne działania przestępcze, takie jak: oszustwa, wyłudzenia, pranie brudnych pieniędzy, działania terrorystyczne, ataki hackerów, a także straty powstałe w wyniku korzystania z usług zewnętrznych (outsourcing) i dostawców [Matkowski, 2006, s. 25–26]. Poza wyszczególnieniem czynników ryzyka operacyjnego Komitet Bazylejski przestawił także elementy tego ryzyka w ramach trzech poziomów szczegółowości, na które składają się: 11

pierwszy poziom szczegółowości: siedem kategorii zdarzeń operacyjnych (event-type category),

11

drugi poziom szczegółowości: rodzaje zdarzeń operacyjnych (categories),

11

trzeci poziom operacyjny: przykłady zdarzeń operacyjnych (activity examples).

W ramach siedmiu głównych kategorii zdarzeń operacyjnych Komitet wyróżnił [International Convergence, 2004, s. 224–225]: 11

oszustwo wewnętrzne (internal fraud),

11

oszustwo zewnętrzne (external fraud),

11

praktyka kadrowa i  bezpieczeństwo pracy (employment practices and workplace safety),

11

klienci, produkty i praktyka biznesowa (clients, products and business practices),

11

uszkodzenia aktywów (damage to physical assets),


PROBLEM RYZYKA OPERACYJNEGO W KONTEKŚCIE DYNAMICZNYCH PRZEMIAN… 179

11

zakłócenia działalności i błędy systemów (business disruption and system failures),

11

dokonywanie transakcji, dostawa oraz zarządzanie procesami (execution, delivery and process management).

Minimalne wymogi kapitałowe jako Filar I Nowej Umowy Kapitałowej Wypracowywaniu metod wyznaczania wymogów kapitałowych z  tytułu ryzyka operacyjnego towarzyszyło kilka istotnych kontrowersji. Pierwsza z nich dotyczyła kwestii zdefiniowania ryzyka operacyjnego, co było koniecznie, aby w  ogóle można było mówić o jego pomiarze. Ostatecznie przyjęto wspomnianą już definicję zawartą w Nowej Umowie Kapitałowej. Kolejną kwestia wiązała się z wyznaczeniem wielkości wymogów kapitałowych będących funkcją stopnia ekspozycji na ryzyko. Zadawano pytanie, jaka jest skala ryzyka operacyjnego w porównaniu z innymi rodzajami ryzyka, np. kredytowym czy rynkowym. Podstawą do jej określenia stały się badania sektorowe przeprowadzone przez Komitet Bazylejski. Wynikało z nich, że banki, które stosowały systemy pomiaru i  zarządzania ryzykiem operacyjnym, przeznaczały na jego pokrycie około 15% swojego kapitału ekonomicznego [Matkowski, 2006, s. 62]. Wielkość ta stała się odniesieniem przy przyjmowaniu poziomu współczynników dla ryzyka operacyjnego w Nowej Umowie Kapitałowej. Największym dylematem było ustalenie metod kwantyfikacji ryzyka operacyjnego, będących podstawą przy wyznaczaniu wymogów kapitałowych. Ostatecznie przyjęto, że z jednej strony możliwe będzie stosowanie prostego ujęcia opartego na pojedynczym współczynniku określającym stopień ekspozycji na ryzyko operacyjne (metoda podstawowego wskaźnika), z drugiej jednak stworzono zachęty dla banków, które będą bardziej efektywnie mierzyły i ograniczały ryzyko operacyjne, dzięki czemu poziom ich kapitału regulacyjnego będzie mniejszy. Zdaniem twórców Nowej Umowy Kapitałowej bardziej wrażliwe na ryzyko metody pomiary wewnętrznego mają właśnie za zadanie precyzyjniejszą jego kwantyfikację, a co za tym idzie – zmniejszenie wysokości kapitału regulacyjnego. Ostatecznie przyjęto trzy metody wyznaczania wielkości kapitału regulacyjnego z tytułu ekspozycji na ryzyko operacyjne: metodę podstawowego wskaźnika (basic indicator approach – BIA), metodę standardową (standardized approach – SA) i  metody zaawansowanego pomiaru (advanced measurement approaches – AMA). Ponadto możliwe jest także stosowanie odmiany metody standardowej w postaci alternatywnej metody standardowej (alternative standardized approach – ASA). Metody te, tak jak już wspomniano, cechuje specyficzna relacja: im bardziej zaawansowana metoda, tym dokładniejszy pomiar ekspozycji na ryzyko operacyjne i tym mniejszy kapitał regulacyjny z tego tytułu. Tworzą więc one swego rodzaju kontinuum. Komitet zachęca przy tym banki do stopniowego przecho-


180

D. Skopiec

dzenia od mniej do bardziej zaawansowanej metody. Stosowanie metod zaawansowanych odnosi się przede wszystkim do banków mających znaczną ekspozycję na ryzyko operacyjne i  działających w  skali międzynarodowej. Dobór metody musi być też uzależniony od specyfiki i profilu działalności banku oraz stopnia jego zaawansowania [International Convergence, 2004, s. 137]. Metoda podstawowego wskaźnika jest przykładem podejścia top-down do zarządzania ryzykiem. Banki stosujące tę metodę powinny utrzymywać kapitał z tytułu ryzyka operacyjnego wyliczony na podstawie poniższego wzoru:

K BIA =

/3i = 1 GIi n

# a,

gdzie: 3 8 9/i = 1 max a/ j = 1 GIij # b j; 0kC KBIA – wymóg kapitałowy na ryzyko operacyjne, KTSA =i, tylko jeśli jest dodatni (GI > 0), , GI – roczny wynik brutto w roku 3 n – liczna lat, w których wynik brutto był dodatni (GI > 0), w ciągu ostatnich /3j = 1 LA RBj trzech lat, K RB = b RB # m # , a – 15% (współczynnik arbitralnie przyjęty przez3Komitet Bazylejski; ma on odzwierciedlać przeciętny poziom ryzyka operacyjnego w  systemie bankowym /3j = 1 LACBj jako proporcję wyniku brutto). KCB = bCB # m # , Komitet Bazylejski zdefiniował także wynik brutto.3 Stanowi on sumę przychodów netto z produktów odsetkowych oraz przychodów netto z produktów pozaodsetkowych, która ponadto jest [International Convergence, 2004, s. 137]: 11

powiększona o  przychody z  tytułu prowizji i  wydatki operacyjne włącznie z opłatami na rzecz firm świadczących usługi outsourcingowe oraz

11

pomniejszona o  zrealizowane zyski lub straty na papierach wartościowych znajdujących się w  portfelu bankowym, a  także przychody nadzwyczajne, w tym z odzysków z ubezpieczeń.

Jest to najprostsza z zaproponowanych w Nowej Umowie Kapitałowej metod obliczania wymogów kapitałowych z tytułu ryzyka operacyjnego. Jest jednocześnie najmniej precyzyjna, gdyż cechuje się stosunkowo niewielką wrażliwością na ryzyko. W rezultacie wyliczona przy jej zastosowaniu wartość wymogu kapitałowego jest największa w spośród wszystkich wspomnianych metod, a w związku z tym może ona przekraczać wartość faktycznie niezbędną. Jest to metoda przeznaczona głównie dla małych banków, które nie posiadają większych możliwości na wprowadzenie własnych wewnętrznych modeli. Metoda standardowa opiera się na wyróżnieniu w działalności banku ośmiu linii biznesowych (business lines). Są to: 11

finansowanie korporacyjne (corporate finance),

11

finansowanie handlu (trading and sales),

11

bankowość detaliczna (retail banking),

11

bankowość komercyjna (commercial banking),


PROBLEM RYZYKA OPERACYJNEGO W KONTEKŚCIE DYNAMICZNYCH PRZEMIAN… 181

11

płatności i rozliczenia (payment and settlement),

11

usługi pośrednictwa (agency services),

11

zarządzania aktywami (asset management),

11

detaliczne usługi maklerskie (retail brokerage).

Każdej z tych linii biznesowych został przypisany współczynnik β odzwierciedlający ekspozycję na ryzyko operacyjne w poszczególnych obszarach operacyjnych. Innymi słowy, odzwierciedla on prognozowane prawdopodobieństwo wystąpienia strat z  tytułu ryzyka operacyjnego i  ich korelację z  wynikiem danego obszaru. Zróżnicowanie poziomu wskaźnika ograniczone zostało do trzech wielkości: 12%, 15% i 18% [Teker, 2005]. Tabela 1. Linie biznesowe i parametry beta dla metody standardowej Linia biznesowa (business line)

Współczynnik b

Finansowanie korporacyjne b1

18%

Finansowanie handlu b2

18%

Bankowość detaliczna b3

12%

Bankowość komercyjna b4

15%

Płatności i rozliczenia b5

18%

Usługi pośrednictwa b6

15%

Zarządzania aktywami b7

12%

Detaliczne usługi maklerskie b8

12%

Źródło: International Convergence [2004] 3

/ = 1 GIi wymogów kapitałowych oblicza się przy W metodzie standardowej K BIA = iwielkość # a, n użyciu wzoru: 9/i = 1 max a/ j = 1 GIij # b j; 0kC 3

KTSA =

8

3

3

,

/ j = 1 LA RBj gdzie: K m b , # # = RB RB KTSA – wymóg kapitałowy z tytułu ryzyka operacyjnego, 3 GIij – roczny wynik brutto w roku i dla j-tego obszaru operacyjnego, /3j = 1 LA bj – współczynnik beta dla j-tego obszaru operacyjnego, CBj KCB = bCB # m # , 3 Wymóg kapitałowy obliczony przy zastosowaniu powyższego wzoru jest trzyletnią średnią sum rocznych wymogów kapitałowych dla wszystkich ośmiu obszarów operacyjnych. W ramach poszczególnych linii biznesowych wymóg kapita-


182

D. Skopiec

łowy stanowi iloczyn wyniku brutto tej linii i współczynnika beta do niej przypisanego. Pojęcie wyniku brutto jest identyczne jak w  metodzie podstawowego wskaźnika. Ponadto jeśli w danym roku wystąpi strata (ujemna wartość wyniku brutto), a tym samym wyliczone wymogi kapitałowe przyjmą tu wartość ujemną, to kompensują one dodatni wymóg kapitałowy dla innych obszarów. Jeśli jednak straty wystąpią we wszystkich obszarach operacyjnych, a więc wyliczone dla nich wartości wymogów kapitałowych będą ujemne, to w liczniku powyższego wzoru przyjmuje się dla takiego roku wartość zerową [Lenczewski, 2005]. Metoda standardowa jest często krytykowana, ponieważ zakłada, że w ramach danej linii biznesowej wszystkie banki mają ten sam profil ryzyka, co odzwierciedla standaryzacja poziomu współczynnika beta. Ułomności tej metody są widoczne w szczególności w odniesieniu do obszaru bankowości detalicznej i komercyjnej, stąd NUK dopuszcza także możliwość stosowania alternatywnej metody standardowej, w której wymogi kapitałowe dla tych obszarów są obliczane na podstawie wysokości obrotu, a nie wyniku brutto. W przeciwieństwie do metody podstawowego wskaźnika, w stosunku do której nie określono w NUK żadnych kryteriów, od spełnienia których byłaby uzależniona możliwość jej stosowania, w przypadku metody standardowej kryteria takie zostały sformułowane. Właściwy organ nadzoru może również zezwolić bankowi na stosowanie dopuszczonej w NUK alternatywnej metody standardowej. Bank, który zdecyduje się na jej stosowanie, nie może jednak powrócić do metody standardowej bez zgody nadzoru. NUK nie przewiduje także możliwości korzystania z tej metody przez duże banki, posiadające zdywersyfikowany profil działalności i  aktywne w skali międzynarodowej. Alternatywna metoda standardowa jest podobna do metody standardowej, różnica dotyczy natomiast sposobu wyliczania wymogu kapitałowego dla obszaru bankowości detalicznej i  komercyjnej. Wynik brutto dla tych obszarów został mianowicie zastąpiony przez iloczyn średniej wartości kredytów i  pożyczek /3i = 1 GItrzech i w danym pionie dla okresu poprzednich lat i współczynnika 0,035. Wartość K BIA = # a, współczynnika beta dla bankowości detalicznej i komercyjnej pozostaje taka sama n jak w metodzie standardowej. 3 8 9/i = 1 max a/ j = 1 GIij # b j; 0kC Wzór na wymogi kapitałowe dla obszaru działalności detalicznej i analogiczKTSA = , 3 nie dla komercyjnej ma więc następującą postać:

K RB = b RB # m # KCB = bCB # m #

/3j = 1 LA RBj 3

/3j = 1 LACBj 3

,

,

gdzie: KRB – wymóg kapitałowy dla bankowości detalicznej, KCB – wymóg kapitałowy dla bankowości komercyjnej,


PROBLEM RYZYKA OPERACYJNEGO W KONTEKŚCIE DYNAMICZNYCH PRZEMIAN… 183

bRB – współczynnik beta dla obszaru działalności detalicznej, bCB – współczynnik beta dla obszaru działalności komercyjnej LARB – suma kredytów i zaliczek brutto w ramach bankowości detalicznej, LACB – suma kredytów i zaliczek brutto w ramach bankowości komercyjnej m = 0,035. Banki stosujące alternatywną metodę standardową mogą połączyć bankowość detaliczną i komercyjną i stosować dla nich współczynnik b = 15%. Natomiast banki, które nie są w  stanie oddzielić wyniku działalności w  poszczególnych obszarach biznesowych, mają możliwość obliczenia łącznego wymogu przy zastosowaniu współczynnika b = 18% [Lenczewski, 2005]. Metoda podstawowego wskaźnika oraz standardowa, będące przykładem podejścia top-down, są w gruncie rzeczy do siebie podobne, ponieważ opierają się na tej samej podstawie, jaką jest wynik brutto, który ważony jest współczynnikami mającymi odzwierciedlać poziom ekspozycji na ryzyko operacyjne. W  praktyce takie podejście jest obarczone dużym błędem i  niedostatecznie dokładnie objaśnia ekspozycję na ryzyko operacyjne. Metody te nie zawierają też zachęt do poprawy zarządzania ryzykiem operacyjnym. Zalety metody standardowej i alternatywnej metody standardowej są podobne jak w przypadku metody podstawowego wskaźnika, dodatkową korzyścią jest tu natomiast większa dokładność ze względu na zastosowanie różnych wartości wskaźnika ekspozycji na ryzyko operacyjne w poszczególnych liniach biznesowych. Mając na uwadze wspomniane niedoskonałości Komitet Bazylejski dopuścił w  NUK możliwość stosowania przez banki metod zaawansowanego pomiaru. Banki mogą tu stosować własne metody do pomiaru swojej ekspozycji na ryzyko operacyjne. Muszą jednak udowodnić, że metody te określają ekspozycję przy poziomie ufności 99,9%. Mogą być opracowane w samym banku, bądź zakupione od podmiotu zewnętrznego. Jest to podejście pozwalające na obliczenie wymogów kapitałowych, biorąc pod uwagę specyfikę i cechy charakterystyczne danego banku (jego profil działalności, apetyt na ryzyko, politykę banku). Podstawą wyliczeń są tu dane historyczne o stratach banku, a ponadto brane są pod uwagę inne czynniki ilościowe i jakościowe. Możliwe jest także zastosowanie zewnętrznych baz danych w stosunku do strat z tytułu zdarzeń rzadkich. Komitet oczekuje, że podejście to zostanie w  przyszłości wprowadzone przez wszystkie banki. Stosowanie takiego podejścia wymaga jednak spełnienia szeregu kryteriów o charakterze ilościowym i jakościowym oraz zgody nadzoru bankowego.

Wdrażanie regulacji Nowej Umowy Kapitałowej Regulacje zawarte w dokumentach Komitetu Bazylejskiego nie mają charakteru powszechnie obowiązującego prawa. Ich niestosowanie nie prowadzi więc do nałożenia jakichkolwiek sankcji. Ze względu jednak na rangę i pozycję Komitetu oraz jego intensywną działalność mającą na celu stabilność globalnego sektora


184

D. Skopiec

bankowego i minimalizację ryzyka regulacje zaproponowane w Nowej Umowie Kapitałowej zostały, aczkolwiek w zróżnicowanym zakresie, wdrożone w zdecydowanej większości państw rozwiniętych. Teoretycznie jednak wobec wspomnianych norm możliwe są cztery różne podejścia w postępowaniu władz nadzorczych poszczególnych państw [Krasodomska, 2008]: 11

niestosowanie w  żadnym zakresie regulacji proponowanych przez Komitet Bazylejski i bazowanie na normach formułowanych przez własny nadzór bankowy (casus Chin),

11

pozostanie przy regulacjach Umowy Kapitałowej z 1988 roku (casus Indii),

11

utrzymanie w mocy postanowień Umowy Kapitałowej z 1988 roku i jednocześnie wdrożenie Nowej Umowy Kapitałowej w ograniczonym zakresie (casus Stanów Zjednoczonych, gdzie NUK mają obowiązek stosować tylko największe banki aktywnie działające w skali międzynarodowej),

11

wdrożenie NUK w obszarze wszystkich jej trzech filarów (casus państw Unii Europejskiej).

Aby nadać regulacjom bazylejskim charakter obowiązujących norm prawnych w  Unii Europejskiej uczyniono to w  ramach dwóch dyrektyw, które stanowią pakiet przepisów określanych mianem Capital Requirements Directive (CRD): 11

Dyrektywy 2006/48/WE Parlamentu Europejskiego i Rady z dnia 14 czerwca 2006 r. w sprawie podejmowania i prowadzenia działalności przez instytucje kredytowe,

11

Dyrektywy 2006/49/WE Parlamentu Europejskiego i Rady z dnia 14 czerwca 2006 r. w sprawie adekwatności kapitałowej firm inwestycyjnych i instytucji kredytowych.

Jak wiadomo, dyrektywy w  przeciwieństwie do rozporządzeń nie podlegają bezpośredniemu i automatycznemu stosowaniu (nie są aktami prawnymi o charakterze ponadnarodowym). Stanowią element prawa pochodnego UE wymagający transponowania do krajowego systemu prawnego, ponieważ jedną z  ich zasadniczych funkcji jest zbliżanie przepisów państw członkowskich (są instrumentami harmonizacji prawa) [Kenig-Witkowska, 2008, s. 184–189]. W związku z tym wspomniane dyrektywy zostały implementowane do porządków prawnych państw UE i obowiązują od 1 stycznia 2007 roku. Regulacje zewnętrzne dotyczące zarządzania ryzykiem operacyjnym przez banki działające w państwach członkowskich Unii Europejskiej tworzą więc hierarchiczną, trójszczeblową strukturę: 11

regulacje światowe o zasięgu globalnym, formułowane przez Bazylejski Komitet Nadzoru Bankowego, nie mające charakteru norm prawa powszechnie obowiązującego,


PROBLEM RYZYKA OPERACYJNEGO W KONTEKŚCIE DYNAMICZNYCH PRZEMIAN… 185

11

regulacje przyjęte na szczeblu Unii Europejskiej w postaci dwóch dyrektyw stanowiących prawo pochodne UE i podlegających implementacji do krajowych porządków prawnych,

11

regulacje obowiązujące w  państwach członkowskich UE o  charakterze zarówno norm prawnych, jak i zaleceń, wytycznych i rekomendacji rodzimego nadzoru bankowego.

KRYTYKA REGULACJI KOMITETU BAZYLEJSKIEGO ORAZ PROBLEMY W ICH WDRAŻANIU Podejście do ryzyka operacyjnego przyjęte przez Komitet Bazylejski wywoływało i  nadal wywołuje wiele kontrowersji. Komitet wyszedł bowiem z  założenia, że amortyzacji strat z tytułu ryzyka operacyjnego służyć będzie kapitał i w związku z tym zaproponował wspomniane już metody obliczania wymogu kapitałowego z  tytułu tego ryzyka. Wielu praktyków bankowości zwracało jednak uwagę, iż przyjęcie analogicznego podejścia, jakie zastosowano do ryzyka kredytowego i  rynkowego, również dla ryzyka operacyjnego jest błędne. Przede wszystkim wynika to z  charakteru strat ryzyka operacyjnego. Z  jednej strony występują bowiem zdarzenia o relatywnie niewielkich skutkach w skali całego banku, ale za to są one dość częste. Z drugiej strony bank narażony jest na olbrzymie straty powstające wskutek nieprzewidywalnych zdarzeń, które występują relatywnie rzadko. Niemniej jednak to właśnie one odpowiadają za większość strat z tytułu ryzyka operacyjnego. Rozmiar ich jest jednak na tyle duży, iż kapitał banku nie pozwala na ich pokrycie, nie pełni więc funkcji absorbera strat [Zombirt, 2007]. Wobec tego praktycy i  znawcy tematu negują sens tworzenia i  obliczania wymogu kapitałowego z tytułu ryzyka operacyjnego. Proponują oni w odniesieniu do tego ryzyka działania mające na celu przede wszystkim budowę sprawnego systemu zarządzania i kontroli oraz ewentualne zabezpieczanie się przed stratami wynikającymi z rzadkich i nieprzewidywalnych zdarzeń poprzez wykup ubezpieczenia. Jako jeden z argumentów wskazują oni także fakt, iż ryzyko operacyjne de facto bardziej zbliżone jest do ryzyka występującego w niektórych branżach przemysłu, np. w lotnictwie, niż do innych ryzyk występujących w banku, takich jak ryzyko kredytowe czy rynkowe. Wobec tego logiczne jest zabezpieczanie się przed ryzykiem operacyjnym nie poprzez tworzenie rezerw kapitałowych, jak w przypadku ryzyka kredytowego czy rynkowego, lecz poprzez skuteczne zapobieganie wystąpieniu zdarzeń ryzyka operacyjnego oraz efektywne ograniczanie strat w przypadku, gdy już dane zdarzenie wystąpi [Muermann, 2002]. Oprócz generalnego podejścia do ryzyka operacyjnego przyjętego przez Komitet Bazylejski krytyce zostały poddane także poszczególne jego aspekty. Kontrowersje dotyczyły już samej definicji ryzyka operacyjnego, a przede wszystkim nieuwzględnienia w niej ryzyka reputacji. Ryzyko to przez wielu uważane jest bowiem za nierozłączne od ryzyka operacyjnego, ponieważ zdarzenia ryzyka ope-


186

D. Skopiec

racyjnego wywołują zazwyczaj także ryzyko reputacji. Błędy systemów, nieprzestrzeganie procedur czy defraudacje osłabiają bowiem w  każdym przypadku dobre imię i opinię o samym banku. Z krytyką spotkały się także zaproponowane przez Komitet metody obliczania wymogu kapitałowego z tytułu ryzyka operacyjnego. W przypadku metody podstawowego wskaźnika wskazywano, iż zastosowanie jako podstawy obliczania wymogu kapitałowego wypracowanego przez bank wyniku brutto jest niecelowe, ponieważ poziom ekspozycji na ryzyko operacyjne nie pozostaje w prostej zależności liniowej od poziomu wyniku brutto. Wynik może być też nieadekwatny do poziomu ryzyka w części, w jakiej kształtowany jest przez czynniki zewnętrzne, takie jak konkurencja czy system podatkowy. Ponadto podkreślano, iż wynik brutto jest jedynie wartością historyczną, pozbawioną walorów prognostycznych, wskutek czego wyliczony na jego podstawie wymóg kapitałowy będzie oderwany od rzeczywistej ekspozycji na ryzyko. Z  powszechną krytyką spotkał się też poziom współczynnika a, który początkowo określony został na poziomie 20%. Po licznych protestach ze strony banków został on jednak obniżony do 15%. Kontrowersje wzbudzała też metoda standardowa. Jako niewłaściwe wskazywano przyjęcie założenia, że profil ryzyka w ramach poszczególnych linii biznesowych jest taki sam we wszystkich bankach i w związku z tym możliwa jest standaryzacja współczynników b na poziomie 12%, 15% i 18% dla danych linii biznesowych. Wartości tych współczynników mają także, zdaniem krytyki, charakter indykatywny, ponieważ nie zostały one zweryfikowane w praktyce. W przypadku metod zaawansowanego pomiaru wskazywano przede wszystkim na problemy w ich wdrożeniu ze względu na trudność, jaką stanowić będzie zgromadzenie odpowiednich danych na temat zdarzeń i strat z tytułu ryzyka operacyjnego. Posiadane przez banki dane w  momencie wejścia w  życie regulacji NUK były bowiem niewystarczające. Istotny problem stanowi określenie, jakie kategorie strat powinny znaleźć się w wewnętrznej bazie danych banku, od jakiego progu strat powinny być brane pod uwagę, a  także jaką wagę poszczególnym zdarzeniom przypisać. Ponadto zasadniczym problemem we wdrażaniu zaawansowanych metod jest zebranie danych odnoszących się do zdarzeń o niskiej częstości występowania, ale powodujących duże straty. Zdarzenia takie mają miejsce na tyle rzadko, że bank nie jest w stanie w swojej wewnętrznej bazie danych zebrać dostatecznej ilości danych do modelowania ryzyka. Korzystanie z zewnętrznych baz danych w tym zakresie jest natomiast o tyle problematyczne, iż banki niechętnie ujawniają dane na temat zdarzeń ryzyka operacyjnego, które miały miejsce w  ich strukturach, obawiając się przede wszystkim negatywnego wpływu na swoją reputację i strat finansowych, do których może to doprowadzić. Ponadto bank, który pragnie korzystać z zewnętrznej bazy danych, ma w praktyce niewielkie możliwości weryfikacji zawartych w niej danych, czemu także towarzyszy problem porównywalności danych wewnętrznych i  zewnętrznych (na przykład ze względu na odmienny sposób liczenia czy definiowania wskaźników) [Operational Risk Management, 2006, s. 27–29].


PROBLEM RYZYKA OPERACYJNEGO W KONTEKŚCIE DYNAMICZNYCH PRZEMIAN… 187

Istotne problemy związane z  implementacją wynikają także z  konieczności przebudowy infrastruktury informatycznej, wdrożenia systemów oraz szkolenia pracowników. Z problemami tymi wiążą się znaczne koszty dla banków, szczególnie w początkowym etapie wdrażania nowych rozwiązań. Koszty te dotyczyć będą w przeważającej mierze integracji nowych rozwiązań informatycznych z istniejącymi systemami. Wobec wspomnianych wyżej zastrzeżeń co do słuszności ogólnego podejścia Komitetu Bazylejskiego do zarządzania ryzykiem operacyjnym, banki często podnoszą argument o nieadekwatności tych kosztów do korzyści, jakie mają uzyskać wskutek wdrożenia nowych regulacji. Wielu praktyków uważa wręcz, że nowe regulacje nie tylko nie doprowadzą do zmniejszenia ekspozycji i lepszego zabezpieczenia się przed ryzykiem operacyjnym (ze względu na przyczyny wskazane wyżej), lecz staną się jedynie źródłem dodatkowych kosztów dla banków oraz zmniejszenia się ich stopy zwrotu z kapitału własnego.

ROLA KONTROLI WEWNĘTRZNEJ I AUDYTU WEWNĘTRZNEGO Wielu ekspertów, negując sens tworzenia i  obliczania wymogu kapitałowego z tytułu ryzyka operacyjnego jako absorbera potencjalnych strat oraz wskazując na trudności związane z kwantyfikacją tego ryzyka, uważa, że ryzyko operacyjne de facto bardziej zbliżone jest do ryzyka występującego w niektórych branżach przemysłu, np. w lotnictwie, niż do innych ryzyk występujących w banku, takich jak ryzyko kredytowe czy rynkowe i wobec tego logiczne jest zabezpieczanie się przed ryzykiem operacyjnym nie poprzez tworzenie rezerw kapitałowych, jak w przypadku ryzyka kredytowego czy rynkowego, lecz poprzez skuteczne zapobieganie wystąpieniu zdarzeń ryzyka operacyjnego oraz efektywne ograniczanie strat w przypadku, gdy już dane zdarzenie wystąpi [Muermann, 2002]. W związku z tym szczególną rolę ma w tym zakresie stworzenie sprawnego systemu zarządzania i kontroli, a także audytu wewnętrznego. Wspomniane kluczowe znaczenie systemów kontroli i audytu wewnętrznego w ograniczaniu ryzyka operacyjnego spowodowało, że problemem zajął się także Komitet Bazylejski. Efektem było opublikowanie odpowiednich wytycznych odnoszących się do głównych aspektów efektywnej organizacji i funkcjonowania systemów kontroli i audytu wewnętrznego w bankach. W odniesieniu do kontroli wewnętrznej w bankach Komitet Bazylejski opublikował wytyczne pod tytułem Framework for Internal Control Systems in Banking Organisations, które zostały wpisane na listę wytycznych mających zastosowanie w ramach II Filara Nowej Umowy Kapitałowej. Intencją Komitetu było sformułowanie zasad efektywnego systemu kontroli wewnętrznej w banku, które jednocześnie byłyby kryteriami oceny takich systemów dokonywanej przez organy nadzoru. Zasady te nawiązują bezpośrednio do głównych obszarów problemowych wykrytych przez Komitet. Ponadto nastąpiła zmiana postrzegania kontroli wewnętrznej, która nie jest już tylko tradycyjnie rozumianym działaniem mają-


188

D. Skopiec

cym na celu redukcję licznych oszustw i błędów, lecz jest traktowana jako kluczowy element systemu zarządzania ryzykiem w banku. W  odniesieniu do audytu wewnętrznego wymogi Komitetu Bazylejskiego zawarte zostały w wytycznych Internal audit in banks and supervisor’s relationship with auditors, które także zostały wpisane na listę wytycznych mających zastosowanie w ramach II Filaru. W wytycznych tych określono wiele norm regulujących działanie audytu wewnętrznego w bankach, które dotyczą w szczególności jego celów i zadań, zasad funkcjonowania, charakteru i zakresu. Zarówno w  przypadku kontroli wewnętrznej, jak i  audytu wewnętrznego, można znaleźć w podejściu Komitetu Bazylejskiego elementy, które są wspólne dla obu obszarów. W szczególności dotyczy to roli kierownictwa banku (zarządu i  rady nadzorczej) w  procesie kontroli i  audytu wewnętrznego, identyfikacji i oceny ryzyka, odpowiedniej struktury systemu kontroli wewnętrznej oraz audytu wewnętrznego, odpowiedniego systemu komunikacji i wymiany informacji, monitorowania działania tego systemu, a także dokonywania jego okresowych ocen oraz zapewnienia niezależności i bezstronności audytu wewnętrznego.

KONKLUZJE Zaprezentowane w  artykule czynniki wzrostu znaczenia ryzyka operacyjnego w  bankach jednoznacznie wskazują na fakt, iż procesy globalizacji i  integracji finansowej oraz głębokie przemiany w działalności banków uwidoczniły znaczenie ryzyka operacyjnego, a  co za tym idzie również konieczność zarządzania nim. Specyfika ryzyka operacyjnego wskazuje jednak, iż sprawia ono więcej trudności we wszystkich fazach procesu zarządzania ryzykiem, a więc na poziomie definiowania, pomiaru, ograniczania i monitoringu. Zjawiskiem niewątpliwie pozytywnym jest to, że władze nadzorcze podjęły wysiłki na rzecz ograniczania tego ryzyka. Podjęto także próby kwantyfikacji tego ryzyka, które do niedawna uważano za niemierzalne. Jest to dowód znacznego postępu w procesie zarządzania ryzykiem operacyjnym. Niemniej jednak opracowane przez Komitet Bazylejski metody zabezpieczania się przed tym ryzykiem operacyjnym charakteryzują się wieloma niedoskonałościami, co stwarza konieczność poszukiwania alternatywnych metod. Zdaniem niektórych, duże znaczenie może mieć zastosowanie metod jakościowych i ilościowo-jakościowych, takich jak metoda kluczowych wskaźników ryzyka (KRI – Key Risk Indicators), metoda scenariuszy awaryjnych, metoda benchmarkingu czy metody heurystyczne. Konieczne wydaje się jednak przede wszystkim rozwijanie metod wewnętrznego pomiaru, które stwarzają bankom możliwość uwzględnienia specyfiki własnej działalności, na co nie pozwalają metody zaproponowane przez Komitet Bazylejski. Ze względu na fakt, że często negowane jest samo podejście do zabezpieczania się przed ryzykiem operacyjnym w  formie utrzymywania odpowiedniego kapitału, należy przede wszystkim minimalizować prawdopodobieństwo wystąpienia strat, a nie koncentrować się na ich ograniczaniu, gdy już wystąpią.


PROBLEM RYZYKA OPERACYJNEGO W KONTEKŚCIE DYNAMICZNYCH PRZEMIAN… 189

Stąd wskazane jest, aby banki rozwijały systemu kontroli i audytu wewnętrznego biorąc pod uwagę ich szczególną rolę w procesie zarządzania ryzykiem operacyjnym. Stosowne jest także opracowanie planów awaryjnych i planów zapewnienia ciągłości działania. Wydaje się, że takie podejście często lepiej odpowiada naturze ryzyka operacyjnego.

BIBLIOGRAFIA Amendment to the Capital Accord to Incorporate Market Risks [2006], Basel Committee on Banking Supervision, Basel. Fabozzi F. [2007], Operational Risk. A Guide to Basel II Capital Requirements, Models, and Analysis, New York. Framework for Internal Control Systems in Banking Organisations [1998], Basel Committee on Banking Supervision, Basel. History of the Basel Committee and its Membership [2007], Basel Committee on Banking Supervision, Basel. Holton G. [2004], Defining Risk, “Financial Analysts Journal”, listopad/grudzień. Hull J. [2007], Risk Managament and Financial Institutions, Saddle River. Internal Audit in Banks and Supervisor’s Relationship with Auditors [2001], Basel Committee on Banking Supervision, Basel. International Convergence of Capital Measurement and Capital Standards [2004], Basel Committee on Banking Supervision, Basel. Iwanicz-Drozdowska M., Nowak A. [2002], Ryzyko bankowe, Warszawa. Jagiełło R. [2007], Charakterystyka, rodzaje i źródła ryzyka bankowego w: M. Zaleska (red.), Współczesna bankowość, Wydawnictwo Difin, Warszawa. Jajuga K. (red.) [2007], Zarządzanie ryzykiem, Wydawnictwo Naukowe PWN, Warszawa. Jorion P. [2003], Financial Risk Manager Handbook, Second Edition, John Wiley & Sons, Hoboken, New Jersey. Kałużny R. [2004], Strzegąc swego banku, „Bank”, nr 3. Kenig-Witkowska M. (red.) [2008], Prawo instytucjonalne Unii Europejskiej, Wydawnictwo C.H.Beck, Warszawa. Konsultacje i wdrożenie postanowień Nowej Umowy Kapitałowej w sektorze bankowym w Polsce [2005], Generalny Inspektorat Nadzoru Bankowego, Warszawa. Korenik D. (red.) [2006], Innowacyjne usługi banku, Wydawnictwo Naukowe PWN, Warszawa. Krasodomska J. [2008], Zarządzanie ryzykiem operacyjnym w  bankach, Polskie Wydawnictwo Ekonomiczne, Warszawa. Lenczewski Martins C., Niedziółka P. [2005], Kwantyfikacja ryzyka operacyjnego w banku oraz jego wpływ na wymóg kapitałowy, „Bank i Kredyt” nr 5. Lewandowski D., Ryzyko operacyjne w bankach – zarządzanie i audyt w świetle wymagań Bazylejskiego Komitetu ds. Nadzoru Bankowego, „Bank i Kredyt”, nr 4. Matkowski P. [2006], Zarządzanie ryzykiem operacyjnym, Oficyna Ekonomiczna, Kraków. Muermann A., Oktem U. [2002], The Near-Miss Management of Operational Risk, “The Journal of Risk Finance”, Fall 2002.


190

D. Skopiec

Niedziółka P. [2002], Zarządzanie ryzykiem stopy procentowej w banku, Wydawnictwo Difin, Warszawa. Operational Risk Management [2006], Oesterreichische Nationalbank, Wiedeń. Piołunowicz M. [2006], Kategoryzacja strat operacyjnych w bankowości, „Bank i Kredyt” 9/2006 Sound Practices for the Management and Supervision of Operational Risk [2003], Basel Committee on Banking Supervision, Basel. Teker D. [2005], Comparative Analysis of Operational Risk Measurement Techniques, International Trade and Finance Association, Paper 39, Istanbul. Zawadzka Z. [1996], Zarządzanie ryzykiem w  banku komercyjnym, Poltext, Warszawa. Zombirt J. [2007], Nowa Umowa Kapitałowa: Ewolucja czy rewolucja, Wydawnictwo CeDeWu, Warszawa.

Streszczenie W artykule przedstawiono analizę roli ryzyka operacyjnego w kontekście dynamicznych przemian w działalności banków oraz podjętych na poziomie międzynarodowym działań mających na celu ograniczenie tego ryzyka. Znaczenie ryzyka operacyjnego wzrosło istotnie w ostatnich latach wskutek postępującej globalizacji i integracji finansowej, rozwoju i intensyfikacji wykorzystania technik teleinformatycznych, rozwoju nowych produktów bankowych oraz rozszerzenia aktywności banków na dziedziny zastrzeżone poprzednio dla innych instytucji finansowych, takich jak towarzystwa ubezpieczeniowe czy domy maklerskie. Wzrost roli ryzyka operacyjnego doprowadził do podjęcia szeregu działań przez Komitet Bazylejski ds. Nadzoru Bankowego, z czego najważniejsze było uwzględnienie tej kategorii ryzyka w Nowej Umowie Kapitałowej. Przyjęte przez Komitet rozwiązania w zakresie ograniczania ryzyka są jednak często przedmiotem krytyki. Podkreśla się, że kapitał nie może być absorberem strat ryzyka operacyjnego, a jego ograniczenie powinno polegać przede wszystkim na działaniach prewencyjnych i  rozwijaniu efektywnych systemów kontroli wewnętrznej i  audytu wewnętrznego. Słowa kluczowe: bank, ryzyko, kapitał, nadzór, kontrola, audyt.

The Problem of Operational Risk in the Context of Dynamic Changes in Banking Activity This article analyses the role of operational risk in the context of dynamic changes in banks’ activities, and of actions undertaken at the international level and aimed at mitigating such risk. The importance of operational risk has increased substantially in recent years due to advancing globalization and financial


PROBLEM RYZYKA OPERACYJNEGO W KONTEKŚCIE DYNAMICZNYCH PRZEMIAN… 191

integration, development and increasing use of information technology, development of new banking products, and the expansion of banking activity to fields previously reserved for other financial institutions, such as insurance companies and brokerage institutions. The aforementioned increasing importance of operational risk has led the Basel Committee on Banking Supervision to undertake several activities, the most significant of which has been the inclusion of this type of risk in the New Capital Accord. However, the Basel Committee’s solutions for operational risk mitigation are often criticized. It is emphasized that the capital cannot be an absorber of potential losses, and operational risk mitigation should primarily be based on preemptive measures as well as on the development of effective systems of the internal control and internal audit. Key words: bank, risk, capital, supervision, control, audit.


Studia ekonomiczne 1 Economic studies nr 2 (LXV) 2010

Artykuł dyskusyjny

S. Ryszard Domański*

KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ (Dlaczego tak łatwo upadł komunizm i dlaczego tak trudno znaleźć zgodę społeczną) Specyficzna droga wprowadzania prywatyzacji gospodarki w Polsce jest głównym czynnikiem, który wyjaśnia zarówno zagadkę pokojowego upadku systemu, jak i  istotę poprzedzającego go stanu wojennego kładącego kres spontanicznym, oddolnym i dalekosiężnym przemianom ustrojowym. Sposoby wprowadzania prywatyzacji są także trwałym czynnikiem napięć, niezadowolenia i frustracji permanentnie wyłaniających się na przestrzeni dwudziestolecia datowanego od czerwca 1989 roku. Artykuł składa się z trzech części. W pierwszej, zatytułowanej „Trismus”, polemizuję z  obrazem narodów Europy Centralnej przedstawianym w  literaturze i opinii publicznej. Ta część, choć historyczna, jest niezbędna jako tło, które ma uzmysławiać ciągłość struktury dominacji społecznej, którą demaskuję w zamykającym ją pytaniu: „Dlaczego system komunistyczny, reżim, który bronił się uparcie przez długie lata, w  końcu upadł pokojowo?”. Pytanie to stanowi jednocześnie otwarcie części II pt. „Transformacja”. Punkt „Poczwarka nomenklaturowa” jest tu kluczowy dla rozwiązania zagadki rzekomo nagłego i  faktycznie spokojnego upadku komunizmu. W  części trzeciej referuję efekty prywatyzacji u  jej progu, traktując je jako kryterium oceny słuszności wyboru takiej a nie innej formy prywatyzacji, a także fundament w ogóle samej możliwości myślenia podmiotowego o strategii przez naród i państwo polskie. W szerszym tle kwestii prywatyzacyjnej pojawia się tu aspekt końca historii – by zacytować Fukujamę – ale nie tyle ucie*  Instytut

Nauk Ekonomicznych PAN, Szkoła Główna Handlowa


194

S.R. Domański

leśniony w politycznej organizacji liberalnego demokratycznego państwa współczesnego, co realizujący się w niektórych formach organizacji struktury dominacji w sferze realnej. W kwestii własnościowej ogniskują się polityczne, psychospołeczne, socjologiczne, prawne i  ekonomiczne aspekty transformacji systemowej. Własność wyznacza władzę nad: majątkiem, dochodem i  jego podziałem, kierunkiem napływu i wypływu pieniądza oraz nad reprodukcją bogactwa. Własność oznacza też władzę nad ludźmi i reprodukcją władzy nad nimi w codziennym praktycznym działaniu, w  którym faktycznie realizują się człowiecze losy. Losy te w sposób ogólny i ramowy wyznaczane są regułami prawa zmienianymi od czasu do czasu w wyniku wyborów, w których często tylko mniejszość korzysta z przysługującego wszystkim prawa politycznej podmiotowości. Uznaję kwestię własnościową, a więc sprawy władania majątkiem i posiadania praw własności, a  raczej jej specyficzne postawienie i  rozwiązanie za czynnik o strategicznej doniosłości objaśniający miękkie przejście transformacyjne odczytywane jako „nagłe”, zdumiewające i  zaskakujące1. Wydaje się, że politolodzy, socjolodzy, psycholodzy społeczni – nie tylko zachodni – również filozofowie i to nie tylko ci ukąszeni heglizmem, nie byli w stanie „metodologicznie” przewidzieć upadku systemu komunistycznego m.in. z  powodu niedoskonałego ujmowania życia społecznego za pomocą modeli socjologicznych oraz zbyt małego rozeznania i uwzględniania aspektów ekonomicznych. Politolodzy w szczególności przeoczyli, jak koncepcje prywatyzacji gospodarki wpływały na rozmiękczenie porządku komunistycznego. Dlatego zagadkę „nagłej rewolucji” warto jeszcze raz rozwiązać – a obecnie, w końcu pierwszej dekady XXI w., już chyba tylko zrekapitulować2 – wykorzystując kontekst wydarzeń społeczno-politycznych, w  których uparcie manifestowała się przez lata trwałość systemu oraz odczytać ją w kontekście prywatyzacji gospodarki, w  której zamanifestowała się jego pozorna krucha uległość.

Część I. Trismus 1. Ulegli niewolnicy – mity i fakty

Mity

Do zwrócenia uwagi na zagadnienie markowane powyższym podtytułem poczułem się zobowiązany, gdy w początkach października 1991 roku na słynnym Uniwersytecie Chicagowskim spotkałem się z zaskoczeniem i intelektualną bezradnością wobec „nagłego załamania się systemu i zaskakującej rewolucji” w krajach 1 

Zob. np. Z. Cui [1991]; Kuran [1991b]. Poprawa pracy Instytutu Pamięci Narodowej wpłyneła pozytywnie na stan poinformowania społeczeństwa. 2 


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

195

„Wschodniej Europy”. Występujący tu na seminariach i konferencjach politolodzy, jak Timur Kuran [1991a] z  Uniwersytetu Kalifornijskiego w  Los Angeles, Adam Przeworski [1991] z University of Chicago oraz Zhiyuan Cui, jego doktorant, głosili, że upadek systemu komunistycznego w Europie Wschodniej w 1989 roku zaskoczył wszystkich. Adam Przeworski – autorytet cytowany przez Z. Cui – wyrażał to explicite: „..nikt nie przypuszczał, że system komunistyczny, kreślony przez wielu jako totalitarny właśnie dlatego, że był uważany za niezmienny i odporny na zmiany, załamie się nagle i pokojowo” [Cui, s. 2] Można przypuszczać, że takie poglądy, jak przed chwilą cytowany, wynikają – choćby częściowo – z konceptualizacji rzeczywistości właściwej tym kręgom lewicujących intelektualistów, którzy sami wierzyli w  trwałość tego systemu. Konceptualizacje te demonstrują się w socjologiczno-politycznych uogólnieniach. W przypadku Europy Centralnej – bo ten termin jest, moim zdaniem, właściwy w odróżnieniu od „Europy Wschodniej” – prowadziło to do „okryć” takich jak : „System sowieckiego rządzenia uczynił ludzi zbyt zdemoralizowanymi i zbyt uzależnionymi od władzy, by mogło dochodzić do spontanicznych rozruchów i powstań” [Amalrik, 1969]; albo: „ Kto mógłby przypuszczać (…), że (…) to apatyczne, sceptyczne i zdemoralizowane społeczeństwo powstanie (…) i  po upływie zaledwie roku popadnie na powrót w  stan głębokiej demoralizacji dużo gorszej, niż to miało miejsce przedtem” [Havel, 1990]. I w końcu: „Komunizm osłabia więzi interpersonalne ukorzenione w rodzinie, lokalnej społeczności, religii i  w ten sposób zapobiega mobilizacji do antykomunistycznej rewolty” [Arendt, 1951]. Zacytowane poglądy najwybitniejszych przecież autorów stanowiły i stanowią, jeśli nie jawnie deklarowaną inspirację i punkt wyjścia rozumowania psychologów społecznych i politologów badających (w tym przez odwołanie się do teorii gier) mechanizm psychiki społecznej i  dynamiki zmian w  reakcjach społecznych, to przynajmniej podświadomy bardziej mentalnościowy niż rozumowy punkt odniesienia wywodzonych interpretacji. Z implicite przyjętego paradygmatu pasywności i demoralizacji narodów Europy Centralnej płynie bowiem pierwsza odpowiedź na pytanie: „Dlaczego, mimo krzywd, narody regionu były w końcu znacząco milczące i  spokojne” [Kuran, 1991a, s. 9], a  głosi ona, iż „przez ukrywanie swoich antypatii do politycznego status quo wschodni Europejczycy wprowadzali w  błąd wszystkich, włączając siebie samych, co do możliwości pomyślnego powstania. W efekcie nadali prywatnie pogardzanym i nienawidzonym rządom swoistą aurę niezwyciężoności” [Kuran, 1991a, s. 1]. Jeśli wyżej zacytowane zdania, skreślone przez Amalrika, Havla i  Arendt, potraktować jako tezy prowadzonych przez nich analiz i  rozważań, to można przypuszczać, że autorzy mieli skłonność do ignorowania tych faktów, które nie pasowały do ich mentalnego modelu świata. W  efekcie, i  niejako a  posteriori, eksponowane są fakty i  lansowane tezy, które pasują do założonego a  priori modelu społeczeństwa bez względu na to, jak dalece odbiegają od kompleksowej rzeczywistej struktury wydarzeń. W  szczególności może to być model, który zakłada „dychotomię wszechmocnego despoty i  pasywnego, uległego niewolnika” [Hankis, 1990, cyt. za Cui, 1991, s. 2].


196

S.R. Domański

Paradoksalnie, ten rodzaj liberalnej mądrości, gdy społeczeństwo/naród jest postrzegane (spoza systemu) jako ciemna masa3 prowadzona przez wszechmocną władzę, jest zgodny z komunistycznym postrzeganiem społeczeństwa. Wszakże to komuniści także postrzegają społeczeństwa jako ciemną masę, („klasę w sobie”), która musi być rządzona przez oświecony Komitet Centralny, aby podążać, jako klasa dla siebie, za „prawem Historii”4. Co więcej owo podobieństwo w postrzeganiu społeczeństw określało również tworzone polityczne alianse strategiczne, już po „zmianie systemu”. Różnica w interpretacji struktury świadomości społecznej między komunistami i liberałami jest raczej kwestią wartościowania niż esencji, bo jak przyznaje Hankis [1990]: „Generalne przekonanie o  wszechogarniającym potężnym partii-państwie i bezbronnym, bezwolnym społeczeństwie towarzyszyło nam przynajmniej przez cztery dekady”. Fakty

Lekceważenie faktów nie jest problemem dla tych badaczy, których przekonania były formowane przez ten typ świadomości, dla której, na przykład, jedynym ważnym wydarzeniem, jakie miało miejsce w 1939 roku, była Światowa Wystawa w Nowym Jorku5. Ale uświadamianie sobie faktów i ich znaczenia przydaje się i dlatego przydatna jest pewna ich rekapitulacja, aby sprawdzić dlaczego „wschodni Europejczycy” byli znacząco cisi przez lata i nakładali „aurę niezwyciężalności” na reżimy komunistyczne. Zaczniemy od kluczowego – i  ciągle żywego – mitu. Mianowicie Europa Wschodnia nie jest polityczną całością, ale jedynie mentalną kreacją tych autorów, zwłaszcza zachodnich, którzy potulnie kroczyli w ślad polityków i pozostawali obojętni wobec kulturowej różnorodnej rzeczywistości. Termin „Europa Wschodnia” został wykreowany jako konsekwencja konferencji w  Teheranie i Jałcie, gdzie głowy dwóch zachodnich potęg scedowały zróżnicowane narodowo i kulturowo regiony Europy Centralnej Rosji Sowieckiej. Została w szczególności zlekceważona kręta linia podziału kulturowego między tradycją bizantyńską a łacińską, z Rosją należącą do tej pierwszej6. 3  Ja sam dowiedziałem się w drodze samokształcenia dość późno, że jednostka jest racjonalna i że ludzie dokonują racjonalnych wyborów w ramach mechnizmu rynkowego, a stało się to za sprawą Human Capital Garego Beckera, które to dzieło podsunął mi do zrecenzowania w 1978 roku Eugeniusz Rychlewski, sekretarz redakcji „Ekonomisty”. 4  Nie od rzeczy będzie tu przypomnienie tego fragmentu Mojej Europy Miłosza, gdzie opisuje on, jak rzeczowo czy naturalnie, bezemocjonalnie, żołnierze radzieccy zabijają jeńca, z  którym chwilę przedtem razem „gościli się”, grając w karty – czynu tego bowiem w istocie swej świadomości nie dokonał sam żołnierz, który tego dokonał, on tylko mimochodem między jednym a drugim wyjściem za potrzebą zrealizował czyn, bo „tak nado”, tak trzeba, i to ta potrzeba „zlikwidowała” jeńca . 5  „Major Events In the World and the United States”, Musem of Nature and Technology, Chicago, ul. 57 Wschodnia (nagłówki wydarzeń na wielkiej ścianie w  hallu głównym vis á vis wejścia). 6  Błędem było założenie, że „Europę Wschodnią” można stworzyć w jednym momencie przez złożenie trzech podpisów, ale intelektualiści, zwłaszcza lewicujący, uwierzyli, że tak właśnie było.


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

197

Kiedy Hannah Arendt [1951] publikowała swoje odkrycia o komunistycznym ubezwłasnowolniającym oddziaływaniu na społeczeństwo, rodzinę, religię, groby nieustępliwych „żołnierzy wyklętych” rozsiewane były w Polsce, więzienia były pełne politycznych więźniów, mordowanych, nierzadko – jak w przypadku gen. Fierdorfa – przez niedawnych swoich podopiecznych ochronionych, z narażeniem życia przed rasową niemiecką zbrodnią. Nie popuszczono i  tym komunistom, u  których odkryto dewiacje prawicowo-nacjonalistyczne. Komuniści starali się tworzyć „kościoły patriotyczne”, a w Polsce wsadzili do więzienia Prymasa. Zanim jeszcze zostało w  1958 roku opublikowane drugie wydanie książki Arendt, wschodni Niemcy próbowali wyrazić swoje poglądy w Berlinie w 1953 r., antykomunistyczne powstanie wybuchło w czerwcu 1956 roku w Polsce z ofiarami na ulicach Poznania, a  powstanie październikowe w  Budapeszcie zakończyło się sowiecka interwencją. Ba! – od czasu Chruszczowa wiadomo już było oficjalnie o okrucieństwach komunistów na ich rodzinnej ziemi i o Archipelagu Gułag rozsypanym po bezkresach Związku Radzieckiego. Dwunastolecie po 1956 – relatywnie spokojne w regionie Europy Centralnej, znaczone zwycięskim pochodem komunizmu w kolejnych krajach świata, Kubę włączywszy – zamykało się pałacowymi rozróbami wewnątrz ruchu komunistycznego w Polsce (odczytywanymi jako nieudana próba poststalinowców, nagle europejsko zliberalizowanych, wzięcia rewanżu za przegrany „Październik”) , Praską Wiosną i inwazją Czechosłowacji przez pięć bratnich armii w sierpniu 1968 roku. Czesi i  Słowacy mogli ciągle mieć w  swojej kolektywnej pamięci obrazek Chamberlaina powiewającego na Heatrow świstkiem Traktatu Monachijskiego, który „uratował pokój w  Europie” w  1938 roku. W  1968 roku te dwa narody widziały czołgi na ulicach swoich miast. Czesi i Słowacy byli znowu porzuceni przez świat, ale – według Havla – „ulegli demoralizacji tak szybko, jak powiał wiatr”. Tymczasem Węgry ruszyły z reformą gospodarczą, a w Polsce doświadczyliśmy krwawo stłumionego powstania grudniowego 1970 r., już otwarcie skierowanego przeciw partii komunistycznej (palone komitety wojewódzkie w  Gdańsku, Szczecinie, Elblągu). Wydarzenia przyspieszały – w  czerwcu 1976 r. strajki na Mazowszu, październik 1978 r. i  przedziwnie aktualny 150 lat wcześniejszy Słowacki ze swoim: „Pośród niesnasek Pan Bóg uderza w niebieski dzwon, dla słowiańskiego oto papieża otwiera tron (…) on (…) wszelką z ran świata wyrzuci zgniłość, robactwo, gad, zdrowie przyniesie, rozpali miłość – I  zbawi świat.”7. Wielosettysięczne zgromadzenia w czasie pierwszej wizyty Jana Pawła II uświadamiały ogrom grupy i społeczną moc religii dotąd przez propagandę wciskanej do wstydliwej prywatności. Wreszcie fala i kulminacja wielkiego powstania lipcoIntelektualna zaś ich czołówka zabrała się ochoczo do przekształcania fałszywej świadomości narodów Europy Centralnej na świadomość właściwą – w sferze nauk ekonomicznych oznaczało to odsuniecie od szkolnictwa wyższego przedwojennych profesorów, jak E.Taylora i E.Lipińskiego, oraz zastąpienie podręczników i  książek przez nich pisanych nowymi autorstwa W. Brusa i  M. Pohorillego. 7  J. Słowacki [1952], Pośród niesnasek Pan Bóg uderza.. (w:) Dzieła, t. I. Liryki i  wiersze, Wydawnictwo Zakładu Narodowego im Ossolińskich, Wrocław, s. 254–255.


198

S.R. Domański

wo-sierpniowego (Lublin, Świdnik, Wybrzeże) w  1980 r., zakończonego wbrew ostrzeżeniom i obawom Zachodu utworzeniem pierwszego niezależnego, niemal wszechogarniającego związku zawodowego „Solidarność”. I ponowny trismus komunizmu 13. XII 1981 r. – stan wojenny – opór strajków włoskich i ofiary śmiertelne w jawnym łamaniu sprzeciwu społecznego i w niejawnym łamaniu sprzeciwu duchowego mordowanych po cichu kapłanów8, w ślad za nieudaną, a prędką, bo już w trzecim roku pontyfikatu Papieża podjętą decyzją o Jego usunięciu9. Gdy miliony brały udział w kolejnych wizytach Jana Pawla II w Polsce i gdy paręset tysięcy ludzi zebrało się, by pochować „kapelana Solidarności” księdza Jerzego Popiełuszkę, zamordowanego przez oficerów MSW i gdy nawet nikt nie miał odwagi pytać, czy były to „zgromadzenia legalne”, to trudno było uwierzyć, że Europejczycy z  centralnej części Europy pozostawali „znacząco cisi i spokojni”. I trudno jest uwierzyć politologom zachodnim, że „ukrywali swoje antypatie do politycznego status quo” i w ten sposób „nadawali prywatnie znienawidzonym rządom aurę niezwyciężalności”. Wbrew faktom jednak i post factum przecież politolog z UCLA konkluduje, że Wschodni Europejczycy „pozostawali bierni, ulegli i nawet otwarcie wspierający status quo” [Kuran, 1991b, s. 21]. Nie ulega jednak wątpliwości, że sympatie społeczeństw Europy Centralnej zmieniały się w czasie. W Polsce w październiku 1956 r. W. Gomułka, komunista i  wcześniej stalinowski więzień za odchylenie prawicowo-nacjonalistyczne, był idolem mas. Potem nadzieje były wiązane z  nową „bardziej otwartą” polityką ekipy komunistycznej, która objęła władzę po grudniu 1970 roku. Gdy okazywało się po raz kolejny, że „władza oszukała i oderwała się od mas” nastroje społeczne zmieniały się i były otwarcie demonstrowane. Jednakże „wystąpienia za wystąpieniami” ostatecznie były tłumione, odciskając co najwyżej ślad w drobnych, krótkookresowych przesunięciach podziału dochodu narodowego. Ale trismus systemu trwał; rozumowanie indukcyjne mogło rozciągać pewną aurę niezwyciężalności na reżim komunistyczny i pewnie politolodzy i socjolodzy rozumowali w ten sposób10. Rozumowanie dedukcyjne prowadziło do jednego wniosku –„Ten system nie może działać”. Wniosek ten był formalnie zaakceptowany przez reprezentantów obrony socjalizmu jak niepodległości w lutym 1989 r., kiedy do rozmów Okrągłego Stołu zostały doproszone niektóre kręgi opozycji starannie dobrane przez władze.

8  Obok wymienianego w  tekscie księdza Jerzego Popiełuszki, trzeba koniecznie pamiętać o ks. Ziaji, kapelanie „Szarych Szeregów” i ks. Nabielaku, kapelanie Armii Krajowej. 9  Długoterminowy opór społeczny trwał w Polsce pod postacią demonstracji 3. Maja, masowych celebracji rocznic 1. sierpnia 1944, masowego udziału w  comiesięcznych mszach „Za Ojczyznę” prowadzonych przez kapelana Solidarności ks. Jerzego Popiełuszkę, żeby nie wspomnieć kwitnącej „literatury podziemnej”, która pokazywała, że wszystkie nurty społeczne zjednoczyły się, by zwalić z nóg wspólnego politycznego wroga – komunistów. 10  Nie jest pewne, jakim śladem szli działacze KOR czy ROPCiO, z  uwagi na faktyczną heteregoniczność ich składu osobowego, jeśli spojrzeć na tradycje rodzinne działaczy i ich stosunek do pojęcia „naród” i „niepodległość”. Tak czy inaczej aparat partyjny PZPR utrzymywał, że „idą oddzielnie, ale biją razem”.


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

199

2. Kaskadowa rewolucja – cóż za miła niespodzianka! Lista znanych faktów i wydarzeń wyżej przytoczonych jest potrzebna do sprawdzenia i poprawnej interpretacji opracowanego przez T. Kurana [1989, s. 41–74] modelu dynamiki przemian społecznych i  mechanizmów psychospołecznych, który opiera się na rozróżnieniu między prywatnymi (skrywanymi) i  publicznymi (werbalnie deklarowanymi) preferencjami. Model Kurana stanowi mieszaninę hipotezy falsyfikacji preferencji i  koncepcji racjonalności wyborów i pozwala na ogólny opis łańcucha zachowań indywidualnych prowadzących do kaskadowej (epidemicznej) rewolucji. Rzecz zawiera się w indywidualnych progach reakcji na wydarzenia. Z  wielu powodów różne osoby mają owe progi zróżnicowane. Dla jednych odezwa jednego człowieka wystarczy, by się doń przyłączyć, inny dopiero „pęknie” gdy zobaczy stu zdesperowanych protestujących, jeszcze inny pozostanie w bezruchu, nawet jeśli „wagon orkiestry rewolucji” objął już 10 mln uczestników, gdyż będzie on czekał ciągle, jak to się „wszystko skończy”. Taki model jest ważny w  przypadku każdego ruchu społecznego, czy to będzie rebelia uczniów w  szkole średniej11, czy społeczne powstania podobne do tych, które miały miejsce w Europie Centralnej po zainstalowaniu komunizmu. Kaskadowość zmian bierze się stąd, że „w odpowiednich warunkach, opozycja społeczna rosła w tempie eksplozji, jeśli tylko wystarczająca liczba ludzi wyzbyła się strachu przed demonstrowaniem swoich prywatnych preferencji” [Kuran, 1991a, s. 1]. Model Kurana nie potrafi jednak wyjaśnić dynamiki procesu społecznego, zawiera bowiem swoisty wewnętrzny logiczny hamulec uniemożliwiający start procesu i jego rozszerzanie się. Najlepiej zacytować samego autora. „Ani prywatne preferencje , ani odpowiadające im progi nie są powszechną wiedzą. Tak więc społeczeństwo może zbliżyć się do krawędzi rewolucji bez zauważenia tego nawet przez tych którzy mają dość wpływów i siły by ją wzniecić (…) osoba musi rozpoznać, że ma zdolność utworzenia kolejnego, albo dołączenia do już istniejącego wagonu rewolucji” [Kuran, 1991a, s. 15]. Jeśli jednak tak działa mechanizm ruchu, to nie tylko nie wiadomo, „że już czas go wzniecić”, ale nawet gdy już ruch się zacznie, to osoby o wyższych progach reakcji, które mają się włączyć w rewolucję nieco poźniej, też nie wiedzą, że ich próg wrażliwości został przekroczony. W  konsekwencji rewolucja musi wygasnąć. Podążając skrupulatnie w  ślad za Kuranem i wykluczając – za nim – obieg informacji społecznej przy akceptacji konceptu „progów reakcji” i  skrywania preferencji, musimy skonkludować, że rewolucje nigdy się nie zdarzą12. A  jednak ta ostatnia „rewolucja 1989 r.” się zdarzyła. „Ktoś zaczął”, „ktoś się dołączał”. 11  Cudowne

lata, telewizyjny serial amerykański dla młodzieży. głównym logistycznym posunięciem władz stanu wojennego w Polsce w grudniu 1981 r. było właśnie odcięcie obiegu informacji w eterze i przemieszczania się w przestrzeni, w efekcie i dosłownie, i w przenośni nie mogły poruszać się kolejne „rewolucyjne wagony”, a społeczeństwo pozostawało w  bezruchu, nieświadome skali ewentualnego oporu. Zupełnie inaczej niż w roku 1980, w czasie „rewolucji sierpniowej”, kiedy swobodnie działały faksy informujące o stanie spraw w danym zakładzie pracy, a służba bezpieczeństwa zatrzymywała wybranych dzia12  Zauważmy,


200

S.R. Domański

Wyjście z Kuranowego błędnego samohamującego się koła rewolucji znajdujemy w jego podpowiedzi, że „Każda osoba jest postrzegana jako albo poplecznik, albo przeciwnik rządu”. Ale – uwaga – w warunkach jego modelu, tzn. w warunkach ukrywania prywatnych antypatii i  ich odmienności od demonstrowanych publicznie sympatii, nie wiemy, czy osoby, które są postrzegane jako „przeciwnicy rządu” porzuciły właśnie mistyfikację psychiczną i demonstrują publicznie swoje prywatne preferencje, czy też są to tajni współpracownicy (TW), tajniacy-agitatorzy, bo – powtórzmy – „ani prywatne preferencje, ani odpowiadajce im progi wrażliwości nie są powszechnie znane”. Konsekwetnie, podążając w ślad logiki modelu Kurana, musimy dojść do wniosku, że nagłe rewolucje w  1989  r. w  Europie Centralnej miały miejsce, ponieważ tajni współpracownicy i oficerowie służb specjalnych otwarcie demonstrowali swoje fałszywe publiczne preferencje (bo prywatnie popierali reżim). Ten fakt sprawił, że „zaczęło się!”, progi wrażliwości zostały kolejno przekroczone i reszta społeczeństwa postrzegana wcześniej jako przyjazna rządowi (ponieważ publicznie, wbrew temu co prywatnie naprawdę myśleli, okazywała poparcie dla rządu) zaczęła otwarcie demonstrować swoje prywatne preferencje, dołączając do kolejnych „wagonów zespołów rewolucji” wzbudzanych przez kolejno włączających się w grę mistyfikatorów, a jej animatorów. W takich okolicznościach Kuran musi mieć rację, gdy pisze, że „mądrzy mężowie stanu, wytrawni dyplomaci i dobrze opłacani dziennikarze także byli zaskoczeni” i  że „rewolucja przyszła jako zaskoczenie nawet dla czołowych dysydentów”. Jednocześnie całkiem dwuznacznie brzmią jego słowa, że „nie zamierzam sugerować, że eksplozja w Europie Wschodniej, przyszła jako totalne zaskoczenie dla absolutnie każdego”. No właśnie! Uważne rozumowanie zgodnie z modelem fałszowania preferencji i progów reakcji psychicznej wyjaśnia, to co nie było zamierzeniem autora – mianowicie odkrywa, dlaczego tak wielu oficerów tajnych służb i tajnych współpracowników zostało wybranych na członków parlamentu w wolnych wyborach i  weszło w  skład nowych „niepodległościowych” rządów w  Polsce i Czechosłowacji, a na Bułgarii kończąc. To więc jasne. Ciągle jednak nie wiemy, dlaczego „oni” zrobili tak jak zrobili? I to prowadzi nas do konkludujących pytań. Dlaczego reżimy znane z okrucieństwa w przeszłości nie opierały się tym razem i załamały się pokojowo i cicho? Dlaczego rewolucja 1989 zakończyla się sukcesem, dlaczego nie narzucone zostały stany wojenne (jak było w  Polsce w  roku 1981), dlaczego nie było tym razem interwencji sowieckiej jak w 1956 i 1968 roku). Co takiego się stało, że wyselekcjonowani, zaskoczeni i zdziwieni liderzy opozycji zostali „katapultowani na wysokie stanowiska”? Dlaczego to było tak łatwo, gdy było tak trudno i niemożliwe przez długi czas. Model Kurana – rozumiany wprost, a nie przez pryzmat tu przez mnie odsłonietego drugiego dna – nie ma wiele do zaoferowania, jeśli chodzi o wyjałaczy politycznych chyba tylko po to, by nadać im rozgłosu, jeśli sami na czas nie przyłączyli się do strajkujacych. „Czwartego [dopiero !? – R.D.] dnia gdańskiego protestu (17 sierpnia) SB robi prewencyjną łapankę wśród czołowych opozycjonistów – głównie w Warszawie. Do cel trafia 13 osób” [R. Daszczyński, 2010,. s. 242].


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

201

śnienie bieżących kryzysów i sporów politycznych w Polsce i innych krajach postkomunistycznych. Siła objaśniająca przytoczonych podejść jest, jak widać, ograniczona, a zatem jedynym wytłumaczeniem sukcesu rewolucji 1989 r. pozostaje działanie „sił nadprzyrodzonych”13. Ale przed poszukaniem czynników transcendentnych, sprawdźmy, czy „źródła sprzeczności, konieczne, jeśli nie wystarczające do obalenia rządów autorytarnych, nie leżą wewnątrz samego reżimu, wewnątrz aparatu władzy państwowej, a nie na zewnątrz w  jego relacjach ze społeczeństwem obywatelskim” [Schmitter, 1975, s. 20]. Podobnie problem postrzega Fukuyama: „Dlaczego tak się stalo, że te kraje wyszły spod centralnego planowania dopiero w latach 80.? Odpowiedzi trzeba szukać w świadomości elit i liderów, którzy nimi rządzili i którzy zadecydowali optować za „protestanckim” życiem w zamożności i ryzyku, kosztem „katolickiej” ścieżki nędzy i bezpieczeństwa. Ta zmiana nie była w żadnym przypadku wymuszona przez warunki materialne, w których każdy z krajów znajdował się w wigilię rewolucji, ale raczej pojawiła się jako zwycięstwo jednej idei nad drugą” [Fukuyama, 1990]14. Może P. Schmitter przesadzał, gdy pisał o wzajemnej izolacji reżimu i społeczeństwa obywatelskiego, nie mniej jednak wewnętrzną dynamikę systemu warto przebadać, by zrozumieć, dlaczego tym razem tak łatwo było obalić komunizm – reżim który uparcie bronił się przez długi czas kosztem milionów ofiar, jeśli weźmiemy pod uwagę Związek Radziecki. Na proces wewnętrznej dynamiki systemu – proces przemilczany przez wielu, dla których historia zaczęła się 4. czerwca 1989 roku – zwracał uwagę G. Jędrzejczak na spotkaniu Mont Pelerin Society w Pradze w listopadzie 1991 roku: „Najbardziej istotnym czynnikiem, który musi być wzięty pod uwagę, jest to, że gospodarka centralnie planowana miała swoją własną dynamikę reform wewnętrznych” [Jędrzejczak, 1991, s. 130]. Reformy te skupiały się najpierw na poszukiwaniu poprawnych kryteriów wyboru w  skali mikro, wobec empirycznej plajty produkcji globalnej, potem wokół rozwiązania problemu principal-agent poprzez właściwe systemy bodźcowania, wreszcie wokół układu praw własności detreminujacych rzeczywistą strukturę dominacji w sferze realnej. W tym ostatnim aspekcie odczytujemy trwałość struktury dominacji społecznej mimo cichego upadku komunizmu jako systemu, a właściwie przyczynę tego upadku.

13  A. Haig w swoim wywiadzie dla Jana Nowaka-Jeziorańskiego podkreślał rolę Watykanu w przemianach w Europie Centralnej. Można by w istocie utrzymywać, że „interwencja Nieba” zaczęła się późną wiosną na Placu Zwycięstwa w Warszawie, kiedy Jan Paweł II po raz pierwszy składał w Polsce wizytę i prosił Opatrzność o pomoc w odmianie „oblicza tej ziemi”. Od tego czasu miliony nie ukrywały już swoich prywatnych preferencji – co, nota bene, podważa podstawowe założenie Kurana modelu falsyfikacji preferencji, przynajmniej w  odniesieniu do Polski. 14  Jednak Fukuyama nie zauważa, że sytuacja była bardziej skomplikowana, ponieważ liderzy komunistyczni i elity komunistyczne gwarantowały sobie dobrobyt przez system dobrze znanych przywilejów bez żadnego ryzyka. Trudno więc przypuszczać , że „katolicka ścieżka nędzy” miała cokolwiek z tym wspólnego.


202

S.R. Domański

Część II. Transformacja 3. Transformacja – etap I. Poczwarka nomenklaturowa To miało być coś innego

Proces formowania się społeczeństwa obywatelskiego w Polsce został ukończony latem 1980 r., kiedy „nowa rzeczywistość została wykrojona spod kurateli państwa i  kiedy zmaterializowała się instytucjonalna przestrzeń dla nowego społeczeństwa (…) i utworzyła się realna baza…” już nie dla rosnącego społecznego oporu , ale dla rosnącej społecznej aktywności. Bo oto w wyniku buntu społecznego przełomu lat 70. i 80. XX w. skierowanego przeciwko totalitarnej władzy partii komunistycznej Sejm uchwalił w  1981 roku Ustawę o  przedsiębiorstwach państwowych15 oraz Ustawę o  samorządzie załogi przedsiębiorstwa państwowego16, dokonujących rewolucyjnego przewrotu po stronie praw własności. Oto główne funkcje zarządcze miały być obsadzane nie drogą odgórnej nominacji, lecz drogą otwartego konkursu, z istotnym głosem Rady Pracowniczej. Biurokracja partyjnorządowa zachowywała przywilej nominowania zarządów w przypadku przedsiębiorstw „o  szczególnym znaczeniu dla państwa” (ich liczbę określono na 400 i powtórzono potem w pomysłach tzw powszechnej prywatyzacji). Miał to być rzeczywisty przełom polityczny, gdyż desygnowanie części praw własności na rzecz zespołów pracowniczych łamałoby dominację nomenklatury i mogło poprawić efektywność gospodarownia w skali mikro. Do najważniejszych z tych praw należała właśnie możliwość wpływu na obsadę stanowisk zarządczych w firmie i eliminacja nominacji nomenklaturowych17 oraz moc zatwierdzania planów jej działania18. 15  Ustawa z dnia 25 września 1981 r. o przedsiębiorstwach państwowych (Dz. U. z dnia 30 września 1981 r.). 16  Ustawa z  dnia 25 września 1981 r.o  samorządzie załogi przedsiębiorstwa państwowego (Dz. U. z dnia 30 września 1981 r.). 17  Od nominacji – akceptowanych przez komitety partyjne określonego szczebla w zależności od znaczenia firmy – wzięło się pojęcie nomenklatury powiatowej, wojewódzkiej, krajowej. Listy stanowisk w sferze realnej pozostawały w gestii komitetów powiatowych, wojewódzkich, wreszcie Komitetu Centralnego. W ten sposób uformawała się społeczna warstwa „nomenklatury” i powiadano, że liczy ona około 900 tys osób. Gdyby dołączyć członków rodzin (z rodziną czteroosobową „z ułamkiem po przecinku” jako przeciętną), to grupa ludzi trwale powiązanych z reżimem przekraczała 4 mln, a więc dobrze ponad 10% ogólnej liczby ludności. 18  W istocie w radach pracowniczych szybko odnaleźli się ci świetni inżynierowie i ekonomiści, którzy nie mieli szans na partyjną rekomendacje, a więc i szans na objęcie funkcji z nominacji, a  najbardziej aktywni z  nich znajdowali również drogi współpracy z  wyższymi uczelniami. Tutaj, z osobistego doświadczenia wymienię współpracę Rady Pracowniczej FSO z grupą ekonomistów Wydziału Ekonomiczno-Społecznego SGPiS. Dzięki temu akademicy mogli też zaznajomić się z praktycznymi absurdami rachunku ekonomicznego i systemu podatkowego ówczesnej doby. Wystarczy wspomnieć, że udział kosztów robocizny bezpośredniej w  wartości produkcji liczonej w cenach zbytu, wynosił wówczas 0,8% (!), że rentowność brutto produkcji przekraczała 60%, że podatek obrotowy zabierał setki milionów złotych z dochodów fabryki, a ta nie mogła doprosić się 30 mln ulgi podatkowej lub gwarancji kredytowej na zainstalowanie nowej prasy do karoserii, potrzebnej z  uwagi na zużycie starej. Wszystko to w  warunkach ogromnej nadwyżki


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

203

Ustawa o przedsiębiorstwach państwowych wraz z Ustawą o samorządzie pracowniczym z 1981 roku miały odebrać władzę w sferze realnej z rąk aparatu partyjnego i branżowej hierarchii biurokratycznej. Przedsiębiorstwa typu trzech „S” (3S) formowały strukturę prawnie, ekonomicznie i politycznie niepodległych firm, pozostając jednak ciągle własnością ogólnonarodową. W  firmach tych rolę rad nadzorczych w istocie pełniły rady pracownicze, a kontrola ex post właściwa tradycyjnym radom nadzorczym miała być zastępowana wewnętrzną kontrolą bieżącą nad managementem. W  jakimś stopniu likwidowałoby to niebezpieczeństwo „pokusy nadużycia”, na jaką wystawieni są menedżerowie, nad którymi kontroli wewnętrznej nikt nie sprawuje, jak też znosiłoby problem „pryncypała-agenta”19. Samodzielne, Samorządne i Samofinansujące się przedsiębiorstwa mogłyby emitować swoje obligacje i akcje. To mogłoby otworzyć drogę prywatyzacji „od dołu” dokonywanej pod kontrolą menedżerów wybieranych i  kontrolowanych przez rady pracownicze oraz możliwość realokacji kapitału do tych przedsiębiorstw, na wyroby których popyt byłby największy20. Jednocześnie pozwoliłoby to zaangażować ciążący nad gospodarką nawis inflacyjny, będący następstwem niedopasowania sztucznie planowanej struktury i  wielkości podaży dóbr konsumpcyjnych do spontanicznie tworzącej się struktury popytu właściwej dla poziomu dochodu już faktycznie kreowanego przez gospodarkę21. popytu na podażą, limitowanego talonami dostępu do zakupu, i cenie rynkowej samochodu używanego wyższej od nominalnej nowego. Odnosiło się wrażenie, że ówczesna ekipa Rakowskiego­ ‑Urbana-Wilczka, jakby w jakimś amoku działała na szkodę tej fabryki. 19  Wiele jest przykładów „pokusy nadużycia”, że wymienię znane przypadki Bagsika, Grobelnego, Bogatina, Banku w  Śremie, Bistony, „Porcelany” czy nowsze – jak opisywana we „Wprost” gospodarka aktywami Pekao S.A. pod zarządem J.K. Bieleckiego i tych innych sytuacji, które sprawiły, że partia zdolnych, ambitnych ludzi nie tylko zdobyła sobie dośc szybko przydomek „aferałów”, ale również ośmieszony został sam proces reform własnościowych.

20  Pamiętamy, jak taki system mógł pracować na przykładzie kolejek po „akcje Stolbudu”, zapisów na małego fiata, wkładów na mieszkania spółdzielcze. Ale by system rynkowy działał, należało wycofać się z  systemu reglamantacji i  rozdzielnictwa dóbr zaopatrzeniowych i  inwestycyjnych., zwłaszcza jeśli dopuszczało się już w wielu dziedzinach regulację cen przez rynek. Tego jednak nie uczyniono i jako naturalne następstwo takiego „pół rynkowego rozwiązania” zamiast wzrostu podaży pojawił się albo wzrost kolejek (tam gdzie ceny regulowano – jak w mieszkalnictwie), albo gwałtowny wzrost cen (jak w przypadku trwałych dóbr konsumpcyjnych – doświaczyłem tego na przykładzie „małego fiata”, gdy po wpłaceniu początkowej kwoty 1/3 jego wartości i po klku latach systematycznych wpłat kolejnych rat miesięcznych okazało się po wprowadzeniu „terapii szokowej Balcerowicza”, że skumulowana wartość wszystkich wpłat ledwie starczyłaby na kupno jednego koła).

21  Wyrazem tego niedopasownia był fakt, że tylko 18% ogółu pracujących w przemyśle było zatrudnionych w przedsiębiorstwach sektora II (dóbr konsumpcyjnych), reszta w sektorze I. Jest zrozumiałe, że przy takiej strukturze zatrudnienia (pomijam już kwestie pozostałych sektorów) część wynagrodzeń, których rzeczowym odzwierciedleniem były wytworzone dobra inwestyjne (środki produkcji do produkcji środków produkcji) i inne o charakterze produkcyjnym musiała trafiać na konta indywidualne w  bankach jako tzw oszczędności przymusowe i  na inne formy oszczędności (np. środki kumulowane całymi latami na książeczkach mieszaniowych). Wbrew jednak nachalnej propagandzie nie był to „pieniądz pusty” – jego pokryciem była właśnie wartość owego wytworzonego i pomnożonego majątku produkcyjnego, a więc z ekonomicznego punktu widzenia indywidualne inwestycje (co prawda niedobrowolne) w ten majątek, a więc konsekwentnie – udzialy w  tym majątku. Sformulowanie zatem „własność ogólnonarodowa” miało swoje mocne ekonomiczne uzasadnienie. Nie było rzecz jasna, choć mogłoby być, formalnego potwier-


204

S.R. Domański

Własność ogólnonarodowa, o udziałach formalnie rozproszonych po równo między wszystkich obywateli, stawałaby się też w coraz większym stopniu indywidualna poprzez koncentrację indywidualnych udziałów, których wartość nie byłaby zasilaniem budżetu, ale powiekszaniem kapitału przedsiębiorstw. Okazało się, że hierarchia nomenklaturowa nie mogła zaakceptować ani podstaw prawnych takiego społecznego systemu rynkowego, ani jego wyżej wyłuszczonych z grubsza implikacji z tą najważniejszą z nich, jaką miało być niedopuszczenie do zawładnięcia majątku narodowego przez relatywnie wąską grupę oligarchii politycznej22. U podstaw wyżej zarysowanego mechanizmu przemian własnościowych leży oczywisty fakt, że to nie „państwo”, ale obywatele są formalno-prawnym właścicielami majątku, że są to właściciele dobrze zdefiniowani (posiadają nazwisko i imię, nr dowodu i nr PESEL). Dalej, oczywisty fakt, wynikający z powyższego, że to nie my kupujemy nasz majątek, ale Skarb Państwa od nas go wykupuje, jeśli ma jakieś powody, by eliminować rady pracownicze nim władające w przedsiębiorstwach. Tak mogło by być, ale tak się nie stało. Takiej gospodarce i jej potencjalnej ewolucji przeciwstawił się stan wojenny. Poczwarka nomenklaturowa23

Zmiany prawne i ekonomiczne Stan wojenny narzucony w  grudniu 1981 r. zapobiegł wprowadzeniu porządku ekonomicznego i nowego układu praw własności i jego dalekosiężnych implikacji kreowanych Ustawą o przedsiębiorstwie państwowym oraz o Ustawą o samorządzie załogi przedsiębiorstwa państwowego. Przywracał system nominacji nomenklaturowej, ale ład ekonomiczny już nigdy nie wrócił do stanu przedsolidarnościowego. Wprowadzono obok wielu innych Ustawę z  dnia 26 lutego 1982 r. o planowaniu społeczno-gospodarczym24 i można było zauważyć powolny dryf od porządku nakazowo–rozdzielczego do systemu pośredniego sterowania gospodarką przy jednakowoż pełnym odgórnym panowaniu nad sferą realną i gwałtowdzenia tych udziałów – wtedy należałoby bowiem otwarcie stwierdzać, że część wynagrodzenia jest wypłacana w  postaci środków konsumpcji (ta, która ma pokrycie w  towarach konsumpcyjnych), a część w postaci nieumiejscowionych, amorficznych udziałów w majątku narodowym jako takim (ta, która nie ma pokrycia w dobrach konsumpcyjnych, ale w przyrosłej wartości majątku produkcyjnego.) 22  Biurokracja państwowa miałaby dwa sposoby wpływu na działanie przedsiębiorstw sfery realnej (pomijam oddziaływania pośrednie drogą normalnych zabiegów polityki gospodarczej) – pierwszy – wyścig inwestycyjny z  kapitałem prywatnym wchodzącym i  rozbudowującym dane przedsiębiorstwo bez wykupu udziałów ogólnonarodowych reprezentowanych przez rady pracownicze (inwestowanie na rynku pierwotnym), drugi – drogą wykupu tych udziałów z  myślą, albo o  ich zatrzymaniu i  kontroli nad przedsiębiorstwem, albo o  dalszej odsprzedaży (działalność spekulacyjna na rynku wtórnym). 23  Jadwidze Staniszkis zawdzięczamy wynalezienie pojęcia „przepoczwarzanie nomenklatury”. 24  Ustawa z  dnia 26 lutego 1982 r. o  planowaniu społeczno-gospodarczym (Dz. U. 1982, nr 7 z dnia 9 marca 1982 r.).


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

205

nie wzrastającej roli polityki pieniężnej. W ślad za tym można było obserwować przesunięcie władzy gospodarczej od ministerstw branżowych do instytucji funkcjonalnych (Ministerstwo Finansów, Narodowy Bank Polski). Szeroki i kompleksowy zestaw ustaw przyjętych przez Sejm 26 lutego 1982 r., a więc 2,5 miesiąca po wprowadzeniu stanu wojennego, dowodzi w sposób oczywisty, że w aparacie PRL zachodził ukryty i równoległy do oficjalnie podawanego do wiadomości proces konstruowania systemu przeciwstawnego kreowanemu we wrześniu 1981 r. pod naciskiem społecznym, cytowanymi wyżej ustawami o przedsiębiorstwie państwowym i samorządzie pracowniczym. W 1988 r. Sejm przyjął Ustawę o działalności gospodarczej i joint venture, a  w  lutym 1989  r. (wraz z  pierwszą przymiarką do obrad „Okrągłego Stołu”) Ustawę o niektórych warunkach konsolidacji gospodarki narodowej25. Ustawy te otwieraly możliwści kreacji spółek z  o.o., których głównym zadaniem było ułatwienie przechwycenia majątku narodowego przez stosunkowo wąską warstwę społeczną. Mechanizmy przechwytywania, z zaniżaniem wartości majątku wobec wartości wkładów własnych, są znane i zgodne z ”prawem”26. Z powodu stosowania innego prawa podatkowego były możliwe duże podwyżki płac w  takich przedsiębiorstwach bez narażania ich na utratę rentowności ekonomicznej tytułu „popiwku”, ale ogień hałaśliwej i  bezmyślnej krytyki w  mediach o  kreowaniu inflacji, kierowany był nieodmiennie przeciwko przedsiębiorstwom typu „3S” (trójkąt bermudzki) i przeciwko własności spółdzielczej. Ostatnie dwa lata lat 80. to okres masowego tworzenia przedsiębiorstw spółek z  o.o., których kapitał pochodził z połączenia wsadu (aportu) rzeczowego firm państwowych i finansowych udziałów osób fizycznych. Dzięki niedoszacowaniu wartości majątku udział „wkładu finansowego” „inwestorów indywidualnych” w  ogólnej wartości nowo utworzonej spółki był sztucznie zawyżony. Zatem prywatyzacja zaczęła się w  Polsce na przełomie lat 1987/1988 właśnie wraz z  fomowaniem się „spółek nomenklaturowych”27. Rdzeniem procesu było przechwytywanie częśći własności ogólnonarodowej przez tworzenie spółek z ograniczoną odpowiedzialnością kosztem majątku przedsiębiorstw państwowych. Historyczna doniosłość spółek nomenklaturowych polegała na tym, że erodowały one od wewnątrz stary ethos komunistyczny. Oto długoletni strażnicy „najwyższej formy własności”, przedstawiciele warstwy i  partii, która decydowała o strzelaniu do robotników w latach 1956, 1970, 1981, sami porzucali ideę, która

25  Ustawa z dnia 24 lutego 1989 r. o niektórych warunkach konsolidacji gospodarki narodowej oraz zmianie niektórych ustaw. Dz. U. z 1989 r., nr 10, poz. 57. 26  Pamiętamy doniesienia, jak „Interster” Rakowskiego przejmowała budynek jednego z przedwojennych banków w centrum Warszawy, w cenie po 60 gr za m. kw, albo jak Fundacja Nissenbaumów wchodziła w posiadanie symbolu Powstania Warszawskiego, budynku „PASTA”, po 2 zł za m. kw. 27  Podobny proces uwłaszczania nomenklatury przebiegal i w innych krajach, a w szczególności w  Związku Radzieckim przy okazji tworzenia tak zwanych „spółdzielni” ku rozpaczy tej miary patriotów rosyjskich, jak Sołżenicyn krytykujący to zjawisko w  książce Rossija w  obwalie (wydanie polskie: Rosja w zapaści, Politeja, Warszawa 1999).


206

S.R. Domański

gwarantowała im co najwyżej niejawne przywileje na rzecz idei, która gwarantowała im jawną własność i dochody dowolnie wybranej wysokości. „Spółki nomenklaturowe” mogły być łatwo transformowane w prywatne firmy nieodróżnialne od tych kreowanych dzięki kapitałowi prywatnemu i indywidulanym wysiłkom. W ten sposób poczwarka nomenklaturowa zmieniała się w pięknego kapitalistycznego motyla28. Konwersja ideologiczna. Intelektulany sojusz komunistów i liberałów Byłoby przecież zbyt dziwnie i zbyt hipokrytycznie, gdyby komuniści, którzy przez lata byli przeciw prywatnej własności, teraz sami otwarcie dyskutowali problem prywatyzacji gospodarki i przyznawali, że własność państwowa nie jest „najwyższą formą”29. Przecież i stan wojenny został ogłoszony nie tak dawno, by – jak mówil generał Jaruzelski – bronić socjalizmu jak niepodległości, a  młody człowiek w mundurze kapitana Wojska Polskiego deklarował w telewizorze, że „dla obrony socjalizmu wykonam każdy rozkaz”! Ideologia komunistyczna ciągle obowiązywała, chociaż w latach 1988–1989, a więc w okresie panowania ostatniego komunistycznego rządu, słowo”socjalizm” zniknęło z łam cenzurowanej przecież nadal prasy. Komuniści musieli zatem rozejrzeć się za intelektualnymi aliantami, którzy nie byliby obciążeni komunistyczna afiliacją i  którzy dlatego mogliby otwarcie i szczerze wzywać do prywatyzacji gospodarki według dobrego i gdzie indziej już sprawdzonego modelu. Sukces odnieśli pełny! Małe i  przez dłuższy czas raczej ciche liberalno-demokratyczne skrzydło ruchu solidarnościowego wyłoniło się aktywnie w  latach 1987–1988. Składało się głównie z  młodych dynamicznych ludzi, którzy sami oddawali się działalności gospodarczej i  nierzadko odnosili niemałe sukcesy i  którzy stali się obecni w  prasie („Gazeta Bankowa”, „Życie Gospodarcze”) i na debatach, gdzie argumentowali za prywatyzacją gospodarki, zwracając uwagę zdziwionym słuchaczom, że przecież sami komuniści ten problem po cichu dyskutują i  są bardzo zaawansowani, nie tylko w  samych dyskusjach. I  faktycznie – prywatyzacja już intensywnie prowadzona od 1988 roku w postaci „spółek nomenklaturowych” znajdowała intelektualne usprawiedliwienie w ideach głoszonych przez nurty „liberalno-demokratyczne”. W ten sposób zrealizował się sojusz między pragnieniem komunistów, którzy chcieli sprywatyzować i już prywatyzowali od dwóch lat gospodarkę ku własnej korzyści, i wiarą liberałów w wyższość jednej formy własności nad inną, tylko, że odwrotnie. Sojusz ten należało tylko otwarcie wyartykułować. 28  Wiele zresztą ze spółek nomenklaturowych przemieniło się w spółki „pracownicze”, w których większościowe udziały byłych nomenklaturowych dyrektorów służą im przy decyzjach o podwyżkach płac jako narzędzie terroru wobec pracowników mających mniej do powiedzenia niż niegdyś, gdy udziałowcami nie byli, ale mieli i swój związek i Radę Pracowniczą, a dawniej „zawsze też można było pójść ze skargą do sekretarza partii” (Maria Brzozowska, Animex). 29  W jednym przypadku jednak wydają się być wierni temu przekonaniu do dzisiaj również konstytuujący III RP, mianowicie gdy idzie o reprywatyzację majątków polskich byłych właścicieli.


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

207

Na przedwiośniu 1989 r. ruszyły rozmowy Okrągłego Stołu między komunistami i  pewną częścią opozycji. Przy Okrągłym Stole „przyklepano” program przygotowany pół roku wcześniej przez Biuro Rady Społeczno-Gospodarczej, podpisany przez Marcina Rybickiego i  krążący od października 1988 roku po gmachach rządowo-partyjnych. W dokumencie tym zarysowano m. in. rozległe kompetencje enigmatycznego wówczas ciała, zwanego Rada Prezydencka (wszak nie było prezydenta). Rada ta, powoływana poza systemem demokratycznym, miała m.in.: 1) prawo inicjatywy ustawodawczej, 2) prawo wnoszenia poprawek do projektów ustaw, 3) prawo opiniowania i selekcji propozycji aktów prawnych - wprowadzono obligatoryjność konsultowania z  Radą aktów prawnych najistotniejszych z punktu widzenia życia społecznego i ekonomicznego. Generalną myśl proponowanych reform można sprowadzić do haseł wolności wyboru (przy pewnych trudnościach co do ekspresji spectrum tej wolności) i postawienia pod dyskusję sensu pojęcia własności ogólnonarodowej pozostającej w konstytucyjnych rękach „ludu pracującego miast i wsi”. Postulowano też jeszcze szersze otworzenie się na napływ różnych form kapitału zagranicznego. Ustalono również zasady podziału władzy politycznej w  przewidywanych wyborach do Sejmu i  Senatu. Jak wiadomo, strona solidarnosciowa wygrała wszystkie możliwe miejsca (35% miejsc przydzielonych jej w  Sejmie a  priori) i powstał rząd kierowany przez niekomunistycznego premiera, aczkolwiek cieszącego się pewnym ich zaufaniem za wkład w  krytykę hierarchów katolickich w latach stalinizmu. Premier w swym exposè opowiadał się za radykalnymi zmianami systemu ekonomicznego, a także za stabilizacją ładu politycznego metodą oddzielenia przeszłości od teraźniejszości „grubą kreską”30. W październiku 1989 r. został ogłoszony program ekonomiczny, który w znacznej części był powtórzeniem szczegółów „Programu drugiego etapu reform ekonomicznych” z 1987 r. (quasi-wymienialnośc złotego, polityka realnej stopy procentowej, dalsza liberalizacja cen, zmiany w  systemie podatkowym). Charakterystyczne, nie wracano do solidarnościowej idei „samorządnego, samofinansującego, samodzielnego” przedsiębiorstwa państwowego; jej dynamikę podciął stan wojenny, zapobiegając wyłuskaniu władzy w  sferze realnej z  rąk nomenklatury partyjnej. Program wzywał natomiast do odważnej prywatyzacji według modelu „sprawdzonego w innych krajach” o wypróbowanej wewnętrznej strukturze organizacyjnej przedsiębiorstw. Jednocześnie wbrew faktom i  wysokiej, przeciętnie 40% rentowności, którą osiągały przedsiębiorstwa typu „3S” w  latach 1987–1988, w  miarę jak usuwano rygory stanu wojennego i  przywracono do działań rady 30  Zauważmy, że zgodnie z teorią gier wprowadzenie „grubej kreski” psuło zasadę nieskończoności gry, a  tym samym i  mechanizm budowania reputacji, było więc niezwykle szkodliwe z punktu widzenia akumulacji kapitału społecznego.


208

S.R. Domański

pracownicze, machina propagandowa permanentnie atakowała przedsiębiorstwa państwowe, kując termin „trójkąt bermudzki” (dyrekcja–rady–związki). Razem z tym w parze szło niszczące, nierówne prawo podatkowe. Żaden z  polityków przystępujących do wyborów czerwcowych w  1989 r. z namaszczeniem lidera „Solidarności” wskrzeszonej w nowej formie i bez „oryginalnego ducha” – nie wysuwał takich postulatów. Głosujący w tych wyborach nie wiedzieli, że głosują za prywatyzacją gospodarki niezależnie od tego, czy głosują na komunistów, czy na działaczy wywodzących się z nurtu solidarnościowego. Dopiero po wyborach i po exposè premiera, a więc na jesieni 1989 r., trzy miesiące po wyborach, prywatyzacja gospodarki weszła otwarcie do porządku dziennego polityków. Ustawa Prywatyzacyjna została ostatecznie uchwalona w  lipcu 1990 r. przez parlament, w którym komuniści, albo raczej postkomuniści, ponieważ pewnego dnia w styczniu 1990 r. odnaleźli siebie jako socjaldemokratów – okupowali 65% miejsc. Marzenie ludzi nomenklatury o zmianie systemu przy zachowaniu wpływowych pozycji wypełniło się dzięki intelektualnemu i  politycznemu aliansowi komunistów, lewicy laickiej i  liberalnego obozu w  ruchu solidarnościowym31. Okazało się, iż łatwo było usunąć komunizm, system, który do tej pory w swej obronie kosztował setki tysięcy istnień ludzkich w Polsce i gdzie indziej. Zbigniew Brzeziński pouczał, że jeśli nie jest się w stanie pokonać komunistów, to trzeba starać się ich wychować. I komuniści okazali się wdzięcznymi w samowychowaniu, pod warunkiem, że widzieli w tym swój interes. Jeśli prawa własności i  struktura własności mają cokolwiek do rzeczy, jeśli chodzi o objaśnianie polityki, to „nieoczekiwania rewolucja” w Europie Centralnej staje się mniej nieoczekiwana. Najbardziej wszak oddanych adwokatów przemian gospodarczych, zakazujących wnikania w  pokłady czynów przeszłych ukrytych pod grubą kreską, znajdujemy po lewej stronie sceny politycznej, a nie po prawej złożonej z  kontestujących oszołomów opowiadających o  rozkradzeniu Polski i deprywacji Narodu (pisane zawsze wielką literą), zmuszonego nędzą i bezrobo-

31  Przypieczętowaniem dominacji biurokracji nad gospodarką i społeczeństwem był program powszechnej prywatyzacji, przemianowany, wobec nieadekwatności tej nazwy do istoty projektu, na Ustawę o Narodowych Funduszach Inwestycyjnych. Według tej ustawy przyjętej wbrew opozycji niepodległościowej i bez konsultacji z właścicielami majątku - obywatelami polskimi - aktywa przedsiębiorstw zostały oddane na własność za darmo funduszom kierowanym przez firmy zagraniczne doświadczone w zarządzaniu kapitałowym. Niektórzy doradcy MPW, np. Frydman z New York University oraz Rapaczyński z Columbia University, sugerowali, że to menedżerowie zagraniczni zarządzajacy funduszami powinni mieć wpływ na formowanie rad nadzorczych funduszy, ponieważ jak pisali „Zachodni managerowie powinni mieć prawo wybierania ludzi, z którymi będą współpracowac w  przyszłości” [„Komentarz do Programu Powszechnej Prywatyzacji”, 1991]. Pomysł podsunięty przez ekspertów ze wspomnianych uniwersytetów byłby prawdopodobnie rzadkim, może pierwszym w świecie, takim rozwiązaniem w historii organizacji gospodarczych, gdzie menedżerowie mieliby faktyczną władzę kontrolną nad radami nadzorczymi, które mają ich kontrolować. Przyjęcie tej koncepcji do realizacji, równoznaczne z  oddaniem bez wojny majątku pod obcy zarząd, dobrze uzasadniało wizerunek Polaka-przygłupa lansowany w  tzw. „Polish Jokes”.


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

209

ciem do masowej emigracji „za chlebem”, tworząc tym tło dla „spełnionego snu Adama Michnika”32. Prywatyzacja, albo raczej drogi, w jakich jest realizowana, wyjaśnia to, czego zachodni politolodzy nie byli w stanie wyjaśnić i co nie jest przedmiotem intelektualnej udręki i rodzimych politologowi socjologów – wyjaśnia mianowicie, dlaczego nieoczekiwana rewolucja społeczna nie była tym razem zdławiona i dlaczego komunizm upadł spokojnie. Ale czy nie stosuje się tutaj spostrzeżenie Kurana, że autorzy „piszą tak, jakby ich ulubiona teoria objaśniała jako nieuniknioną rewolucję, która już się wydarzyła wcześniej, rzadko jednak starają się wyjaśnić dlaczego, jeśli tak, to dlaczego nie zaoferowali jednoznacznej, niewątpliwej prognozy przedtem, zanim się stała?!” [Kuran, 1991b, s. 10; 1989, s. 68]. Model Społeczeństwa Globalnego Prostym przykładem Homerowej Kasandry można by obalić wyżej wyrażone twierdzenia Kurana. W odniesieniu jednak do niespodziewanego upadku komunizmu jego nieprawdziwość wykazuję, odwołując się do „modelu społeczeństwa globalnego” wypracowanego przez Profesora Józefa Balcerka33 w końcu lat 70. XX wieku. Model miał dwa wymiary – strukturę społeczną i globalny układ międzynarodowy. Istotę struktury społecznej stanowi świat biurokracji i świat pracowników. Dynamikę rzeczywistości kształtuje odwieczna walka o dominację między tymi dwoma światami. Identyfikacja „samej istoty rzeczywistości” i  rozumowanie w  jej kategoriach prowadziło Balcerka do wniosku, że mamy na świecie – proszę uważać, mówimy o poglądach głoszonych w latach 70. XX wieku – tylko jeden porządek społeczny: kapitalizm. Wewnątrz tego systemu Balcerek wyróżniał kraje rozwiniętego kapitalizmu i kraje peryferyjnego kapitalizmu zależnego. Tak zwany blok komunistyczny, należał, zdaniem Balcerka, do peryferyjnego kapitalizmu zależnego. W  istocie bowiem „system sowiecki” był zaledwie ekstremalną formą kapitalizmu państwowego, tzn. systemu totalitarnej władzy biurokracji, gdzie biurokracja panowała nad środkami przymusu, środkami produkcji i środkami indoktrynacji, przy generalnej deprywacji „świata pracy”. Balcerek przewidywał, że przy rosnącej presji społeczeństw niezadowolonych z horendalnego marnotrawstwa nietrafionych decyzji i  rozwiązań biurokratycznych34 biurokracja dla zachowania władzy poświęci na początku „związki zawo32  „W latach 80. Michnik był czołowym publicystą i wizjonerem opozycji. Napisał wiele książek, jedna z  nich «Takie czasy… Rzecz o  kompromisie» (1985) przedstawiła program polityczny, który kilka lat później zaowocował obradami Okrągłego Stołu” [Daszczyński, 2010, s. 244]. 33  Profesora Balcerka, który śmiało pięknem mowy mógł być porównywany z Demostenesem, uważano za intelektulanego dziwaka i nie był traktowany zbyt poważnie przez swoich uczonych kolegów, choć zawsze słuchano go z uwagą. Z mieszanymi uczuciami przyjaźni, rozbawienia i niezrozumienia był postrzegany przez Komitet Uczelniany PZPR, który „musiał” opiniować jego pomyślnie zakończoną kandydaturę do tytułu profesora „belwederskiego”. W stanie wojennym jednak odebrano mu katedrę w SGPiS i zawsze miał trudności z publikowaniem swoich poglądów. 34  1,2 bln złotych nietrafionych inwestycji w latach 70. w Polsce” było tu jednym z ważnych argumentów.


210

S.R. Domański

dowe”, które dotychczas kontrolowała; potem rzuci na pożarcie i rozwiąże „partię komunistyczną”, a w końcu świat biurokracji wejdzie w porozumienie z kapitałem zagranicznym i wyprzeda majątek narodowy w obce ręce. Będzie to koniec tzw. komunizmu, ale biurokracja zachowa swoją dominację nad „światem pracowników”. Prawa własności, zdaniem z Balcerka, mają bowiem decydujące znaczenie w wyznaczaniu ról społecznych. Biurokracja nie może oddać praw własności, ponieważ oznaczałoby to powstanie ogólnospołecznego systemu samorządowego i koniec dominacji biurokracji. „Ogólnospołeczny system samorządowy” sięgający struktury zarządzania w sferze realnej wyznacza koniec historii porządku społecznego, zapewniając spokój społeczny i spełnienie liberalnej zasady wolności. „Teoria społeczeństwa globalnego” nie była zgodna z żadną z rozumnych akademickich teorii socjologicznych równolegle uprawianych w polskich placówkach naukowych, takich jak Wydział Socjologii UW czy IFiS w  Polskiej Akademii Nauk. W  teorii Balcerka można było znaleźć elementy Marksa, Webera czy choćby Galbraitha, lecz jego ulubionym odwołaniem była encyklika Laborem Exercens Jana Pawła II – „papieża Polaka” (zawsze w  takim zestawieniu!). To dziwne, ale po 5–6 latach gdy po raz pierwszy Balcerek zaprezentował swoją teorię społeczeństwa globalnego – a jej impulsem była postrzegana przez Profesora „nienawiść ekipy Gierka do robotników” skrywana krasomówstwem I sekretarza – czapka biurokratyczna kontrolująca związki zawodowe (CRZZ) została rozwiązana i  pozwolono w  1980 r. okresowo działać związkowi „Solidarność”. Świat pracy poczuł się wolny i mocny – jak chciał poeta: „Bóg dał siłę swojemu ludowi”, a  Lech Wałęsa na bramie Stoczni Gdańskiej deklarował: „Mamy swoje, wolne niezależne związki zawodowe”. W parę miesięcy jednak biurokraci (bo zmieńmy teraz język, dopasowując go do teorii Balcerka i piszmy biurokraci, a nie komuniści jak wcześniej) nie wypełnili drugiej cześci Miłoszowego przesłania i nie „dali ludowi błogosławieństwa pokoju”. Stan wojenny został ogłoszony, wolne związki zawodowe rozpędzone, system samorządnych samodzielnych przedsiębiorstw zawieszony. Z kolei pod koniec lat 80. zanikły partie komunistyczne. Rozpoczęła się masowa wyprzedaż majątku narodowego przekazywanego w niezwykłym pośpiechu za niezwykle małe pieniądze tzw. zagranicznym inwestorom (ale zawsze „zgodnie z  prawem”, jak wykazał długoletni proces przeciw Januszowi Lewandowskiemu). Produkcja spadła o 30%, bezrobocie wzrosło parokrotnie i nieodwracalnie zatrzymywało się na dwucyfrowych poziomach, rozpiętości w dochodach indywidualnych stały się największe w Europie, wszystko to przemilczane na łamach gazet, które były „spełnieniem snów ich szefów”, przy rzekomym ogromnym społecznym poparciu dla reform systemowych i terapii szokowej w sposób radykalny przebudowującej kierunki kumulacji pieniądza i kapitału rzeczowego35. 35  W 1992 roku za 100 guldenów zaoszczędzonych na pięciomiesięcznym pobycie stypendialnym w  Erazmus University Rotterdam, korzystając z  absurdalnego wywindowania przez L. Balcerowicza kursów walutowych w roku 1990 spłaciłem pozostałe 180 tys. zł kredytu na spół-


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

211

Ostatecznie można było normalnemu socjologowi czy politologowi zrozumieć moc modelowego ujęcia Balcerka, z wyjątkiem jego „peryferyjnego, zależnego kapitalizmu”. Ta kategoria pozostawała poza zdrowym rozsądkiem i oczywistymi faktami. Dla każdego było oczywiste, że istniały dwa nienawidzące się bloki systemowe. I było tak – aż do Jelcyna! Przepowiednia Józefa Balcerka wypełniała się krok po kroku36.

6. Transformacja – Etap II Prywatyzacja i reprywatyzacja. Napięcia społeczne Na podstawie wspólnego celu prywatyzacji gospodarki (i towarzyszącego mu propagandowego języka) dokonał się sojusz intelektualny między nurtami politycznymi uogólniająco zwanymi liberalno-demokratycznymi, po części ukorzenionymi w tych niegdyś komunistycznych grupach, które „liberalizowały się” w miarę przegrywania w kolejnych zwrotach tego ruchu w Polsce, z jednej strony, i zróżnicowanym nurtem politycznym ciągle aktywnej i  trzymającej ster władzy w  Polsce partii „robotniczej” – z drugiej. Najgłębsze źródło tego porozumienia upatruję w podobnym postrzeganiu przez komunistów, lewicę laicką i liberałów dychotomicznej struktury społeczeństwa jako „ciemna masa versus światłe biurokratyczne centrum”. Implikuje to – abstrahując od oczywistych interesów ekonomicznych – tę samą i wspólną niechęć do tych struktur organizacyjnych w  sferze realnej, które dopuszczają różne formy partycypacji pracowniczej i  funkcjonowanie dobrych związków zawodowych. Silny interes ekonomiczny spojony niechęcią intelektulaną przekształcił się w nienawiść, można rzec, klasową, albo – używając języka znanego dziennikarza – „jaskiniową” w odniesieniu do systemu samodzielnych, samorządnych, samofinansujących się przedsiębiorstw państwowych i znalazł wyraz w programie prywatyzacji gospodarki polskiej realizowanym de facto od przełomu lat 1987/1988. Program ten zakończony został ostateczną likwidacją przedsiębiorstw typu „3S”, o których finalnej likwidacji przesądził Sejm, uchwalając Ustawę z dnia 12 maja 2006 roku o zmianie ustawy o komercjalizacji i prywatyzacji (Dz.U. z 2006 r. nr 107, poz. 721). Gra prywatyzacyjna

Prywatyzacja albo raczej to, co jest nazywane prywatyzacją gospodarek postkomunistycznych, jest w  istocie procesem złożonym i  heterogenicznym. Ogólnie dzielcze 60-metrowe, trzypokojowe mieszkanie własnościowe. Przypuszczalnie P. Piskorski posiadal kapitalik początkowy większy niż 100 guldenów, skoro powstały legendy o jego „nie wiadomo jak” powstałym majątku. Drugą stroną medalu było „wyparowanie” miliardowych, sięgających 20% PKB, złotowych „przymusowych” oszczędności Polaków i idące w ślad za tym raportowane samobójstwa osób w sile wieku. 36  Sam Prof. Balcerek umarł w  połowie lat 90. i  umierając zażyczył sobie „Niech nad mym grobem nikt nie płacze oprócz mej lubej żony. Na nic mi wasze łzy sobacze i ten wasz płacz zmyślony”. Nie życzył sobie oficjalnych delegacji uczonych z  SGH i  innych polskich placówek na swoim pogrzebie.


212

S.R. Domański

rzecz ujmując, możemy bowiem wyróżnić w Polsce trzy równolegle toczące się, ale różne procesy transformacji własnościowej: 1) reprywatyzacja, 2) spontaniczne kreowanie prywatnego kapitału, 3) gra polityczna o podział majątku ogólnonarodowego. Zostały utworzone ramy prawne dla drugiego i  trzeciego rodzaju procesu zmian własnościowych. Mimo upływu lat sprawa reprywatyzacji nie doczekała się kompleksowego ustawowego rozstrzygnięcia, ale procesy reprywatyzacyjne zachodzą na gruncie prawa handlowego, kodeksu cywilnego czy wreszcie z odwołaniem się do do istniejącej ustawy prywatyzacyjnej z jej poprawkami i uzupełnieniami, albo do zasady nieważności decyzji nacjonalizacyjnych, jeśli podjęte w przeszłości w sprzeczności z samą Ustawą o nacjonalizacji z 1948 roku. Druga wymieniona ścieżka – proces spontanicznej kreacji kapitału prywatnego i prywatnych firm, objawił się jako zjawisko masowe, gdzie kapitał był kreowany „z  niczego”, by nie powiedzieć z  „kapitału ludzkiego”, który wyzwalał w  aktywnych jednostkach pokłady przedsiębiorczości. Faktycznie setki tysięcy firm prywatnych powstały już u początków przemian systemowych. Trzeci proces prywatyzacyjny to gra o „czerwone sukno Rzeczpospolitej” pod patronatem funkcjonalnej biurokracji państwowej (Ministerstwo Skarbu, Ministerstwo Finansów) i dokonuje się przynajmniej czterema ścieżkami: 11

Zawłaszczanie majątku ogólnonarodowego przez osoby fizyczne drogą tworzenia spółek z ograniczoną odpowiedzialnością na mocy ustawy z 1988 r. – proces wyżej opisany jako przepoczwarzanie nomenklatury komunistycznej w kapitalistów.

11

Transformacja kapitałowa, z jej pierwszym krokiem polegającym na konfiskacie majątku ogólnonarodowego na rzecz Skarbu Państwa, zwana eufeministycznie „komercjalizacją”. W efekcie przedsiębiorstwa typu „3S” traciły podmiotowość wraz ze zniesieniem rad pracowniczych,, a z  socjo-politycznego punktu widzenia stawały się kontrolowanymi przez biurokrację centralną organizacjami o trzypoziomowej hierarchii władzy (właściciele, rady nadzorcze, zarządy) kreowanej odgórnie (tak jak w czasach komunizmu, tyle że teraz w większej różnorodności konstelacji partii). Komercjalizacja stanowi pierwszy, przygotowawczy etap do sprzedaży przedsiębiorstwa przy wykorzystaniu różnych technik sprzedaży, których tutaj nie omawiam, ale z których każda niesie w sobie implikacje społeczne i polityczne. Znowu – tak jak w  przypadku spółek nomenklaturowych – wycena przedsiębiorstwa odgrywa tu ważną rolę37. Entuzjaści „prywatyzacji przez

37  Przykłady wątpliwe, np. oddanie „Wedla” Pepsico za ulgi w podatku dochodowym, albo Kwidzynia za 10% wartości po dopiero co dokonanej modernizacji, są dobrze znane. Zob. np. H. Jarmułowicz, E. Mączyńska, M. Zawadzki, Jak zostać liderem? (Zaklady Celulozowo-papiernicze w  Kwidzynie – obecnie International Paper – Kwidzyn SA) (w:) Restrukturyzacja przedsiębiorstw


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

213

komercjalizację” nie ukrywali, że głównym ich celem było pozbawienie władzy rad pracowniczych wewnątrz przedsiębiorstwa. Polski Kodeks Handlowy z  1937 roku nie przewidywał istnienia rad pracowniczych – odwrotnie do zmian wewnętrznej organizacji przedsiębiorstw, jakie mialy miejsce po II wojnie światowej w Europie. 11

Trzecią metodą jest likwidacja. Wyposażenie przedsiębiorstwa lub jego części są sprzedawane, leasingowane, albo wynajmowane nowym właścicielom. Tymi mogą stać się – poprzez leasing pracowniczy – również pracownicy przedsiębiorstwa. W  tym przypadku wycena majątku dyktowana przez ministerstwo też odgrywa ważną rolę – biurokracja przecież uważała za głęboko niesprawiedliwe, aby majątek „ogromnej wartości” trafiał do rąk wąskich grup interesu kosztem ogółu podatnikow, a zwłaszcza nauczycieli i lekarzy38.

11

Metodą czwartą jest powszechne uwłaszczenie, tzn. sformalizowanie od strony prawnej tego co było oczywistym zapisem w Konstytucji o majątku „ludu pracującego miast i wsi”. Powszechne uwłaszczenie polega na rozdzieleniu udziałów, certyfikatów, voucherów czy akcji między obywateli. Szczegółowe rozwiązania były tu w krajach regionu bardzo różne – i różne tego efekty. W Polsce powszechna prywatyzacja miała charakter cząstkowy, dokonała się za pośrednictwem specjalnych instytucji zwanych Narodowe Fundusze Inwestycyjne i  objęła tylko paręset przedsiębiorstw. Polegała na tym, że właścicielami przedsiębiorstw nie są ich właściciele (obywatele polscy) tylko Fundusze Inwestycyjne, a obywatele otrzymali akcje tych funduszy. Fundusze – kierowane za duże pieniądze przez wspecjalizowane, zachodnie firmy zarządzające – miały pomnażać powierzony im majątek. W 15 lat od chwili startu wartość akcji NFI przypadająca na jedno świadectwo udziałowe jest wyższa o 40,77% niż cena samego świadectwa udziałowego (suma notowań akcji funduszy na 20 listopada 2009 r.). Wziąwszy pod uwagę inflację, możemy powiedzieć, że Zarządom NFI udało się – średnio biorąc – doprowadzić wartość przejętego przez nich majątku do ceny niższej niż śmiecie. Fenomen NFI chyba do dziś nie został dogłębnie zbadany przez naukę polską.

Rosnące napięcia

Z ekonomiczno-społecznego punktu widzenia ekonomiczny i polityczny system w Polsce przesunął się z poprzedniej omnipotencji partyjno-gospodarczej i branżowej hierarchii biurokratycznej w  kierunku nowej omnipotencji biurokracji funkcjonalnej, która kontroluje gospodarkę, kreując nierówne prawa wobec różnych podmiotów i  próbuje kontrolować życie polityczne kraju przez politykę nominacji na członków rad nadzorczych i zarządów przedsiębiorstw, z których wyrugowane zostają wpływy rad pracowniczych. Drugim filarem omnipotencji biurokracji jest kapitał zagraniczny nęcony korzystnymi dlań regułami prawnow  procesie transformacji gospodarki polskiej, red. E. Mączyńska, t. II, DiG, Warszawa 2001, s. 139–141. 38  Dokładnie w tym duchu wypowiadał się na łamach Rzeczpospolitej np. Jan Winiecki.


214

S.R. Domański

finansowymi, szczególnie wynaturzonymi w przypadku tzw. specjalnych stref ekonomicznych, w  obszarze których gospodarka Polski nie tylko zamieniana jest w centrum kosztów nie przynoszące dochodów budżetowi, ale nawet w centrum eksploatacji i wywozu kapitału zapewnianych zwolnieniami z rent i czynszów. Nie ma to za wiele wspólnego z wolną grą sił rynkowych, ale w hałaśliwej propagandzie nazywane jest to budową gospodarki rynkowej. Doszliśmy do liberalnego demokratycznego państwa będącego zwieńczeniem historii poszukiwań przez człowieka form organizacji społeczeństwa. Czy doszliśmy do końca form organizacji w sferze realnej? Można przyjrzeć się, czy Unia Europejska – a zwłaszcza Niemcy z ich radami pracowniczymi w przedsiębiorstwach i  z  ich przesiąkniętymi solidaryzmem społecznym zasadami organizacji gospodarki i  przedsiębiorstwa – nie jest daleko zaawansowana na tej ścieżce wbrew powierzchownie widocznym przejawom postaw egoizmu i presji na indywidualność karier życiowych. Fukuyama. W poszukiwaniu końca historii

W  roku 1989 Francis Fukuyama ogłosił „koniec historii”, który rozpoczął się, według niego, zwycięską bitwą Napoleona pod Jeną w 1806 r. oznaczającą zwycięstwo liberalizmu, a który dopełnił się wraz upadkiem komunizmu. Oto na naszych oczach, ludzkość osiągnęła „punkt ostateczny ideologicznej formy rządzenia”. Fukuyamie przyznaję rację, jeśli chodzi o generalną ewolucję i uniwersalizację zachodniej liberalnej demokracji jako ostatecznej formy organizacji państwa i społeczeństwa. Jednakże gdy już mamy Świat Nowy, wyłania się pytanie o wzajemne związki między wolnością – fundamentem liberalizmu – oraz prawami własności i własnością stanowiącymi podstawę liberalizmu. Pytanie czy „istnieje wolność bez własności” jest bardziej oczywiste i pilne w krajach transformujących strukturę własności i  przelewających własność państwową w  ręce prywatne. Obywatele dawnych państw komunistycznych, którzy byli pozbawieni zarówno praw własności jak i wolności, wydają się dostrzegać, że ich długa walka o wolność nie może być zakończona sukcesem, jeśli kończy się brakiem własności i praw własności. I jeśli Fukuyama ma rację, gdy pisze: „światowa wojna ideologiczna (...) będzie zamieniona w  nudną ekonomiczną kalkulację i  rozwiązywanie w nieskończoność problemów technicznych” [Fukuyama, 1990, s. 2], to historycznej wagi problemy społeczno-ekonomiczne wydają się być przesunięte z  poziomu państwa na poziom firmy. Pojawiają się tu interesujące kwestie ekonomiczne i techniczne fundamentalnej natury. Czy ten typ firmy, gdzie pracownicy posiadają udziały, znosi problem suwerena–pełnomocnika (principal-agent problem)39. Czy takie firmy są w stanie 39  „U Salomona pracownicy posiadają teraz 11 procent firmy (…) Pracownicy, których wynagrodzenie przekracza 500 000, muszą przynajmniej 30% swojego wynagrodzenai pobierać w formie akcji. (...) To naprawdę swoje, a nie innych ludzi pieniądze ryzykują. (...) Wymusza to wielkie poczucie dyscypliny i obliczalności zachowań” [Cloud still hovers over new Salomon, 1992]. Nie śledziłem losów Salomon Brothers poza tym, że w roku 1998 dołożyła 1000 funtów do konferencji „Global Financial Markets Equilibrium” z udziałem laureata Nagrody Nobla w ekonomii za rok 1990, Prof. Mertona Millera, organizowanej przez Wyższą Szkołę Handlu i Finansów Międzynarodowych.


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

215

konkurować z “czysto menedżerskimi” firmami o trójszczeblowym systemie władzy: właściciele–rady nadzorcze–menedżerowie? Jakie są kryteria racjonalności menedżerów w firmach o różnej strukturze własności? Jakie reguły rządzą podziałem rynku w warunkach wielowłasnościowej struktury instytucji ekonomicznych i gospodarki w ogóle? I ostatnie, ale nie najmniej ważne: jak powinno być zorganizowane przedsiębiorstwo, aby uniknąć malwersacji i wykorzystywania poufnych danych do handlu akcjami kosztem ogółu udziałowców?40. Wbrew przewidywaniom Fukuyamy problemy te gwarantują, że nuda nie stanowi smutnej perspektywy na wieki w posthistorycznym świecie. Można wyrazić przypuszczenie, że nowa “mała” historia dobrze umieszczona w kontekście współczesnego liberalizmu już się rozwija. Nie wykluczone, że tu w Polsce, w kraju głęboko wepchniętym w długi przez narzuconą niegdyś władzę, kraju wielkiej i dumnej przeszłości, gdzie zmęczone, przygnębione i  pogardzane przez kolejne elity społeczeństwo na końcu drogi walki o wolność doznaje olśnienia „Nie ma wolności bez własności”. To dobre wyzwanie, dobrze posadowione w  kontekście współczesnego liberalizmu, przypuszczalnie rozwiązywalne w tym kontekście i wewnątrz „państwa, które wyłania się na końcu historii i [które] jest liberalne o tyle, na ile rozpoznaje i chroni systemem prawnym uniwersalne prawo człowieka do wolności” [Fukuyama, 1990, s. 4 i 10]. Ale co, jeśli nie? Czy wielka historia zacznie się na nowo, jeśli w odwiecznym sporze Setembriniego, rzecznika mieszczańskiego liberalnego sposobu myślenia, i Naphty, głoszącego wyższość rygorystycznych zasad moralnych i istnienie prawdy absolutnej, ten drugi jest mocniejszy jako zdolny do tych typów zachowań, które leżą poza liberalnym racjonalnym rozumieniem świata [Mann, 1985, s. 506–526, 690–706]41. Czy istnieje zatem jakaś ważna społeczna sprzeczność nie między cywilizacjami, jak chce Hungtington, i nie między religiami – jak maluje Fallaci – ale tutaj, wewnątrz liberalnych społeczeństw; sprzeczność lekceważona przez politologów i socjologów, a artykułowana wyżej przytoczonym wyzwaniem zawartym w twierdzeniu, że nie ma wolności bez własności i manifestująca się poprzez sposoby organizacji gospodarki i realizacji praw właśności; sprzeczność, problem czekający rozwiązania.

CZĘŚĆ III. EFEKTYWNOŚĆ PRYWATYZACJI 7. Która ścieżka jest najlepsza? Tezy Ocena efektywności prywatyzacji i  skuteczności jej ścieżek dokonywana jest według schematu określonego kolejno stawianymi pytaniami o rolę rynku i pań40  W  Polsce częściej przyjmuje to formę ekstremalnie wysokich płac zarządów w  firmach zagranicznych. Inną formą jest gra cenami rozliczeniowymi. 41  De facto postawę Naphty składającego ofiarę z siebie samego, ale głęboko wynaturzoną, można by odczytać w samobójczych atakach terrorystów islamskich składających ofiary z przypadkowych ludzi, bez poddania ich oferty społecznej pod taką dyskusję, jaką toczyli bohaterowie Czarodziejskiej Góry.


216

S.R. Domański

stwa w  determinowaniu rentowności wyróżnionych sektorów, o  efektywność makroekonomiczną poszczególnych form własności i wreszcie o ich efektywność mikroekonomiczną. Dane tabeli 1. pomagają udzielić odpowiedzi na pytanie o  rolę rynku i państwa w determinowaniu rentowności wyróżnionych sektorów własnościowych na początku przemian procesu transformacji systemowej w latach 1990– 1991 [Domański, 1997, s. 8; zob. także The State and Private Sector…, 1996]. Wtedy to właśnie uciekano się do argumentacji efektywnościowej w  agitacji przeciwko systemowi ekonomicznemu znanemu jako „3S”. System ten formalno-prawnie wszedł w pełni w życie dopiero po 1989 roku, gdyż został zawieszony wprowadzeniem stanu wojennego w  końcu 1981 roku. Jak wiadomo, wewnętrzna struktura organizacji władzy przedsiębiorstwa typu „3S” i  formalna jego pozycja w  hierarchicznej strukturze organizacyjnej gospodarki jako całości stała w  różnym stopniu w  sprzeczności ze strukturą organizacji gospodarki i  strukturą dominacji społecznej kreowanymi poszczególnymi ścieżkami prywatyzacji. Konkluzje, które wynikają z danych tabeli 1. są następujące: 1. Przedsiębiorstwa państwowe typu „3S” charakteryzowały sie wyższą rentownością niż jakakolwiek inna grupa przedsiębiorstw. 2. Przedsiębiorstwa prywatne o własności mieszanej i zagraniczne były wystawione na inny system podatkowy niż ten nałożony na przedsiębiorstwa państwowe (większa część zysku zabierana była przedsiębiorstwom państwowym). 3. Nie rynek, a subiektywna polityka finansowa państwa była zasadniczą przyczyną zróżnicowania rentowności wewnątrz sektora państwowego, co widać z odchylenia standardowego rentowności, które jest większe w przypadku zysku po opodatkowaniu. Sytuacja ta była odwrotna niż w przypadku przedsiębiorstw prywatnych, gdzie polityka podatkowa łagodziła różnicujace działanie rynku. 4. Gdyby podatek obrotowy stosowany wobec przedsiębiorstw państwowych zaliczać zgodnie z  jego ekonomicznym sensem do akumulacji, a  nie do kosztów uzyskania sprzedaży, to rentowność przedsiębiorstw państwowych przekraczałaby 16%. Zachowanie porównywalności danych nie pozwoliłoby jednak na prowadzenie propagandowej kampanii nienawiści wymierzonej w przedsiębiorstwa samorządowe. 5. Różnie można wycenić przedsiębiorstwo przy zastosowaniu metody dochodowej w zależności od definicji jego zyskowności. W przypadkach skrajnych możemy ocenić, że przedsiębiorstwo jest nic nie warte (zysk netto zero, albo ujemny), mimo że przynosi ono akumulację, zaliczaną jako podatek obrotowy do kosztów. Stąd łatwo o sugestie, że najlepszym rozwiązaniem jest oddanie przedsiębiorstw państwowych za darmo w prywatne, najlepiej zagraniczne ręce, ponieważ jest właśnie nic nie warte, a „trójkąt bermudzki”


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

217

je wyniszcza. Po zaawansowaniu procesu prywatyzacji zmieniano system podatkowy, znosząc kosztotwórczy podatek obrotowy. Z  kolei tabela 2 odpowiada na pytanie o  efektywność makroekonomiczną poszczególnych sektorów rozumianą jako ich wkład w “utrzymywanie państwa i społeczeństwa”. Przyjmuję tu punkt widzenia państwa, które może spełniać ciążące na nim obowiązki przy odpowiednim zabezpieczeniu dochodów otrzymywanych z tytułu podatków i jednocześnie świadczyć swoiste usługi z tytułu udostępniania majątku i  usług sektora publicznego do wykorzystania zarówno przez sektor prywatny jak i przez konsumentów indywidualnych. Przy tak postawionej perspektywie wyłania sie kwestia pieczeniarstwa (free riding problem) sektora prywatyzowanego i prywatnego – oto bowiem ujawnia się obraz, że kto inny – właśnie sektor publiczny – po większej części płaci podatki, które finansują usługi i  infrastrukturę publiczną, z  której korzysta sektor prywatny unikający podatków. Takie postawienie sprawy makroekonomicznej efektywności przedsiębiorstw, jest trochę niemodne, ponieważ implicite nie pozwala wysoko oceniać przedsiębiorstw, które płacą niskie podatki korporacyjne, wykazując w sprawozdaniach finasowych i bilansach niskie zyski, albo w ogóle ich brak. W publicystyce ekonomicznej dominuje raczej zachwyt „patrzcie, jak oni pięknie oszukują”, dbając o  własny rozwój – bo zakładało się, że przedsiębiorstwa prywatne, zwłaszcza zagraniczne, z natury są bardziej efektywne, a jeśli wykazywały efektywność poniżej i  czasem grubo poniżej wykazywanej przez przedsiębiorstwa państwowe to oczywiście dlatego, że pięknie oszukiwały, aby nie dać się „janosikowej siekierce budżetu”, która ograbia je ,pobierając daniny i uniemożliwia ich rozwój42. Można zatem odczytać, że : 1. Przedsiębiorstwa kontrolowane przez rady pracownicze były dyskryminowane przez system podatkowy - operowały one niewiele ponad połową (prawie 56%) kapitału zaangażowanego w przemyśle ale płaciły dwie trzecie pochodzacego z przemysłu podatku dochodowego i ponad 70% pochodzacego z tego działu podatku obrotowego! 2. Udział przedsiębiorstw państwowych typu „3S” w  wydatkach inwestycyjnych (ok. 54%) jest prawie równy ich udziałowi w zaangażowanym kapitale. 3. Komercjalizacja, a więc przejęcie kontroli nad samodzielnym, samorządnym przedsiębiorstwem państwowym przez biurokrację centralną nie poprawia efektywności przedsiębiorstw, ani ich skłonności do inwestowania. Udział podatku dochodowego wpłacanego przez te przedsiębiorstwa (a  jest on funkcją poziomu zyskowności) był w  przybliżeniu równy ich 42  Rzecz jasna, ten argument używany jest z  zachowaniem podwójnych standardów. Jeśli bowiem zagraniczny inwestor pobiera daniny w postaci dywidend, a czasem jeszcze zabiera kapitał – jak w  przypadku UniCredit względem Pekao S.A. – to „oczywiście postępuje słusznie”, przecież to jego prywatna własność i prywatna sprawa, i może robić co chce.


218

S.R. Domański

Tabela 1. Rentowność przemysłu w Polsce według typów własności w okresie propagandowej nagonki na przedsiębiorstwa typu „3S” pod hasłem „trójkąt bermudzki” (czerwiec 1991 r.) Zyskowność brutto 1

2

3

Wyszczególnienie

Zysk od pro‑ dukcji sprze‑ danej

Przemysł ogółem

Zyskowność netto 4

5

6

7

Odchy­ lenie stan­ dar­ dowe

3/2

Zysk do pro‑ dukcji sprze‑ danej

Odchy­ lenie stan­ dar­ dowe

6/5

0,070

0,1433

2,047

‑0,003

0,1123

‑35,571

Przedsiębiorstwa państwowe

0,074

0,1444

1,941

‑0,005

0,3828

‑67,845

Przedsiębiorstwa komunalne

0,092

0,1089

1,182

0,015

0,0920

6,091

Przedsiębiorstwa spółdzielcze

0,032

0,0867

2,749

0,010

0,0938

9,366

Przedsiębiorstwa mieszane

0,048

0,1236

2,561

0,043

0,1224

2,865

Przedsiębiorstwa zagraniczne

0,040

0,1375

3,452

0,030

0,1300

4,269

Przedsiębiorstwa prywatne (bez indywidualnych)

0,002

0,1890

114,489

‑0,002

0,1723

88,458

*Obliczenia własne na podstawie 10 przedziałów rentowności. Źródło: Przedsiębiorstwa wg przedziałów współczynnika rentowności [1991].

udziałowi w  zaangażowanym w  przemyśle kapitale (28,3% oraz 25,6%). Podobnie z inwestycjami. 4. Komercjalizacja otwiera presję na płace – przedsiębiorstwa skomercjalizowane wykazywały wysoki udział w podatku od ponadnormatywnych wynagrodzeń (42,4%). Funkcją wyboru tych przedsiębiorstw zdaje się być maksymalizowanie płac nominowanych i pozostających poza bieżącą kontrolą zarządów, przy „zwijaniu” produkcji i powiększaniu bezrobocia. Wprowadzona później „ustawa kominowa” miała zapobiegać temu zjawisku. Nie wprowadzono jednak odpowiednich reguł podatkowych pod adresem menedżerów firm prywatnych i zagranicznych, dyskryminując tym samym kierowników firm państwowych.


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

219

5. Sprywatyzowanie przedsiębiorstwa nie powiększa jego skłonności do inwestowania. Jest raczej odwrotnie - udział przedsiębiorstw prywatnych w inwestycjach w przemyśle (6,4%) był prawie dwukrotnie niższy od ich udziału w zaangażowanym kapitale (11,4%). Wydaje się to przeczyć lansowanej radości z  powodu ukrywania dochodów w  przedsiębiorstwach sprywatyzowanych w  nadziei „że niepłacone podatki przemieniają się w  inwestycje i  wzrost gospodarczy” („ŻG” nr 33/1993). Niski ich udział w podatku dochodowym (3,8%) świadczy też, że były one relatywnie niezyskowne. 6. Firmy zagraniczne i mieszane finansują relatywnie wysokie inwestycje z ulg podatkowych – nie płaciły one prawie żadnego podatku od zysku. Odpowiadając na pytanie trzecie – o efektywność różnych ścieżek prywatyzacji, gdzie efektywność mierzymy odwołując się do standardowych wskaźników i  ich zmian w  czasie – opieram się na wynikach badań Instytutu Nauk Ekonomicznych PAN. Stoimy na gruncie ogólniejszej intuicji, że długofalowo efektywne są te ścieżki, które sprzyjają nie tyle „wnoszeniu kapitału z zewnątrz”, co raczej jego kreacji i akumulacji wewnętrznej 43. Zgodnie z rezultatami badań kohortowych obejmujących lata 1990–1997 najlepsze wyniki ekonomiczne od początku transformacji osiągnęły przedsiębiorstwa stanowiące tzw. własność pracowniczą zarówno jeśli chodzi o poziom zyskowności jak i tempo wdrażanego postępu technicznego [Domański, 2001]. Najgorsze wyniki osiągnęły firmy zagraniczne, w tym zwłaszcza te, które obdarowano majątkiem najbardziej nowoczesnych przedsiębiorstw państwowych. Dostrzeżona różnica w rentowności przedsiębiorstw zagranicznych tej samej branży notowanych na GPW (a więc o większej przejrzystości księgowości) i nie notowanych ( a więc niższej przejrzystości) daje asumpt do zbadania skali ukrytego wywozu kapitału przez te drugie44. Konkluzja ogólna – w miarę jak posuwał się proces prywatyzacji gospodarki oparty na opisanych wyżej zasadach prawnych, fundamentach politycznych i systemie podatkowo-bodźcowym, pogłębiały się problemy budżetu państwa i finansów publicznych. Pogarszał się relatywnie stan sektora publicznego, a w niektórych obszarach – jak zwłaszcza sektor B+R, sektor „produkcji kapitalu ludzkiego” i rynek pracy – mamy do czynienia z klęską. Spadał udział kosztów pracy 43  Badania miały charakter kohortowy, objęły lata 1990–1997 i stanowiły rozległe studia nad restrukturyzacją przedsiębiorstw w  procesie transformacji gospodarki polskiej, a  ich wyniki zostaly opublikowane w dwutomowym opracowaniu w 2001 roku. 44  Rentowność objętych badaniem przedsiębiorstw nie notowanych na GPW, przejętych potem przez „inwestorów” zagranicznych wynosiła w 1990 roku 26,3% i spadła po ich przejęciu (do –5,37%) w  1997 roku. W  przypadku przedsiębiorstw zagranicznych notowanych na GPW analogiczne wskaźniki wynosiły 25,87% i  9,48%, jeszcze gorsza była sytuacja firm oddanych za darmo w obcy zarząd w ramach programu NFI, co ilustrują liczby 29,89% i –7,94%. Nasza intuicja podpowiada, że ów radykalny spadek księgowej rentowności wymienionych dwóch rodzajów firm odzwierciedla skalę wywozu kapitału ukrytego w manipulacjach cen rozliczeniowych, kosztach obcego zarządu i różnych , „zgodnych z prawem” form opłat na rzecz firm macierzystych.


220

S.R. Domański

Tabela 2. Makroekonomiczna efektywność w Polsce według typów własności w okresie propagandowej nagonki na przedsiębiorstwa typu „3S” pod hasłem „przejadanie zysków” (wiosna 1993). Struktura finansów za okres I–IV 1993, udziały w %

Rodzaj wła‑ sności przed‑ siębiorstwa

Zaangażowany kapitał

Podatki obcią‑ żające zysk ogółem (i dochodowy w nawiasie)

Podatek obrotowy

Nakłady inwestycyjne

Spółki skarbu państwa

25,6

33,8 (28,3)

16,1

26,2

Państwowe typ „3S”

55,9

61,7 (65,1)

72,4

53,6

11,6

3,3 (4,8)

6,4

6,6

2,0

0,2 (0,3)

1,5

5,3

3,8

0,7 (1,1)

3,2

6,8

Prywatne Zagraniczne Mieszane pry‑ watne

Źródło: Domański [1997]. Obliczenia własne na podstawie danych Departamentu Statystyki MF.

w wartości sprzedaży firm i  płace w  Polsce permanentnie pozostają w  dolnych przedziałach tabel europejskich, wzrosła rozpiętość wynagrodzeń, znacznie psując standardy europejskie45, wyciekał z Polski kapitał ludzki pod postacią emigracji za chlebem, którego wartość szacujemy metodą dochodową na 1,2 bln dolarów [Domański, 2010], jawnie wyciekał kapitał finansowy.

8. Kwestia własnościowa w Państwie Prawa. Czy Prawo w Polsce jest godziwe? O sensie praworządności w kontekście użyteczności „w ogóle”

Ograniczam się tutaj do ekonomicznych aspektów i  konsekwencji przepisów prawa obowiązującego w Polsce, ale nie poprzez przestudiowanie „tych przepisów” chyba niewykonalne fizycznie, lecz przez przywołanie kilku przykładów pozwalających wyciągać ogólniejsze wnioski. Przede wszystkim przywołuję przykład referatów na konferencję Kolegium Studiów Społecznych czterech instytu45  Relacja dochodów górnego i dolnego kwintyla gospodarstw domowych wynosiła w Polsce w 2006 roku 6,6 przy przeciętnej europejskiej dla 27 krajów 4,9, a dla strefy euro 4,5.


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

221

tów PAN46 „20 lat transformacji systemowej” i dyskusji, jaka rozwinęła się nad „rządami prawa”, „państwem prawa” i „praworządnością”. Uderzający był kierunek, w którym pobiegła myśl moderatora, gdy chciał uzasadnić braki praworządności i niemoc „państwa prawa”. Mianowicie, parafrazując, „co to za rządy prawa, gdy gromada górników może przyjść pod Urząd Rady Ministrów czy Sejm i waleniem kijami bejsbolowymi wymusić zachowanie swoich przywilejów”. Takie ustępstwo miałoby stanowić dowód braku „państwa prawa”. Patrząc jednak z ekonomicznego punktu widzenia, pytanie, jakie trzeba by najpierw zadać, brzmi: „czy rzeczywiście  rozwiązania emerytalne dla górników można traktować jako przywileje?”. Cóż to bowiem jest przywilej? Właśnie z ekonomicznego punktu widzenia to takie rozwiązanie, które  pozwala danej grupie podmiotów osiągać jakąś „rentę ekonomiczną” ceteris paribus. Pierwszym testem, czy sytuacja górników jest „ceteris paribus” w porównaniu z innymi grupami zawodowymi, byłoby np. porównanie średniej długości życia górnika „dołowego” ze średnią w innych zawodach. Jeśli ta średnia okazałaby się niższa w przypadku górników, to wtedy „przywilej” nie jest przywilejem, tylko wynagrodzeniem zgodnym z „dysużytecznością” ich pracy, w porównaniu z „dysużytecznością” wszystkich innych. Wtedy też można by zobaczyć, czy ustąpienie górnikom w kwestii okresu przejścia na emeryturę (bo o to szło w sporze) było nie tylko zgodne z prawem, ale również – i  co ważniejsze – z  elementarnym rachunkiem ekonomicznym. Ergo – nie wtedy mamy pogwałcenie zasad państwa prawa, gdy władza nie używa siły wobec protestujących, ale wtedy gdy prawo jest implicite dyskryminujące i nie uwzględnia różnic sytuacji wyjściowej podmiotów, do których ma być stosowane. Puryści zapewne powiedzą, że „dura lex sed lex”, albo że „sprawiedliwość idzie za prawem”47, nawet jeśli jest to prawo niegodziwe, ale musi powstać i, jak uczy historia, zawsze powstawało pytanie, czy takie stawianie sprawy nie demoluje kapitału społecznego rozumianego jako internalizacja norm i reguł prawnych, zwyczajów i obyczajów regulujących zachowania społeczne i zakreślających mniej lub bardziej widzialne horyzonty tego, co „uchodzi za stosowne”, i sprawiających w konsekwencji, że ludzie kooperują z uwagi na swój własny interes powiązany w przejrzysty i ekwiwalentny sposób z  interesem innych, a cała maszyneria społeczna, pracując sprawnie, sprzyja pomnażaniu dobrobytu48. Prawo i ekonomia

W  tym zawiłym kontekście przemian systemowych z  ich clou w  postaci zmian własnościowych pojawia się problem strategii budowy norm prawnych. Jeśli bowiem przestępczość jest zjawiskiem „normalnym” , by nie powiedzieć drwiąco – pożądanym – to musi powstać kilka pytań. Po pierwsze, czy „walczyć” o obniżanie wskaźników przestępczości; po drugie, jak walczyć z  przestępczością; po trzecie, dlaczego postulaty (w Polsce zgłaszane przez opozycję – „wiadomo którą”) 46 

Konferencja „20 lat transformacji systemowej”, KSS PAN, listopad 2009, Pałac Staszica. Taka sentencja pojawia się jako motto na stronie internetowej Sądu Rejonowego w Zielonej Górze. 48  Powyższą interpretacją kapitału społecznego idę w ślad za Colemanem. 47 


222

S.R. Domański

podnoszenia stopnia penalizacji są niezasadne. Na takie pytania różnie zapewne odpowiadają przedstawiciele różnych dziedzin i profesji, a teoria ekonomii oferuje tu podejście, modelowo zarysowane przez Garego Beckera [1990, rozdział IV] ponad 40 lat temu, które w uproszczonej postaci trafiło też i do podręczników mikroekonomii. Model mianowicie skupia się na rachunku ekonomicznej efektywności wynikającej z porównania strat z tytułu przestępstw z kosztami trzech rodzajów zabiegów, którymi są: 11

prewencja,

11

ściganie,

11

karanie

i skuteczności każdego z nich. Szczególnie interesująca jest tu gra – koszty ścigania będące rosnąca funkcją prawdopodobieństwa wykrycia i  złapania sprawcy versus wysokość kary za przestępstwo. Okazuje się ostatecznie, że podnoszenie samego stopnia penalizacji nie spełnia roli czynnika odstraszającego, jeśli za tym idzie obniżanie nakładów na ściganie (policję, prokuraturę), gdyż to drugie obniża prawdopodobieństwo wykrycia i złapania sprawcy, czyniąc samą „straszną karę” jedynie potencjalnym, niestrasznym straszakiem. W odniesieniu do kwestii własnościowej zagadnienie ma do rzeczy, po pierwsze, na tyle, na ile – w początkowym czasie politycznej dominacji Unii Demokratycznej – udowodnianie nieprawidłowości przy prywatyzacji majątku narodowego pozostawiono samemu o nich donoszącemu, dając okres jednego roku na zgłoszenie nieprawidłowości; po drugie, na tyle, na ile sygnały „o wielkich przekrętach” prywatyzacyjnych, za którymi nie szły ani zabiegi prewencyjne, ani ściganie, pozostawały wiedzą potoczną. Wiedza taka destrukcyjnie wpływa na poziom kapitału społecznego, a stąd i efektywności gospodarowania – dostarcza też przesłanek co do wyboru skutecznych zachowań. Ale jeśli tak, to musimy dojść do pytania dotyczącego „nonszalanckiego” stosunku Polaków do prawa, a mianowicie: czy prawo w Polsce jest godziwe. Czy prawo w Polsce jest niegodziwe?

Podział ryzyka i podział zysków W „normalnym”, neoklasycznym, liberalnym rozumowaniu ekonomicznym przyjmuje się, że oczekiwana stopa zwrotu z „aktywów pewnych” jest niższa niż oczekiwana stopa zwrotu z aktywów ryzykownych z eleganckim (choć krytykowanym właśnie za elegancką prostotę) tego zwieńczeniem w przypadku rynków finansowych modelem CAPM. Ta ogólna reguła rozumowania dotyczy wszytkich rodzajów kapitału. W normalnym, neoklasycznym, liberalnym rozumowaniu kapitałem jest wszystko, co przynosi użyteczność i dochód, albo chociaż użyteczność. Z tej też przesłanki płynie przekonanie, że ekonomicznie uzasadnione jest, albo powiedzmy „ekonomicznie sprawiedliwe” jest, że „niosący ryzyko” (risk bearing agent, risk taker) oczekuje wyższej stopy przychodu z działalności (z usług kapitału


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

223

w dyspozycji) niż podmiot nie ponoszący ryzyka albo o ryzyku niższym. W relacjach „przemysłowych” „risk takerem” jest pracodawca i ten dlatego ma ekonomiczny tytuł do ewentualnego ekstra zysku, bo jest narażony na ewentualne straty. Towarzyszy temu równie naturalna reguła zapewniająca stabilność płac (dlatego mowimy, że płace są sztywne od dołu) i  bezpieczeństwo zatrudnienia (długoletnie kontrakty) pracującym czerpiącym przychód z wynajmowanego pracodawcom swojego kapitału ludzkiego. W  ślad za tym idą reguły dotyczące odpraw i ewentualnie zasiłków dla tych, którzy pracę utracili w wyniku obiektywnych fluktuacji rynkowych. Mamy wtedy przejrzysty obraz dobrze funkcjonującej gospodarki - zmienne zyski, okresowo być może bardzo wysokie, przypadające pracodawcom, stowarzyszone z ryzykiem, które biorą na siebie, i względnie stabilne płace stowarzyszone z zabezpieczeniami przed ryzykiem zatrudnionych właścicieli kapitału ludzkiego. Po tym zresztą rozpoznajemy, jak daleko rozwiązania regulujące rynek w funkcjonującym systemie odbiegają od reguł właściwych dla rynku konkurencyjnego z całą jego złożonością determinowaną również związkiem między ryzykiem związanym z użytkowaniem kapitału i dochodem otrzymywanym z tytułu tego użytkowania Jeśli zatem Henryka Bochniarz i Jeremi Mordasiewicz wywalczają „elastyczny czas pracy”, „elastyczne formy zatrudnienia” i tym podobne rozwiązania przenoszące część ryzyka z pracodawcy na zatrudnionych, to czy wtedy należy się zatrudnionym premia za ryzyko, by zachować rynkowe zasady wynagradzania za użytkowanie kapitału ? Czy wtedy nie powinno być jakiejś formy automatycznej partycypacji w  „ekstra zyskach”, czy jakiejś innej formy zadośćuczynienia za przejęcie części ryzyka przez zatrudnionych. Kierując się kryterium zgodności z regułami wolnego, a więc godziwego rynku, powiemy, że tak, że się należy. Czy mamy w Polsce pod tym względem prawo godziwe? Czy też prawo niegodziwe, łamiące fundamenty wolnorynkowe na rzecz interesu łatwej do zdefiniowania klasy tych podmiotów, które zachowały dominującą pozycję w strukturze społecznej dzięki tak, a nie inaczej poprowadzonej prywatyzacji gospodarki? Własność i prawo. Gdzie są nasze pieniądze? Stałym, można powiedzieć, elementem publicznej oceny prywatyzacji gospodarki, polskiej i jej efektów, jest słowo „bezcen”. Majątek narodowy został mianowice wyprzedany za „bezcen” tzw. „zagranicznym inwestorom strategicznym”49 z myślą, że prywatyzacja, jak by nie była dokonana, pomnoży efektywność gospodarki, podniesie inwestycje, pobudzi wzrost gospodarczy i siłą tych oczywistych faktów podniesie dochody pracujących oraz dochody budżetowe niezbędne do prawidłowego wykonywania zadań przez państwo i  sektor publiczny. Ku zaskoczeniu jednak, wbrew początkowym propagandowym obietnicom, utrzymują się trudności budżetowe i  postępuje ”wyjadanie” kolejnych fragmentów sektora publicznego przez pieczeniarski sektor prywatny – od infra49  Na koniec 2009 roku 80% sektora ubezpieczeń, 70% bankowego, 60% przemysłowego i 40% developerskiego”, zgodnie ze statystykami GUS, pozostawało w rękach podmiotów zagranicznych.


224

S.R. Domański

struktury rzeczowej gospodarki do degradacji sektorów kapitału ludzkiego. W konsekwencji pojawiają się bariery rozwoju samego sektora prywatnego i dalszego wzrostu zgodnie z prawem malejącej krańcowej przychodowości jednych czynników, gdy inne rosną w niedostatecznym stopniu albo ulegają degradacji w wymiarze jakościowym, przy pozorach wzrostu ilościowego. Można sądzić, że wbrew powierzchownym rachunkom dodatniego salda bilansu obrotów kapitałowych skala napływu kapitału jest zbyt mała, a podział osiąganej nadwyżki nieadekwatny do rzeczywistej wielkości i struktury popytu na reinwestycje, a tego zewnętrznym nierozłącznym objawem jest trwały wysoki poziom bezrobocia i wyciek kapitału ludzkiego o wartości szacowanej metodą dochodową na 1,6 bln dolarów w 2008 roku. W istocie, funkcjonujące rozstrzygnięcia prawne, nagłaśniane jako liberalne, legalizują i dopuszczają zachowania i wybory odległe od zasad funkcjonowania liberalnego konkurencyjnego rynku. Precyzyjne i pogłębione analizy zjawiska stanowią wciąż wyzwanie nie postawione przed niezależnymi placówkami badawczymi, ale nagłośnione już przypadki rozwiązań i zachowań warte są przytoczenia dla ilustracji problemu. Do takich należy przymus II filaru emerytalnego i administracyjne przepisy gwarantujące wysokie marże Powszechnym Towarzystwom Emerytalnym i wysokie zyski dosłownie za nic, bez ryzyka i bez względu na szkody wyrządzane samym środkom gromadzonym na indywidualnych kontach emerytalnych o  nie sprecyzowanym statusie własnościowym. Dlatego też głośnym echem odbijał się przez dłuższy czas spór jednego z obywateli w sprawie obowiązkowości wpłat do OFE oraz „natury własnościowej pieniędzy lokowanych na kontach indywidualnych”. W tej sprawie Sąd Najwyższy wydał sentencję, którą można sparafrazować chyba następująco: „Wpłaty składek emerytalnych do OFE są obowiązkowe. Konta w  OFE są indywidualne, należą do swoich posiadaczy. Pieniądze na nich zgromadzone nie są ich własnością”. Musi się więc pojawić pytanie, jak wymuszać na PTE rynkowe zachowania konkurencyjne, gdy korzystają z tak nierynkowo zorientowanej osłony prawnej? Sprawy przekształceń własnościowych w sektorze bankowym w okresie transformacji systemowej były, a raczej miały być przedmiotem badań specjalnie do tego celu powołanej Komisji Sejmowej. W  sprawie funkcjonowania Komisji Trybunał Konstytucyjny wydał – w  odpowiedzi na interpelację posła Platformy Obywatelskiej A. Grada – znamienny wyrok, który można sparafrazować zdaniem: „Komisja jest legalna, ale nie ma PRAWA o nic pytać”. Czy takie prawo jest godziwe? Pytanie to szczególnie zasadnie brzmi po tym, gdy świat musiał wysupłać bilony dolarów na likwidację i  zapobieżenie skutkom frywolności decyzji banków pozostających de facto poza wszelką kontrolą.

9. Konkluzja Kwestia własnościowa w transformacji systemowej wyłania się jako multidyscyplinarny, paradoksalne – ale jednak zaniedbany – projekt badawczy: „prywatyzacja – własność kapitału– zasady podziału a  rozwój gospodarczy”. Różnie o  tym


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

225

mogą mówić prawnicy i socjologowie, ale ”prawdziwi ekonomiści”, neoklasycy powiedzą, że ekonomicznie efektywny, a więc jednocześnie sprawiedliwy jest ten system podziału, w którym czynniki wynagradzane są według ich krańcowej produkcyjności. Jest to „chicagowski ideał dedukcyjny” – rdzeń, którego istnienie pozwala nam odkrywać – wychodząc z kategorii użytecznosci i biorąc pod uwagę wycenę efektów zewnętrznych – czy „rzeczywistość jest inna”. Dzięki konfrontacji ideału modelowego gospodarki konkurencyjnej z  empirycznymi efektami funkcjonowania gospodarki znajdujemy przesłankę do poszukiwań regulacji prawnych zgodnych z ideą rynku konkurencyjnego, kreujących i wzmacniających taki rynek. Z takiej konfrontacji może w szczególności płynąć uzasadnienie, dlaczego np. górnikom dołowym „patrząc z boleśnie czysto ekonomicznego punktu widzenia” należą się „przywileje emerytalne”, bo inaczej nie byliby wynagradzani zgodnie z  ich produkcyjnościa krańcową. Przy takich fundamentach myślenia ekonomicznego trudniej jednym zarzucać populizm i  łatwiej drugim odróżnić liberalizm ekonomiczny od ekonomicznego idiotyzmu. Łatwiej też pojąć, dlaczego Polacy, przed którymi Komensky przestrzegał króla szwedzkiego, że „nie umieją ustąpić przed niczym, co nie jest wznioślejsze”, mieliby szanować zmiany własnościowe i obudowujące je prawo, które nie tylko, że nie jest wzniosłe, to może jest niegodziwe, i  które – jak utrzymuje Tadeusz Kowalik [2009], wychodząc z innych niż ja pozycji – tworzy „najbardziej niesprawiedliwy w Europie ustrój”?

Bibliografia Amalrik A. [1969], Prosushchestwuet li Sovitski Soiuz do 1984 goda?, Fond im. Gertsena, Amsterdam (wyd. ang.: Will Soviet Union Survive to 1984?, Harper and Row, New York 1970). Arendt H. [1951], The Origins of Totalitarianism, Harcourt, Brace and Co., New York. Becker G.S. [1989], Why Solidarity Should Play the Role of the Point Man in Polish Economic Reform, “Business Week”, 31 August. Becker G.S. [1990], Ekonomiczna teoria zachowań ludzkich, PWN, Warszawa. Cloud Still Hovers Over New Salomon [1992], “Chicago Tribune”, February 15. Cui Z. [1991], „Reflections on Eastern European Transformation: Compared with China”, maszynopis, World Competition and Cooperation Semminar, University of Chicago, June. Daszczyński R. [2010] Spełniony sen Adama Michnika (w:) Narodziny Solidarności. Kroniki Sierpniowe, Biblioteka „Gazety Wyborczej”, Copyright by Agora S.A. Domański S.R. [2010], „Stopa procentowa jako narzędzie podziału i strategii gospodarczej”, maszynopis, Warszawa. Domański S.R. [1997], Private and State Sector Performance In Polish Manufacturing, “Working Papers”, Instytut Nauk Ekonomicznych PAN, Warszawa. Domański S.R [2001], Zmiany w strukturze własności kapitału, a fundamentalne relacje ekonomiczne (w:) Restrukturyzacja przedsiębiorstw w procesie transfomacji systemowej”, INE PAN, GiD, Warszawa.


226

S.R. Domański

Fukuyama F. [1990], The End of History? (w:) A  Look at the End of History, K.M. Jensen (ed.) United States Institute of Peace, Washigton, DC. Hankis E. [1990], East European Alternatives, Oxford University Press, Oxford. Havel V. [1990], Disturbing the Peace, Knopf, New York Jarmułowicz H., Mączyńska E., Zawadzki M. [2001], Jak zostać liderem? (Zakłady Celulozowo-papiernicze w  Kwidzynie – obecnie International Paper Kwidzyn SA) (w:) Restrukturyzacja przedsiębiorstw w procesie transformacji gospodarki polskiej, red. E. Mączyńska t. II, DiG, Warszawa. Jędrzejczak G. [1991], Privatization and the Reform Process: the Case of Poland, Mont Pelerine Society Regional Meeting, Praga. „Komentarz do Programu Powszechnej Prywatyzacji”[ 1991], maszynopis, czerwiec. Konferencja „20 lat transformacji systemowej”, KSS PAN, listopad 2009, Warszawa. Kornai J. [1990], The Road to a Free Economy, Shifting from Social System. The Example of Hungary, Budapest. Kowalik T. „Animal spirits w polskiej transformacji”, referat wygłoszony na konferencji „Bariery rozwoju Polski z  perspektywy ekonomicznej i  psychologicznej”; Kolegium Studiów Społecznych Instytutów PAN; Instytut Nauk Ekonomicznych i Instytut Psychologii PAN. Kowalik T. [2009], www.Polskatransformacja.pl, Warszawa. Kuran T. [1991a], “Now out of Never”, maszynopis prezentowany na seminarium Rational Models Workshop, Wydział Ekonomii, Uniwersytet Chicagowski, 15.10.1991. Kuran T. [1991b], Now out of Never…the Element of Surprise in the East European Revolution of 1989, “World Politics”, Vol. 44, No.1. Kuran T., [1989], Sparks and Prairie Fires: A  Theory of Unanticipated Political Revolution, “Public Choice”, No. 61. Lipton D., Sachs J. [1991], Shock Therapy and Real Incomes, “Financial Times”, Tuesday, January 29. Mann T. [1985], The Magic Mountain, A.A. Knopf, New York. Murphy K.M., Shlaifer A., Vishny R.W. [1991], “The Transistion to a Market Economy: Pitfals of Partial Planning Reforms”, maszynopis, Economy and Labor Organisation Semminar, University of Chicago, October. Pindak F. [1988], Gorbachew Reform (Pierestrojka), Development Planning Centre, Erasmus University Rotterdam. Przedsiębiorstwa wg przedziałów współczynnika rentowności [1991], Departament Majątku i Dochodu Narodowego, GUS, wrzesień. Przeworski A. [1991], Democracy and the Market: Political and Economic Reforms in Eastern Europe and Latin America, Cambridge University Press. Schmitter P. [1975], Liberation by Galope, “Armed Forces and Society”, November. School Brief - Democracy in Eastern Europe [1992], “The Economist”, February. Słowacki J. [1952], Pośród niesnasek Pan Bóg uderza.. (w:) Dzieła, t. I, Liryki i wiersze, Wydawnictwo Zakładu Narodowego im Ossolińskich, Wrocław. Sołżenicyn A. [1999], Rosja w zapaści, Politeja, Warszawa. The State and Private Sector Performance in Poland – a Slightly Uncommon Glimpses [1996] (w:) Privatization in the Economies in Transition, N.P. Ostojić, I.N. Scott


KWESTIA WŁASNOŚCIOWA W TRANSFORMACJI SYSTEMOWEJ

227

(eds), European Center for Peace and Development, United Nations University for Peace, Beograd. Ustawa z dnia 25 września 1981 r. o przedsiębiorstwach państwowych, Dz. U. z dnia 30 września 1981 r. Ustawa z dnia 25 września 1981 r. o samorządzie załogi przedsiębiorstwa państwowego, Dz. U. z dnia 30 września 1981 r. Ustawa z dnia 26 lutego 1982 r. o planowaniu społeczno-gospodarczym, Dz. U. nr 7 z dnia 9 marca1982 r. Ustawa z  dnia 24 lutego 1989 r. o  niektórych warunkach konsolidacji gospodarki narodowej oraz zmianie niektórych ustaw, Dz. U. z 1989 r. nr 10 poz. 57. Ustawa z dnia 12 maja 2006 roku o zmianie ustawy o komercjalizacji i prywatyzacji, Dz.U. z 2006 r. nr 107, poz. 721. W sprawie strategii dla Polski (w:) Przełomowy rok 1956 a współczesność, Z. Sadowski (red.), PTE, Warszawa 2007.

Streszczenie Tezą wiodąca artykułu jest, że specyficzna droga wprowadzania prywatyzacji gospodarki w Polsce jest głównym czynnikiem, który wyjaśnia zarówno zagadkę pokojowego upadku systemu, jak i istotę poprzedzającego go stanu wojennego kładącego kres spontanicznym, oddolnym i dalekosiężnym przemianom ustrojowym. Sposoby wprowadzania prywatyzacji są także trwałym czynnikiem napięć, niezadowolenia i frustracji permanentnie wyłaniających się na przestrzeni dwudziestolecia datowanego od czerwca 1989 roku. Artykuł składa się z trzech części. W pierwszej zatytułowanej „Trismus” polemizuję z obrazem narodów Europy Centralnej malowanym w literaturze i opinii publicznej. Ta część, choć historyczna, jest niezbędna jako tło, które ma uzmysławiać ciągłość struktury dominacji społecznej, którą demaskuję w zamykającym ją pytaniu: „Dlaczego system komunistyczny, reżim, który bronił się uparcie przez długie lata, w  końcu upadł pokojowo?”. Pytanie to stanowi jednocześnie otwarcie części II pt. „Transformacja”. Punkt „Poczwarka nomenklaturowa” jest tu kluczowy dla rozwiązania zagadki rzekomo nagłego i faktycznie spokojnego upadku komunizmu. W części trzeciej referuję efekty prywatyzacji u jej progu traktując je jako kryterium oceny słuszności wyboru takiej a nie innej formy prywatyzacji, a także fundament w ogóle samej możliwości myślenia podmiotowego o strategii przez naród i państwo polskie. W szerszym tle kwestii prywatyzacyjnej pojawia się tu aspekt końca historii – by zacytować Fukujamę - ale nie tyle ucieleśniony w politycznej organizacji liberalnego demokratycznego państwa współczesnego, co realizujący się w niektórych formach organizacji struktury dominacji w sferze realnej. Słowa kluczowe: efektywność prywatyzacji, formy własności, metody prywatyzacji, spółki nomenklaturowe, własność pracownicza, sprawiedliwość ekonomiczna, transformacja.


228

S.R. Domański

OWNERSHIP IN SYSTEMIC TRANSITION This paper proposes that the specific way of privatization process is the main factor which explains both the puzzle of peaceful collapse of the communist regime in Poland, as well as the very essence of the Marshall Law introduced in 1981 in order to put an end to the spontaneous, democratic, far-reaching systemic changes to be implemented under the Solidarity pressure. Ways of privatization have also been a factor of durable tensions, discontent and frustration permanently emerging since 1989. The paper consists of three parts. In the first one, titled “Trismus”, I contest the picture of the Central European nations that was presented both in the literature and in public debates. This part, although purely historical one, is needed as a  background to understand the continuity of the pattern of social domination exposed in the closing question: “Why did the communist order, a  regime that defended itself stubbornly for a  long time, at last collapsed peacefully?” Simultaneously, this question opens the part II of the paper titled “Transition”. The chapter “Nomenklatura Chrysalis” is crucial for solving a puzzle of the seemingly sudden and actually peaceful fall of the communism. In the third part I relate the results of different ways of privatization in its very beginning. I treat the results as the criteria for evaluation of the rationality of choosing given way of privatization as well as the actual basis of the very possibility of subjective thinking by the Polish nation and the Polish state about the strategy of development. In the wider context of privatization process an aspect of the end of history – to quote Fukuyma – emerges, but not one embodied in political organization of contemporary democratic state, but one apparent in different forms of the structure of social domination in the real sector. Key words: efficiency of privatization, forms of ownership, privatization methods, nomenclature firms, employee ownership, economic justice, systemic transition.


Studia ekonomiczne 1 Economic studies nr 2 (LXV) 2010

Listy do redakcji

MAKROKONFUZJA: DYLEMATY TEORII EKONOMICZNEJ Powstaje tu więc sytuacja bynajmniej nierzadka w historii myśli ekonomicznej: tworzy się teorie, które, chociaż poruszają interesujące zagadnienia, nie bardzo są pomocne w zrozumieniu tego, co istniało, istnieje lub powinno istnieć w rzeczywistości”1 Michał Kalecki

Hiszpański filozof José Ortega y Gasset w swej krótkiej rozprawie z 1914 roku „Medytacje o „Don Kichocie”’ przywołuje pouczającą przypowieść angielskiego podróżnika z końca XIX wieku: „Opowiada Parry jak w czasie wyprawy polarnej posuwał się przez cały dzień w kierunku północnym, zmuszając do galopu dzielne psy ciągnące sanie. Pod wieczór sprawdził poczynione obserwacje, aby określić swoje położenie i – ku wielkiemu zdumieniu – spostrzegł, że znajdował się znacznie bardziej na Południe aniżeli rano. Okazało się, że przez cały dzień uparcie zmierzając na Północ, poruszał się po olbrzymiej lodowej krze, którą prąd oceaniczny spychał na Południe”2. Podobnej konfuzji – jak wspomniany podróżnik angielski – doświadczyliśmy od sierpnia 2007 roku, gdy w ciągu paru godzin z giełdy nowojorskiej „wyparował” kapitał wielkości rocznego PKB Stanów Zjednoczonych (około 14 bln USD). Wpadliśmy w czarną dziurę kryzysu finansowego i stało się to w czasie, gdy amerykańscy ekonomiści głównego nurtu ogłaszali „New Growth Theory” (Paul Romer) oraz „New Economy” itp. Powiadam moim dzieciom, że to, co czyni podobnym obecny kryzys do Wielkiego Kryzysu z przed 70 lat, to fakt, iż wówczas i obecnie ekonomiści zapewniali nas, że – jak powiadał Wolterowski Pangloss – wszystko dzieje się najlepiej na tym najlepszym z możebnych światów. Natomiast to, co różni oba kryzysy, to fakt, iż wówczas bankrutujący inwestorzy i  bankierzy rzucali się na bruk, a  obecni 1  M. Kalecki, Dzieła. Tom 4, Socjalizm, Teorie wzrostu w  różnych systemach społecznych, Państwowe Wydawnictwo Ekonomiczne, Warszawa 1984, s. 125. 2  José Ortega y Gasset, Medytacje o „Don Kichocie”, Warszawskie Wydawnictwo Literackie MUZA SA, Warszawa 2008, s. 80 i 81.


230

S. Małecki-Tepicht

inwestorzy i  bankierzy – jeśli jak Madoff nie trafili do więzienia na 150 lat – wypłacili sobie niezwykle wysokie nagrody pieniężne za zarządzanie nie swoim kapitałem. Jak widać, notujemy same konfuzje. Tyle zamiast wstępu. A co na to teoria ekonomii? 26 lat temu William D. Nordhaus ogłosił artykuł pod tytułem Macroconfusion: The Dilemmas of Economic Policy. Pozwoliłem sobie na pewną drobną trawestację tego tytułu. Już wówczas – ponad ćwierć wieku temu – panujący główny nurt ekonomii amerykańskiej budził znaczne wątpliwości, czego znaczącym dowodem jest właśnie wspomniany tekst Nordhausa. Sprawa była istotna. W dużym skrócie toczący się spór można sprowadzić do pytania: czy rzeczywistość gospodarcza ma „pasować” do licznie tworzonych walrasowskich modeli matematycznych stanu ogólnej równowagi, czy przeciwnie – tworzone modele powinny „pasować” do opisywanych przez nie realnych procesów gospodarczych3. Robert Solow kończy swój komentarz do artykułu Nordhausa następującym sformułowaniem: świat nie jest podobny do modelu Walrasa […] chciałbym przekonywać na rzecz trochę większej wyobraźni: być może świat ma swoje powody, żeby nie być „bytem” walrasowskiej równowagi4. Rok później - w 1984 roku - w rozmowie z  Arjo Klamerem, Robert Solow opowiada anegdotę5, dlaczego nie wdaje się w  dyskusje z  czołowymi przedstawicielami neoklasycznej ekonomii Robertem Lucasem lub Thomasem Sargentem. Warto ją przytoczyć: przyjmijmy, że na miejscu pana siedzi ktoś, kto powiada mi, że jest Napoleonem Bonaparte. Ostatnią rzeczą, którą chciałbym z  nim robić, to dać się wciągnąć w  techniczną dyskusję o  taktyce kawalerii pod Austerlitz. Gdybym to zrobił, oznaczałoby to, że milcząco dałem się wciągnąć w grę, w której on rzeczywiście jest Napoleonem6. Można by zasadnie powiedzieć, że jest to spór z przed trzydziestu lat. Przyjrzyjmy się, jak ów spór komentuje w  2006 roku znacznie młodszy od wymienionych uprzednio – hiszpański ekonomista z  Katalonii Xavier Sala-I­ ‑Martin. W rozmowie z Snowdonem Sala-I-Martin mówi: W latach 60. neoklasyczna rewolucja uczyniła teorię wzrostu niezwykle matematyczną i  abstrakcyjną dziedziną. Tworzono wiele pięknych modeli wzrostu gospodarczego, których wyniki były bez znaczenia. Końcowym efektem pracy było stwierdzenie, że dla danego modelu istnieje szczególny stan równowagi – i  wszyscy byli bardzo szczęśliwi (śmiech)7. Jest tak tym bardziej, gdy się pamięta, że z teorii realnego cyklu gospodarczego Edwarda C. Prescotta wynika, że bez względu na to, czy gospodarka 3  William D. Nordhaus, Macroconfusion: The Dilemmas of Economic Policy, Cowles Fundation Paper 568, Reprint from James Tobin (ed.) Macroeconomics, Prices and Quantities Essey in Memory of Arthur Okun, The Brookings Institution, 1983. 4  Tamże. 5  Również prof. Witold Kwaśnicki w swoim tekście zamieszczonym w „Studiach Eko­no­micz­ nych” w nr 3-4 (LXII-LXIII) odwołał się do wspomnianej opinii Solowa, co – jak sądzę – potwierdza tylko, ze sama anegdota jest warta przytoczenia, tym bardziej w zestawieniu z przywołanym przeze mnie sformułowaniem Xaviera Sala-I-Martina. 6  Arjo Klamer, Conversations with Economists, New Clasical Economists and Their Opponents Speak Out on the Current Controversy in Macroeconomics, by Arjo Klamer, Rowman & Littlefiled Publischers, Inc. 1984, s.146 7  Xavier Sala-i-Martin, The Enduring Elixir of Economic Growth, Xavier Sala-i-Martin on the wealth and poverty of nations, Brian Snowdon, “World Economics”, Vol. 7, No. 1, January–March 2006, s. 94.


MAKROKONFUZJA: DYLEMATY TEORII EKONOMICZNEJ

231

jest w  fazie wzrostu lub upadku – zawsze jest w  stanie Walrasowskiej równowagi. Dlaczego teoria nie odpowiada praktyce? Odpowiedź, że mamy do czynienia z teoretyczną idealizacją jest banalna i niewystarczająca. Każdy proces teoretycznej idealizacji można „odwrócić”, uchylając kolejne założenia idealizacyjne – „urealnić” tak, ażeby można było odnieść wyniki teoretycznego modelu do procesów realnych. Możliwe do stosowania procedury „de-idealizacji” odnajdujemy w pracach zmarłego Leszka Nowaka8. Ekonometrycznych modeli ogólnej równowagi głównego nurtu współczesnej ekonomii nie da się „skonkretyzować”, przybliżyć do rzeczywistych procesów gospodarczych, dlatego że należałoby zrezygnować z podstawowego idealizacyjnego założenia tej teorii – należałoby uchylić aksjomat Walrasowskiej równowagi. Świat, który jest w wiecznym ruchu, jest stale w stanie permanentnej nierównowagi. I dlatego jest w ruchu. Drugie założenie dotyczy „bytów gospodarujących”, o których czytamy w tekście Roberta Lucasa Jr. z 1988 roku: „Używam pojęcia » teoria« w bardzo ograniczonym znaczeniu odnosząc je do pewnego prostego mechanicznego systemu, który działa po wprowadzeniu go do komputera. Tak właśnie rozumiem „mechanikę” rozwoju gospodarczego; jest to w moim rozumieniu budowanie sztucznego świata, zaludnionego przez współdziałające ze sobą roboty, jakimi normalnie zajmują się ekonomiści, umożliwiającego pokazanie podstawowych właściwości rzeczywistego świata, tego, który właśnie opisuję”9. Trudno się zgodzić, że „sztuczny świat zaludniony przez roboty” odzwierciedla „podstawowe właściwości rzeczywistego świata”. „Byty gospodarujące” – producenci i konsumenci, firmy, gospodarstwa domowe i państwo – to nie są automaty, i być nie mogą, czego świadectwo odnajdujemy w  twierdzeniach Kurta Gödla. Warto zwrócić uwagę, że ów „sztuczny świat robotów”. dopełniony przez Paula Romera formułą Endogenous Technological Change – jest szczególnym przypadkiem „bytu samego w sobie”. Jest to zatem „byt” posiadający swe własne, wewnętrzne (endogenous) źródła wzrostu, które Romer określa mianem „technological change”10 – i owe zmiany technologiczne są generowane przez „byt” i same się multiplikują. Nauki naturalne – biologia, chemia i fizyka – nie dostarczają nam żadnej wiedzy o tym, że w przyrodzie są byty, które same endogenicznie utrzymują się przy życiu. Inaczej mówiąc, w  głównym nurcie teorii ekonomii mamy do czynienia z  perpetuum mobile. Z pierwszego i drugiego prawa termodynamiki wiemy, że nie istnieje taki „byt”, który posiadałby sam z  siebie wewnętrzne źródła energii – utrzymujące w stałym ruchu perpetuum mobile. 8  Leszek Nowak, Model ekonomiczny; stadium z  metodologii ekonomii politycznej, PWE, Warszawa 1972; O  ukrytej jedności nauk społecznych i  przyrodniczych. http:/main.amu.edu. pl/~epistemo/Nowak/. 9  Robert E. Lucas, Jr, On the Mechanics of Economic Development, “Journal of Monetary Economics” 22 (1988), 3-42, North Holland. 10  Paul M. Romer Endogenous Technological Change, “The Journal of Political Economy”, Vol. 98, No. 5, Part 2: (Oct., 1990), s. 71–102.


232

S. Małecki-Tepicht

Tak jak jest to niemożliwe w fizyce – jest to również niemożliwe w gospodarce. Każde gospodarowanie – czy to Robinsona Crusoe, czy też Billa Gatesa – musi mieć „zewnętrzne zasilanie”, jest zawsze egzogeniczne, a nie endogeniczne. O tym, że gospodarowanie nie jest w żadnym przypadku perpetuum mobile przekonuje nas cały dorobek ekonomiczny Nicholasa Georgescu-Roegena, a w szczególności jego praca z 1971 roku The Entropy Law in the Economic Process. Obserwujemy pewne próby „obejścia” drugiego prawa termodynamiki oraz wynikającego z niego prawa rosnącej entropii. To nie oznacza, że prawa termodynamiki nie działają i że nie ma entropii. Entropia jest i doświadczamy tego naocznie w rosnącym zużyciu energii i równocześnie w pogarszających się warunkach środowiska naturalnego, rosnących rozmiarach odpadów i zanieczyszczeń. I nie jest tak, jak powiada Romer, że „za sto lat dochód per capita będzie pięć do dziesięciu razy wyższy niż obecnie, to płacenie trochę wyższych kwot za energię wydaje się sprawą drugorzędną”. Na chwilę wyobraźmy sobie, że perpetuum mobile – istnieje. Co by to oznaczało? „Byt” taki w  celu trwania i  przetrwania musiałby wytwarzać energię. Wytwarzana energia jest – z punktu widzenia ekonomii – nakładem przeznaczonym na utrzymanie „bytu” w trwaniu. Ów „byt” wiecznie trwały – zgodnie z zasadami pełnego determinizmu Endogenous Growth Model nie tylko trwa endogenicznie napędzany – ale rośnie, to oznacza, że taki „byt” musi maksymalizować energię - inaczej mówiąc musi maksymalizować nakład. Endogenicznie napędzany „byt” musi maksymalizować nakład – energię podwójnie, po pierwsze dla wytwarzania energii, która to kolejna „porcja” energii jest niezbędna dla nieustannego wzrostu „bytu”. Wytwarzana energia i wykorzystywana energia generuje nieodwracalne procesy entropii – tym samym sprawia, że „produktywność krańcowa” wykorzystywanej energii spada. Oznacza to, że coraz większe „porcje” energii muszą być przeznaczone na przyrost jednostki efektu (cokolwiek by to miało być) w celu dalszego trwania perpetuum mobile. Natomiast nieodwracalne procesy rosnącej entropii, przechodzenie od „porządku” do „nieporządku”, wytwarzają „produkty entropijne”, które muszą znaleźć ujście. Jeśli owego ujścia nie ma, to cały „byt” się rozpada jak parowy kocioł pod ciśnieniem. Jeżeli zaś jest ujście dla „produktów entropijnych” – to „cała para idzie w gwizdek”. Tak czy inaczej – jak powiadał Leszek Kołakowski – „tak niedobrze i  tak niedobrze. Wszystko niedobrze”11. I dlatego właśnie perpetuum mobile za sprawą drugiego prawa termodynamiki – rosnącej entropii – nie ma racji bytu. Historyczny determinizm był wpisany w  taki eksperyment społeczny, który nazywał się „socjalistyczna gospodarka centralnie planowana”. Był to szczególny przypadek społecznego perpetuum mobile, którego finalnym efektem było dążenie do maksymalizacji nakładu. I taki system musiał upaść – i upadł, co starałem się wykazać w swojej pracy Ekonomiczne źródła wzrostu i upadku gospodarki socjalistycznej12. 11  Leszek Kołakowski, Bajki różne, opowieści biblijne, rozmowy z diabłem, Iskry, Warszawa 1990, s. 160. 12  Stefan Małecki-Tepicht, Jerzy Tepicht, Ekonomiczne źródła wzrostu i  upadku gospodarki socjalistycznej, Wydawnictwo Naukowe SCHOLAR, Warszawa 2003.


MAKROKONFUZJA: DYLEMATY TEORII EKONOMICZNEJ

233

Ponadto formule endogenicznego modelu wzrostu – którego cechą szczególną jest pełny determinizm, samonapędzającego się wewnętrznie wzrostu – przeczą prawa logiki. Odwołuję się w tym miejscu do dwóch słynnych twierdzeń Kurta Gődla, o których John D. Barrow, angielski fizyk i matematyk, pisze następująco: „Każdy system wystarczająco bogaty, żeby zawierać arytmetykę musi być niezupełny albo sprzeczny” oraz „W arytmetyce muszą istnieć zdania, których prawdziwości ani fałszu nie da się określić przez zastosowanie reguł dedukcyjnych arytmetyki do zbioru jej aksjomatów”. Inaczej, twierdzi Barrow, twierdzenie Gödla mówi po prostu, że „arytmetyka nie może udowodnić niesprzeczności arytmetyki”13. Przytoczona wyżej opinia ma swe źródło w dwu twierdzeniach Gödla. Twierdzenie pierwsze o niezupełności orzeka, że: „jeżeli nie każde zdanie prawdziwe dające się sformułować w danym systemie daje się wywieść z  aksjomatów (systemu), to taką aksjomatykę nazywamy »niezupełną«”. Twierdzenie drugie o sprzeczności stanowi o „niemożliwości podania dowodu niesprzeczności systemów zawierających arytmetykę wyłącznie za pomocą środków ( aksjomatów) tych systemów”14. Jakkolwiek przedmiotem twierdzeń Gödla jest szeroko rozumiana arytmetyka, to jestem przekonany, że wnioski płynące z  owych twierdzeń, dotyczą wszelkich nauk, co w  pewnym momencie starał się wykazać wybitny polski logik Alfred Tarski. Potwierdzenie mojego przekonania o  tym, że oba twierdzenia z  zakresu logiki odnoszą się szerzej również do tak zwanych „nauk społecznych”, odnajduję w  pracy Stanisława Krajewskiego Twierdzenie Gödla i  jego interpretacje filozoficzne. Autor przywołuje w  niej opinię Gödla o  tym, że „społeczeństwo całkowicie pozbawione wolności (czyli takie, w którym postępuje się według ścisłych reguł »konformizmu« [rules of »conformity«]) będzie w  swym zachowaniu albo sprzeczne [niespójne, incosistent], albo niezupełne [incomplete], czyli niezdolne do rozwiązywania pewnych problemów, być może o żywotnym znaczeniu. Jedno i  drugie może oczywiście zagrozić jego przetrwaniu w  trudnej sytuacji. Podobna uwaga ma zastosowanie do pojedynczych ludzi”15. Tak zatem formuła Roberta Lucasa Jr. o tym, że „mechanika” rozwoju gospodarczego jest to […] budowanie sztucznego świata, zaludnionego przez współdziałające ze sobą roboty […], to znaczy, że rozwój gospodarczy dotyczy świata, w którym postępuje się według ścisłych reguł »konformizmu« - w świetle obu twierdzeń Gödla – nie daje się utrzymać. Trawestując przywołane twierdzenia Kurta Gödla można zasadnie stwierdzić, że „każdy system wystarczająco bogaty, żeby zawierać neoklasyczną teorię ekonomii musi być niezupełny albo sprzeczny” oraz dalej „teoria neoklasyczna nie może udowodnić niesprzeczności teorii neoklasycznej w ramach swych własnych aksjomatów”.

13  John D. Barrow, Kres możliwości. Granice poznania i poznanie granic. Na ścieżkach nauki. Prószyński i S-ka, Warszawa 2005, s. 240. 14  Ernest Nagel, James R. Newman, Twierdzenie Gödla, Państwowe Wydawnictwo Naukowe, Warszawa 1966, s. 65. 15  Stanisław Krajewski, Twierdzenie Gödla i  jego interpretacje filozoficzne, Wydawnictwo Instytutu Filozofii i Socjologii PAN, Warszawa 2003, s. 325.


234

S. Małecki-Tepicht

To nie jest chyba tylko przygodna koincydencja zachodząca pomiędzy faktem z dziedziny fizyki niemożności stworzenia perpetuum mobile – zamkniętego samonapędzającego się „sztucznego świata współpracujących robotów” – i  twierdzeniami logiki Kurta Gödla o niezupełności i niedowodliwości niesprzeczności systemów na gruncie ich własnych założeń. I  tak zeszliśmy na grunt założeń neoklasycznej ekonomii, powróciliśmy do dyskursu z przed 50 laty o realności założeń modeli ekonomicznych. Dyskusję tę przerwał jedynym cięciem – jak Aleksander Wielki węzeł gordyjski – Milton Friedman w 1953 roku, stwierdzając Teorii nie da się zweryfikować przez bezpośrednie porównanie jej „założeń” z rzeczywistością. […] Pełny „realizm” jest praktycznie nieosiągalny, a kwestię czy teoria jest wystarczająco realistyczna można rozstrzygnąć, oceniając, czy pozwala ona na względnie trafne przewidywania […]16. Można zatem stwierdzić, że obecnie obowiązujące modele głównego nurtu ekonomii amerykańskiej nie dostarczyły nam dostatecznie dobrych przewidywań procesów gospodarczych. Obecny kryzys sfalsyfikował – tak jak się tego domaga Karl Popper – zasadność obowiązujących modeli teorii ekonomicznych. Czy złe były założenia, czy złe były modele – trudno orzec, być może i  jedno, i drugie. W świetle obu twierdzeń K. Gödla można by wyrazić opinię, że ekonometryczny Endogenous Growth Model był „za dobry”. Można pokładać nadzieję, że powstaną nowe teorie ekonomii, mając na uwadze słowa Miltona Friedmana: Formułowanie hipotez jest twórczym procesem wymagającym inspiracji, inwencji i pomysłowości. Jego istotą jest znajdowanie czegoś nowego w znanym materiale. Powinien być rozstrzygany w kategoriach psychologicznych, a nie logicznych, w procesie studiowania autobiografii czy biografii, a nie rozpraw o istocie metody naukowej. Wspierają go sentencje lub przykłady, a nie sylogizmy czy teoria17. Można też sięgnąć do historii myśli ekonomicznej i znaleźć w niej odmienne teorie i podejścia do objaśniania procesów gospodarowania. Może wystarczy powrócić – sięgając losowo – do Platona i  Arystotelesa, Adama Smitha i  Davida Ricardo, Arthura Lewisa i Nicholasa Georgescu–Roegena, Dala Jorgensona i Zvi Grilichesa, Michała Kaleckiego i Oskara Langego oraz wielu innych z peryferii dzisiejszego głównego nurtu nauk ekonomicznych. Gospodarowanie – tak jak Ziemia – nie jest płaską, jednowymiarową dziedziną, którą daje się opisać jedynie przez równania regresji. Wracając do podstawowego pytania i nawiązując do przypowieści o angielskim podróżniku z końca XIX wieku, można stwierdzić, że każdy z różnorodnych nurtów współczesnej myśli ekonomicznej dryfuje na swojej własnej krze, bez żadnej korespondencji między nimi. Obecne spory miedzy różnymi szkołami ekonomicznymi – tak jak ja to odczytuję – są to przede wszystkim spory ideologiczne, a nie alternatywne lub komplementarne propozycje na gruncie teorii naukowych. Nie sądzę, żeby jakieś znaczne zmiany zaszły w nauce ekonomii po obecnym kryzysie. Stefan Małecki-Tepicht 16  Milton Friedman, The Methodology of Positive Economics: Essays in Positive Economics. University of Chicago Press, 1953. 17  Milton Friedman, op. cit.


UWAGI REDAKCYJNE 11

Redakcja przyjmuje do publikacji artykuły w języku polskim i angielskim.

11

Wszystkie artykuły są poddawane recenzji.

11

Redakcja nie przyjmuje artykułów opublikowanych przez inne wydawnictwa.

11

Redakcja prosi o przesyłanie artykułów na adres e-mail czasopisma: studia. ekonomiczne@inepan.waw.pl. Objętość artykułów (łącznie z  tabelami, rysunkami i  bibliografią) nie powinna przekraczać 25 znormalizowanych stron (45 tysięcy znaków bez spacji). Redakcja zastrzega sobie prawo dokonania w nadesłanych artykułach skrótów, poprawek redakcyjnych i innych zmian zgodnie z wymogami czasopisma.

11

Przypisy należy umieszczać na dole strony, a odnośniki bibliograficzne w tekście, na końcu zdania w nawiasie kwadratowym [autor, rok wydania, numer strony].

11

Autorzy są proszeni o podanie tytułu naukowego oraz adresu zwrotnego do korespondencji (z adresem e-mailowym).

11

Razem z  artykułem należy przesłać jego streszczenie w  języku polskim i angielskim, w objętości 1/2–2/3 strony maszynopisu. Streszczenie powinno składać się z czterech części: celu pracy (purpose), wskazania wykorzystanej metodologii badawczej (methods), opisu uzyskanych wyników (results) oraz wniosków (conclusions). Streszczenie powinno również zawierać słowa i zwroty kluczowe (keywords) w języku polskim i angielskim oraz pełną afiliację autora (wraz z adresem macierzystej jednostki naukowej).

11

Przesyłając artykuły do publikacji, autorzy wyrażają zgodę na umieszczenie artykułu w pełnej wersji tekstowej oraz streszczeń w języku polskim i angielskim w archiwum na stronie internetowej czasopisma oraz na wprowadzenie angielskiego streszczenia do internetowej bazy danych czasopisma „The Central European Journal of Social Sciences and Humanities” (CEJSH) oraz upoważniają Redakcję „Studiów Ekonomicznych” do uzgodnienia z CEJSH ostatecznego tekstu streszczenia.

Redakcja „Studiów Ekonomicznych” Instytut Nauk Ekonomicznych PAN Pałac Staszica (pok. 22) ul. Nowy Świat 72, 00–330 Warszawa, tel. (0-22) 657 27 90 e-mail: studia.ekonomiczne@inepan.waw.pl „Studia Ekonomiczne” zamawiać można listownie lub faxem pod adresem: Instytut Nauk Ekonomicznych PAN, Biblioteka ul. Nowy Świat 72, 00–330 Warszawa fax (0-22) 657 28 04


2/2010

9

770239

641008

ECONOMIC STUDIES nr 2 (LXV) 2010

ISSN 0239–6416

Cena 28,00 zł (w tym 0% VAT) Nakład 250 egz.

STUDIA EKONOMICZNE

STUDIA EKONOMICZNE • ECONOMIC STUDIES

Instytut Nauk Ekonomicznych Polskiej Akademii Nauk Pałac Staszica ul. Nowy Świat 72 00-330 Warszawa www.inepan.waw.pl

INSTYTUT NAUK EKONOMICZNYCH POLSKIEJ AKADEMII NAUK

WARSZAWA 2010


Studia Ekonomiczne nr 2 / 2010