ToZależy no.6

Page 1

Mateusz Niewiński

Underemployment. Normalne zjawisko czy nowa dysfunkcja rynku pracy?

str. 24

Ewa Koślacz

Reklamacja bez paragonu

str. 34

Kamil Prządka

Koniec wojen patentowych?

ISSN 2084-7874

str. 44

Przemysław Pryszcz Macroprudential Policy – a reborn of the new policy tools five years after the financial crisis

.

str. 14

Nr 3/20 13 (6)

To Zalezy Niezale¿ny Magazyn Studencki

STR. 4

HIGH FREQUENCY TRADING czyli spodziewany gość na polskiej giełdzie


HIGH FREQUENCY TRADING POD LUPĄ

W

ubiegłym semestrze, na zajęciach z prawa finansowego na Uniwersytecie Warszawskim, Pani doktor pokazała slajd z najważniejszymi informacjami dotyczącymi naszej Giełdy Papierów Wartościowych w Warszawie. Było tam wszystko. Historia powstania, prezesi, liczba spółek, informacje o rodzajach instrumentów i najważniejsze indeksy. Ten slajd wbił mi się jednak szczególnie w pamięć, bowiem na dole ostatni punkt stanowił informację o systemie informatycznym używanym na GPW. „System Warset” – tak też widniało na prezentacji w maju 2013 r. Jeden ze studentów podniósł rękę i zwrócił Pani doktor uwagę, że od ponad miesiąca giełda funkcjonuje na nowej platformie UTP, na wzór giełd z grupy NYSE. Na następnych zajęciach slajd został poprawiony... Po pierwsze, abstrahując już od wszelkiej oceny powyższej sytuacji, uzmysławia ona, iż wymiana systemu UTP chyba nie była rewolucją medialną. Po drugie, jak sama GPW przyznała, dla przeciętnego inwestora giełdowego system nie stał się przełomową rewolucją technologiczną. Aczkolwiek jest ścisły obszar dla którego UTP tą rewolucją już jest. Jest nim handel wysokiej częstotliwości, powszechnie znany jako High Frequency Trading. Nasz redaktor, Wojtek Milewski, postanowił przyjrzeć się bliżej ostatnim trendom na świecie z zakresu wykorzystywania algorytmów i komputerów w tradingu. W temacie znajdzie się również całościowa ocena HFT i jego wpływu na wszystkich uczestników rynku. Szczerze polecamy niezwykle interesującą lekturę, zarówno osobom, które o systemach już dotychczas pogłębiły swoją wiedzę, jak i czytelnikom spotykającym się z pojęciem po raz pierwszy. Przyjemnej lektury!

Redaktor Naczelna


SPIS TREŚCI TEMAT NUMERU High Frequency Trading, czyli spodziewany gość na polskiej giełdzie WOJCIECH MILEWSKI

4

MAKROEKONOMIA Underemployment. Normalne zjawisko czy nowa dysfunkcja rynku pracy? MATEUSZ NIEWIŃSKI Czy mamy się czego bać, czyli o ryzyku finansowym w Chinach BARTOSZ WASILWESKI

14 20

RYNKI KAPITAŁOWE Kapitał własny jako forma finansowania transakcji fuzji i przejęć KATARZYNA OKOŃ

10

PRAWO Reklamacja bez paragonu EWA KOŚLACZ

24

TO ZALEŻY Minister Finansów Jacek Rostowski – dobry czy zły? MATEUSZ NIEWIŃSKI, MARCIN SENDERSKI

26

EDUKACJA Ekseprymenty naturalne mogą odmienić oblicze nauk ekonomicznych. Wydobyte z natury MARCIN SENDERSKI

30

TECHNOLOGIE Koniec wojen patentowych? KAMIL PRZĄDKA

34

OPINIE Idea placement czy CSR? Czyli co warunkuje istnienie organizacji non-profit JOANNA CHLEBIEJ Co z tymi emeryturami? TOMASZ HAŁAJ

36 38

RECENZJE Tim Clissold, Mr China, czyli Amerykanin w Pekinie JAN JĘCZMYK

40

ENGLISH SECTION Macroprudential Policy – a reborn of the new policy tools five years after the financial crisis PRZEMYSŁAW PRYSZCZ

44

SYLWETKI Marissa Mayer JOANNA CHLEBIEJ

N11 Nr 3/20 12

str. 52

str. 28

Niezale¿ny Magazyn Studencki

- glimpse into politicians country’s public, the situation and experts view

To Zalezy str. 14

Mateusz

Niew

str.

24 Gdzie jeste iński Bartosz ś zielo Wasi polska wyspo? na, Smok kont lewski ra orze

Niezale¿ny Magazyn

Studencki

Renminbi ł. światowa jako waluta ?

ISSN 2084

str. 28

Marcin

13 (4)

ak bez Eurostrefa jedn Grecji?

Niezale¿ny

Send

erski Z dużej chm mały desz ury cz

To Zal -7874

str. 4

str. 40

Bańki spek ulacyjne kiedyś i dziś jak niewiele uczy nas historia

Kekl

ik Neurofin ance: How does the brain of investor an work?

ezy

Ma

str. 58

Koniec z rajam i podatkow ymi

-7874

str. 68

Korespon Gallen: dencja z Sank t Ryzyko wraca do łask

– o plana ch Ministerst Finansów wa

To Zal

str. 62

Halil Yasin

zyn Studen Is it thegatime cki to redefine emerging markets?

Szklane su

ży

ISSN 2084

Nr 1/20

Nr 1/20 12

Cezary Stypułko wski wywiad spec dla To Zale jalnie

Eurocrisis and Slovakia how the

Czy czeka nas stracona dekada?

12

str. 16

Nr 2/20

Portugalia Czy w świetle makroekonomia jupiterów ma jeszcze znaczenie?

.

Okładka wykonana z wykorzystaniem grafik: nanex.net , altingfest.deviantart.com

str. 10

str. 5

.

Koło Naukowe Strategii Gospodarczej Uniwersytetu Warszawskiego

ISSN 2084-7874

To Zalezy

.

Wydawca:

Projekt graficzny – Agnieszka Żurawska, Kamil Prządka, Jakub Pawlik Korekta – Izabela Wiśniewska, Agnieszka Żurawska Strona internetowa tozalezy.pl – Kamil Prządka, Ewa Dębska

.

Redaktor Naczelna – Agnieszka Żurawska Redaktorzy Prowadzący – Przemysław Pryszcz, Wojciech Milewski

42

ezy

Niezale¿ny

Magazyn St

kraj

O tym, Czy Japo

udencki

„więdną Japonia – cej” wi śni? jak Japo

nii uda się

ńczycy strac

ili dwie dekady... ć rekordow koszty obsł o niskie ugi dług u? balance sheet recession?

utrzyma

Czym jest

fity w bizn

esie

czyli o kobi etac kontrowersy h, parytecie, zdrowym jnych regu rozsądku lacjach Kom oraz isji Europejs kiej

Kontakt: redakcja@tozalezy.pl


HIGH FREQUENCY TRADING, czyli spodziewany gość na polskiej giełdzie. emisoft.pl

W kwietniu tego roku GPW wprowadziła, używany także na giełdach z grupy NYSE, system notujący UTP (Universal Trading Platform). Szybkość oraz ilość przesyłanych przez niego informacji umożliwia stosowanie technologii High Frequency Trading. Co prawda, obroty niezbędne do swobodnego wykorzystania strategii z nią związanych generowane są jedynie na pojedynczych spółkach i kontraktach, jednak wraz z systemem WARSET zniknęły techniczne ograniczenia. Polski rynek kapitałowy wchodzi w erę, gdzie człowiek tworzy i kontroluje algorytmy, resztą zajmuje się komputer. Rys. 1 Średnie opóźnienie realizacji zleceń - NYSE 335,92

MILISEKUNDY

46,66

6,48

0,90

0,13 2007

2008

2009

2010

źródło: opracowanie własne na podstawie www.utpplan.com

4

Temat numeru

2011

2012

2013

Rosnące od lat 90tych zainteresowanie wykorzystaniem na rynku możliwości komputerów, rozpoczęło trwający do dziś wyścig technologiczny pomiędzy bankami, funduszami i innymi instytucjami. Przyśpieszyło to rozwój handlu algorytmicznego, w którym zaprojektowany przez człowieka program jest instalowany na komputerze, gdzie stanowi instrukcje postępowania dla maszyny dokonującej transakcji.


Wojciech Milewski Student III roku Wydziału Nauk Ekonomicznych, laureat dziewiątej edycji Międzyuczelnianego Forum Dealerów Bankowych, stypendysta rektora UW, aktywny członek KNSG UW.

Dla przeciętnego czytelnika zaskakujący może wydać się fakt, że podstawową działalnością algorytmów jest dzielenie dużych zleceń złożonych przez człowieka na mniejsze i realizacji tych drugich. Transakcja przeprowadzana jest tak, aby całkowity wpływ na rynek był możliwie najmniej widoczny, a ceny wykonania jak najlepsze. Jest to postępowanie nastawione raczej na minimalizowanie kosztów, niż zysk sam w sobie. Programy te nie podejmują decyzji co do alokacji kapitału, a jedynie realizują zlecenia, stąd często, dla odróżnienia od bardziej zaawansowanych algorytmów decyzyjnych, nazywane są algorytmami egzekucyjnymi. Algorytmy decyzyjne natomiast, potrafią samodzielnie podjąć decyzję kiedy i jaki walor ma zostać zakupiony lub sprzedany, uwzględniając również rynkowe nastroje czy zarządzanie ryzykiem portfela. Swoje działania opierają nie tylko na analizie technicznej czy fundamentalnej, lecz często główną rolę gra tam pozbawiona jakiejkolwiek uznaniowości analiza ilościowa. Szczególnym rodzajem handlu algorytmicznego jest handel wysokich częstotliwości (High

Frequency Trading, HFT).

Czas to pieniądz – to aktualne od setek lat powiedzenie, obecnie staje się coraz bardziej dosłowne. Jego autor zapewne nawet nie był w stanie zmierzyć tego, co współcześni traderzy rozumieją pod słowem ‘czas’. W dobie coraz szybszych algorytmów, szybszych komputerów oraz szybszych łączy, prędkość przesyłania informacji stała się kluczową sprawą w uzyskaniu przewagi nad pozostałymi graczami. Na największych światowych parkietach gra w obszarze HFT nie toczy się o sekundy czy jej

setne części – obecnie czas liczy się w mili- lub mikrosekundach. Taka technologia umożliwia pełne wykorzystanie możliwości handlu algorytmicznego. Zysk w transakcjach HFT generowany jest dzięki minimalnym zwrotom z poszczególnych inwestycji (z reguły pojedyncze bp, co oznacza ułamki centa na akcje), jednak przy bardzo dużej ilości transakcji – w ciągu dnia pojedynczy algorytm przeprowadza ich nawet do kilku tysięcy. Dzięki temu rynki, na których obserwujemy działanie HFT, charakteryzują się wysoką płynnością i dużym wolumenem

Temat numeru

5


obrotu. Zajmowana przez komputer pozycja zamykana jest w ciągu kilku minut, choć najczęściej jej czas nie przekracza paru sekund. Dlatego też, w tej grze nie biorą udziału długoterminowi inwestorzy, patrzący na transakcje z punktu widzenia tygodnia, miesiąca czy roku. Jednak, aby powyższe działania przyniosły oczekiwany zysk, konieczne jest wystąpienie kilku przedstawionych poniżej czynników. Pierwszym

6

elementem

Temat numeru

niezbędnym do sprawnego funkcjonowania systemów HFT jest wysokiej jakości technologia. Im większe opóźnienia w przesyle informacji, tym większe prawdopodobieństwo, że zlecenie już w momencie przyjmowania do systemu znajdzie się poza rynkiem. Powoduje to, że zarówno giełdy jak i inwestorzy podejmują inwestycję w celu rozwoju technologii. Te pierwsze chcąc przyciągnąć do siebie graczy, rynkową płynność oraz pieniądze z tym związane,

starają się wyprzedzić konkurencję wprowadzając coraz nowocześniejsze systemy notujące. Mają one umożliwić szybszą obsługę większej ilości zleceń. Obecnie NYSE i NASDAQ realizują dziennie średnio odpowiednio 20 i 7 mln transakcji przy średnich opóźnieniach 0,37 i 1,3ms1 – dla porównania czasy reakcji monitorów LCD wynoszą od 1 do 5 milisekund. Gwałtowny rozwój techniki w tym względzie jest potwierdzany przez fakt, że 3 lata temu opóźnienia były kilkunastokrotnie większe. Mając świadomość skali, nie dziwi w tym momencie usługa kolokacji2. Jest to odpłatnie oferowana przez giełdy możliwość umieszczenia komputerów generujących zlecenia bezpośrednio w jej budynku. Oznacza to, że droga jaką będzie musiała pokonać informacja pomiędzy serwerem giełdowym, a systemem gracza, zostaje skrócona do minimum. Kolokacja powiązana jest z usługą DMA (Direct Market Access), która pozwala bankowi czy funduszowi mieć bezpośredni dostęp do rynku, z pominięciem brokera. W sferze prywatnych przedsięwzięć, możemy usłyszeć o światłowodach mających na celu bezpośrednie połączenie odległych rynków finansowych – przykładowo kosztem 300 mln dolarów połączono Chicago i New Jersey. Dysponując wystarczającą technologią, kolejnym krokiem jest zaprojektowanie odpowiedniego algorytmu. Jest to miejsce, w którym każdy komputer będzie 1 UTP SIP PLAN, 2013 Q2 U.S. Consolidated Tape Data 2 ����������������������������� W trakcie pisanie tego artykułu GPW opublikowało cennik usługi kolokacji – za kilkadziesiąt tysięcy złotych (20 tys. jednorazowo + 8 tys. co miesiąc) możemy stać się właścicielami jednej z nowych 18 szafek na nasz własny serwer postawiony tuż przy serwerze giełdy.


zależny od człowieka. Wybory, jakie podejmie komputer, o ile nie zostaną błędnie przekazane, w rzeczywistości będą wyborami programisty. Najczęściej, programy tworzone są w powszechnie stosowanych, wydajnych językach programowania, tj. C++ lub Java. Jednak elementem HFT, który najbardziej różnicuje poszczególnych inwestorów, jest strategia uwzględniona w danym algorytmie. Podstawową strategią jest market making, z tą tylko różnicą w stosunku do tradycyjnego, że nacisk kładziony jest na minimalne opóźnienie przekazywanego zlecenia. Dzięki szybkości przesyłanych informacji komputery nie musza się obawiać zmienności, mogącej spowodować, że nagle ich kwotowania znajdą się poza rynkiem. Powoduje to możliwość wystawienia oferty zawężającej spread. Co prawda, zlecenia te z reguły charakteryzują się mniejszym wolumenem niż tradycyjne, jednak z punktu widzenia rynku i tak prowadzą do ograniczenia kosztów transakcyjnych, a także zwiększają jego efektywność. Prawdopodobnie właśnie dzięki HFT, na przestrzeni ostatnich 5 lat rozwinięte rynki odnotowały skurczenie się spreadów od 2 do 5 razy3. Niewątpliwym wabikiem tej strategii są również pewne profity, które proponują giełdy w zamian za zapewnianie płynności. Szacuje się, że to niebudzące zastrzeżeń zastosowanie HFT, stanowi około 70 proc. wszystkich transakcji realizowanych z użyciem tej technologii4. Kolejną strategią jest arbitraż statystyczny. Polega on na zebraniu, analizie i 3 Analizy Credit Suisse AES 4 ��������������������������� The Diversity of High-Frequency Traders, Björn Hagströmer , Lars L. Norden, May 18, 2013

prognozowaniu cen powiązanych ze sobą instrumentów w celu wychwycenia odchyleń na poszczególnych rynkach. Jeśli owa różnica przekracza koszty transakcyjne, transakcja zostaje zawarta ze statystycznym zyskiem. Oczywiście człowiek nie byłby w stanie tak szybko wyliczyć odpowiedniej ceny i zaobserwować różnicy. Niewątpliwie, strategia ta stabilizuje rynek, sprzyjając ograniczeniu krótkookresowej zmienności. Spotkać się również możemy z arbitrażem wydarzeniowym, kiedy to komputery wykorzystują przewagę w szybkości uzyskania informacji nad innymi graczami. Pojawiająca się informacja często jest przyczyną nagłego ruchu ceny danego instrumentu. Algorytmy starają się więc jako pierwsze ustawić swoje zlecenia na rynku i w ten sposób wyprzedzić konkurencję. Szybkość transmisji danych niezbędna jest na każdym z etapów: zdobycia nowej informacji, przełożeniu jej na nowe ceny oraz aktualizacji cen. Podobnie jak w arbitrażu statystycznym, człowiek nie jest w stanie rywalizować z komputerem. Żadna z dotychczas omówionych strategii nie wykorzystuje jednak niejawnych informacji oraz nie powoduje utrudnień dla pozostałych graczy. Istnieje też druga strona medalu, której negatywne oddziaływanie tak często rzutuje na całość. Brak regulacji prawnych powoduje, że możemy napotkać wiele programów mających na celu opóźnienie przekazu informacji dla innych graczy i wykorzystywanie zaawansowanej technologii w sposób etycznie wątpliwy. Najbardziej powszechną strategią wśród tych budzących wątpliwości, jest detekcja

płynności. Pozwala ona wykryć spodziewane ruchy rynku poprzez odszukiwanie ofert z limitem, obecnie niewidocznych w książce zleceń. Na rynek wysyłana jest duża ilość zleceń mająca na celu odkrycie limitów cen dla większych zleceń. Gdy tylko limit zostanie odkryty, komputer anuluje pozostałe wysłane przez siebie zlecenia, a następnie dzięki podłączeniu do innych giełd szybko wykupuje dany walor i odsprzedaje po wyższej cenie. Kolejną kontrowersyjną strategią jest flash trading, dający kilkudziesięcio milisekundowy podgląd oczekującego na przyjęcie do systemu zlecenia (co przy obecnych opóźnieniach, a raczej ich braku, daje szansę na jego wyprzedzenie). Praktyka ta na niektórych giełdach jest zabroniona, natomiast brak jest odgórnego jej zakazu. Ostatnim z istotnych, jednak chyba najmocniej krytykowanym zagrożeniem związanym z HFT, jest quote stuffing. Polega on na zapychaniu łączy ogromną ilością zleceń tak, aby opóźnić dostęp do informacji dla innych inwestorów. Jedynym sposobem na uniknięcie opóźnień z niego wynikających jest bezpośredni dostęp do systemu giełdy, dlatego też każda instytucja działająca w obszarze HFT taki dostęp posiada. Pozostali otrzymują bieżące kwotowania dopiero, gdy zostaną one przesłane przez giełdowy system. Giełdy w USA połączone są systemem CQS (Consolidated Quotation System), posiadającym wydajność 750 notowań na każda milisekundę. Za przyczyną powyższej strategii, bywają momenty, kiedy liczba ta, okazuje się niewystarczająca. Powoduje to, że cześć z inwestorów może otrzymywać informacje z rynku, które już nie są aktualne. Praktyka ta ograniczona jest przez nadzory

Temat numeru

7


finansowe większości krajów. Prym, jeśli chodzi o regulację całego zagadnienia HFT, wiodą Niemcy oraz Kanada.

Największą zaletą, a jednocześnie wadą maszyny, jest to, że nie myśli. Zrobi to, co polecił jej wykonany przez człowieka algorytm, bez emocji, bez dopominania się o dodatkowe informacje, których nie zawierała instrukcja. Jak się okazuje, może to być drogą do ponadprzeciętnej rentowności. Wykazano, że transakcje bazujące na HFT posiadają wskaźnik Sharpe’a (miara nagrody na jednostkę ryzyka) kilkadziesiąt razy wyższy (9,2) niż tradycyjne strategie (0,31)5. Im krótszy okres, tym zyskowność jest większa, a wskaźnik Sharpe’a może sięgać wartości liczonych w tysiącach. Następnym czynnikiem zwiększającym atrakcyjność inwestycyjną, jest krótki czas testowania zaproponowanych rozwiązań – do wiarygodnej oceny zastosowanej techniki potrzeba zaledwie miesiąca lub dwóch miesięcy danych. Kolejną z cech charakterystycznych wszystkich strategii HFT jest fakt, że nie przewidują przetrzymywania walorów przez noc, co wiąże się z brakiem opłat z tym związanych. Nie bez znaczenia jest również nikła korelacja krótkookresowych

wahań cen (stanowiących źródło zysku) z realną wartości firmy. Dzięki temu, skuteczność działania algorytmów HFT nie jest powiązana z panującą koniunkturą, co umożliwia dywersyfikację portfela. Wszystkie, wymienione teraz, jak i wcześniej czynniki, przyczyniają się do pokaźnego procentowego udziału HFT w giełdowych transakcjach – sięga on 51 proc. w USA i 39 proc. w UK.6 Warte zauważenia jest, że pomimo wysokiej skali udziałów i medialnego rozgłosu jakiego nabrały, zyski netto nie są imponujące w stosunku do dużych, tradycyjnych funduszy Dużym 5 The Trading Profits of High inwestycyjnych. obciążeniem finansowym są Frequency Traders; Matthew Baron, Jonathan Brogaard, Andrei Kirilenko; niezbędne ciągłe wydatki na sierpień 2012

8

Temat numeru

6

szacunki TABB Group

oprogramowanie i technologię. Szacuje się, że zyski całego sektora spadły do 1,25 mld w 2012 roku, w stosunku do 5 mld w roku 2009 roku.7 Przyczyną takiego stanu rzeczy może być rosnąca konkurencja w tym obszarze oraz niektóre regulacje, zabraniające stosowania części kontrowersyjnych praktyk.

Przeglądając internetowe artykuły, trudno nie zauważyć istnienia wielu głosów uznających HFT za kolejne niebezpieczne narzędzie stosowane przez dużych graczy w celu wyzyskania drobnego inwestora. W historii niejednokrotnie obserwowaliśmy już akcje, indeksy czy kontrakty, których 7 ���������������������������� szacunki Rosenblatt Securities


notowania za sprawą działania algorytmów bazujących na HFT, potrafiły w ciągu kilkudziesięciu sekund zanotować wahania rzędu kilkudziesięciu procent. Popularnym przykładem są wydarzenia z 6 maja 2010 roku zwane flash crash. Tego dnia na rynkach, w związku z sytuacją w Grecji, panowała duża niepewność. O godzinie 2:32, w momencie, kiedy rynek tracił już ponad 300 punktów (otwarcie na poziomie 10862) pewien fundusz (właściwie jego algorytm, jednak nie działający w technologii HFT) rozpoczął sprzedaż dużego pakietu kontraktów E-mini S&P500. Spowodowało to przeszacowanie przez algorytmy HFT wartości innych aktywów, co z kolei zaowocowało wzrostem podaży na rynku akcji. Podążające za trendem automaty, mocno go przyśpieszyły. Na domiar złego, z powodu zbyt dużej zmienności, części komputerów została wyłączona, co spowodowało zmniejszenie płynności i dalsze spadki. Od godziny 14:41, w ciągu 5 minut, DJIA spadł o 600 punktów, przez co łącznie tego dnia sięgnął poziomu -9,2 proc.8, jednak po kilkunastu kolejnych minutach indeks wrócił do poziomów sprzed 2:30. Wydarzenia te pokazują jak wielką siłę mogą mieć połączone algorytmy HFT, jeśli zostaną im przekazane jednoznaczne sygnały. Warto jednak zauważyć, że podążały one jedynie za rynkowym trendem, same nie stanowiąc impulsu. Kolejnym przykładem, według mnie lepiej oddającym ewentualne zagrożenia, jakie niesie ze sobą HFT, jest mający miejsce w sierpniu 2012 roku, niekontrolowany zakup aktywów przez fundusz Knight Capital. W związku z nieostrożnymi 8 raport SEC : http://www.sec. gov/news/studies/2010/marketevents-report.pdf

testami nowo zainstalowanego oprogramowania, w ciągu niecałej godziny komputer realizował transakcje które ostatecznie zaowocowały dla funduszu łączną stratą w wysokości 460 milionów dolarów. Uświadamia to jak istotną częścią pracy w tej technologii powinna być kontrola algorytmów. Podsumowując, HFT staje się kolejną gałęzią w rozwoju rynków kapitałowych. Należy podkreślić, że konieczne jest rozróżnienie na poszczególne strategie, które są od siebie znacząco odmienne. Zarówno sama technologia HFT, jak i zdecydowania większość jej zastosowań, moim zdaniem sprzyjają rynkom kapitałowym i popycha je do dalszego rozwoju. Z punktu widzenia długoterminowego inwestora nie wywierają one negatywnego wpływu na jego zysk, natomiast płynność, jaka jest zapewniona, pozwala mu go w każdej chwili zrealizować. Dzięki szybkości przesyłanych informacji, proces odkrywania ceny następuje szybciej, zwiększana jest stabilność rynku oraz niwelowane są międzygiełdowe wahania cen. Również węższe spready przyczyniają się do wzrostu efektywności rynku. Przeważająca część zastosowań HFT może być tłumaczona jako przyśpieszenie myśli programisty czy palców tradera. Gdyby tylko człowiek był w stanie analizować informacje tak samo szybko, prawdopodobnie nikt nie miałby mu za złe, że wykorzystując swoje doświadczenie kupuje taniej i sprzedaje drożej mimo, że obie transakcje wykonał w ciągu 1 sekundy. Problemem rzutującym na zagadnienie HFT są jednak strategie ukierunkowane bezpośrednio na utrudnianie działania innym inwestorom

oraz celowe wprowadzanie ich w błąd. Zysk osiągany dzięki informacjom niejawnym także jest mocno kontrowersyjny. Działania te nie zwiększają efektywności rynku, a jedynie przyczyniają się do powiększenia zasobności portfela najbardziej zaawansowanych technologicznie graczy oraz negatywnego postrzegania całej technologii. Niektóre fundusze, działając według zasady „duży może więcej”, ulegają pokusie i wykorzystują luki w ciągle nieusystematyzowanym w tym względzie prawie. Ustawodawcy powinni pamiętać, że to właśnie wobec tych „złych” zastosowań HFT powinny być ukierunkowane ich działania. Wzrosnąć powinny też obostrzenia dotyczące kontroli nowowprowadzanych algorytmów oraz nagłej zmienności na rynkach tak, aby w przyszłości nie powtórzyły się sytuacje z 1 sierpnia czy 6 maja.

Temat numeru

9


Kapitał własny jako forma finansowania transakcji fuzji i przejęć capitalcampaignmagic.com

Popularność fuzji i przejęć wzrasta z roku na rok. Początki tego typu transakcji w Polsce zauważa się w latach dziewięćdziesiątych XX wieku, czyli okresie po transformacji gospodarczej w naszym kraju. Wiązały się one z procesem prywatyzacji przedsiębiorstw państwowych, a następnie przejmowaniu ich przez podmioty zagraniczne. Z upływem czasu nastąpił wzrost znaczenia krajowych inwestorów, a co za tym idzie – zwiększyła się popularność transakcji fuzji i przejęć w Polsce. Dekoniunktura na rynku oraz światowy kryzys gospodarczy spowodowały, że liczba transakcji oraz ich wartość zmniejszyła się analogicznie do sytuacji na świecie. Obecnie rynek M&A w Polsce jest rynkiem stosukowo stabilnym. Zauważalne ożywienie gospodarcze pociąga za sobą wzrost ilości transakcji fuzji i przejęć. Sposób finansowania odgrywa w przedsiębiorstwie istotną rolę, jest równie ważny w transakcjach fuzji bądź przejęcia. Wybór źródła finansowana transakcji powinien być poprzedzony dogłębnymi analizami sytuacji finansowej spółki, ponieważ wybrana forma finansowania może wpływać między innymi na wartość transakcji, postępowanie nabywców oraz przyszłe zyski, które przedsiębiorstwo planuje osiągnąć. Rodzaj oferty, motyw fuzji czy przejęcia, dostępność źródeł finansowania w danym otoczeniu, znajomość przepisów podatkowych, stopień

10

Rynki kapitałowe

płynności finansowej podmiotu będącego nabywcą oraz poziom dźwigni finansowej podmiotu przejmującego i przejmowanego powinny być uwzględniane przy wyborze źródła finansowania transakcji M&A. W tym artykule analizie poddano kapitał własny jako jedno ze źródeł zdobycia gotówki na sfinansowanie transakcji fuzji bądź przejęcia. Kapitał własny (ang. equity) uznawany jest za jedną z tradycyjnych form finansowania. Powyższy rodzaj kapitału może być uzyskiwany ze źródeł wewnętrznych oraz zewnętrznych. Wśród źródeł wewnętrznych wyróżnia się

wypracowane i zatrzymane przez przedsiębiorstwo zyski. Opierają się one głównie na wykorzystaniu zgromadzonej przez przedsiębiorstwo gotówki. Natomiast wśród źródeł zewnętrznych wymienia się między innymi wpływy z emisji akcji lub udziałów. W literaturze kapitał własny prezentowany jest jako stosunkowo bezpieczne źródło pozyskania kapitału. W procesie finansowania fuzji i przejęć jako źródło kapitału własnego wykorzystać można gotówkę przedsiębiorstwa pochodzącą głównie z wypracowanych zysków. Ponadto wymienia się


możliwość pozyskania funduszy poprzez emisję akcji z prawem poboru dla dotychczasowych akcjonariuszy, czy finansowanie private equity oraz venture capital. Posiadana gotówka to najbardziej płynna forma oszczędności. Służy ona finansowaniu bieżących inwestycji, ale jej nagromadzenie można wykorzystać przy finansowaniu większych inwestycji. W literaturze spotyka się pojęcie kosztu utraconej wartości, który wiąże się z utratą pewnych korzyści w związku z realizacją innej inwestycji. Emisja akcji jest kolejną formą wykorzystującą kapitał własny. Ta forma pozyskania kapitału dotyczy spółek kapitałowych. Można dokonać jej na przykład w ofercie prywatnej. Wtedy skierowana jest ona do ograniczonej liczby inwestorów. Można również przeprowadzić emisję w ramach oferty publicznej. W emisji akcji, spółka akcyjna uznawana jest za stronę krótką transakcji, natomiast stroną długą jest inwestor. Istnieje możliwość sprzedaży akcji innym inwestorom na rynku wtórnym. Wspomniane prawo poboru (ang. subscription right) daje posiadaczowi akcji spółki możliwość zakupu akcji z nowej emisji po ustalonej wcześniej cenie emisyjnej. Kapitał private equity/venture capital zaliczany jest do kapitału o charakterze średnio lub długoterminowym. Najczęściej ten rodzaj finansowania występuje w przedsiębiorstwach, które nie są notowane na rynku giełdowym. Głównym celem inwestora jest wzrost wartości przedsiębiorstwa. Inwestor dostarcza niezbędnego kapitału, ale także udziela wsparcia menedżerskiego. Ten rodzaj

KATARZYNA OKOŃ Studentka Uniwersytetu Ekonomicznego w Poznaniu, kierunku Inwestycje Kapitałowe i Strategie Finansowe Przedsiębiorstw na Wydziale Zarządzania oraz kierunku Finanse, Audyt i Podatki na Wydziale Ekonomii. Interesuje się fuzjami i przejęciami, rynkami kapitałowymi oraz metodami finansowania przedsięwzięć. uznawany jest za stosunkowo ryzykowny. Trudno jest określić wielkość zysku, którą można osiągnąć wykorzystując kapitał własny. Każda forma finansowanie wiąże się z ponoszeniem kosztu. Wśród metod służących do oszacowania kosztu kapitału własnego w przedsiębiorstwie wyróżnia się model Gordona służący do oceniania kapitału akcyjnego zarówno zwykłego, jak i uprzywilejowanego, model wyceny aktywów kapitałowych CAPM, który określa koszt pozyskanego kapitału akcyjnego, model Bond plus, nazywany metodą stopy dochodu z obligacji z premią za ryzyko oraz metodę składania poszczególnych elementów ryzyka. Kapitał własny to jedna z form finansowania. Posiada ona zarówno zalety i wady. Do głównych zalet zalicza się łatwość oraz niski koszt pozyskania kapitału własnego. Jest to kapitał bezterminowy, a podlega on spłaceniu jedynie w przypadku likwidacji spółki czy podjęciu uchwały walnego zgromadzenia o umorzeniu akcji. Kolejną zaletą jest możliwość zachowania kontroli nad firmą, o ile w ramach emisji akcje lub udziały obejmują dotychczasowi akcjonariusze.

Udział akcjonariuszy w zyskach pozostaje bez zmian. Pozytywną stroną jest również fakt, że emitent może sam decydować o terminie spłaty, warunkach emisji, cenie, oprocentowaniu obligacji. Znaczącą zaletą jest małe ryzyko uzyskiwania środków z kapitału własnego. Finansowanie kapitałem własnym ma również wady. Jedną z nich są formalności niezbędne przy emisji akcji. W przypadku emisji akcji wadą jest również zmniejszenie udziału dotychczasowych właścicieli w zyskach przedsiębiorstwa, jednak może to być wyeliminowane poprzez nabywanie akcji przez dotychczasowych właścicieli. Analizując wybór źródła finansowania w procesie fuzji i przejęć, należy odwołać się do popularnych modeli rynkowych. Wybór kapitału własnego jako rodzaju finansowania odnosi się do modelu anglosaskiego, w którym dominuje powyższa forma. Model ten nazywany jest również modelem rynkowo zorientowanym (ang. market-based system). Model anglosaski opiera się na rynku finansowym, a dokładniej – na rynku kapitałowym. Funkcjonuje w krajach takich jak Stany Zjednoczone, Kanada, Australia, Wielka Brytania.

Rynki kapitałowe

11


Polega na poszukiwaniu źródeł finansowania na rynkach kapitałowych poprzez wykorzystanie obecnych na nim form finansowania powiązanych z giełdą i emisją papierów wartościowych. Pozyskiwanie kapitałów opiera się na emisji zbywalnych instrumentów finansowych za pośrednictwem giełdy i rynku kapitałowego. W powyższym systemie rola banków jest minimalna i ogranicza się do udzielana

kredytów krótkoterminowych na pokrycie bieżącej działalności. Nieco większą rolę w modelu anglosaskim mają fundusze oraz banki inwestycyjne, ponieważ są one powiązane z działalnością rynku kapitałowego. Podsumowując, nie ma jednej idealnej formy finansowania, która zapewnia o powodzeniu transakcji, dlatego kapitał własny może stanowić źródło finansowania wybierane w procesie fuzji i przejęć.

Omówiona forma posiada zarówno wady jak i zalety, jednak decyzja o jej wyborze zależy od wielu czynników, między innymi od specyfiki podmiotu i rynku, branży, w której prowadzona jest działalność oraz zysków, jakie przedsiębiorstwo chce osiągnąć. Źródło finansowania określa sposób zdobycia środków niezbędnych do opłacenia transakcji, dlatego nie należy go utożsamiać z formą zapłaty.

strategicehs.com

12

Rynki kapitałowe


Zapraszamy drużyny studenckie (3-5 osób) do rywalizacji w wirtualnym świecie biznesu!

GLOBAL MANAGEMENT CHALLENGE

Poland 2013

po raz 14 w Polsce!

NOWY SYMULATOR! Rozbudowany zakres decyzyjny

»pół miliona

www.gmcpoland.pl

uczestników na świecie!

»25 tysięcy absolwentów w Polsce!

GMC to największa na świecie symulacja biznesowa - interaktywna gra

strategiczna, w której zespoły wcielają się w role zarządów wirtualnych przedsiębiorstw. Projekt jest przeznaczony dla studentów i menedżerów, którzy chcą rozwijać twarde, biznesowe umiejętności, jak i miękkie, związane ze współdziałaniem, wzajemną motywacją.

Korzyści dla studentów:

Organizator:

» pierwsze praktyki zarządzania » weryfikacja i uzupełnienie wiedzy akademickiej » rozwój umiejętności: pracy w zespole, planowania strategicznego, myślenia analitycznego » rywalizacja z profesjonalistami i praktykami biznesu short logotype

Patron honorowy

» nawiązanie kontaktów z potencjalnymi pracodawcami » promocja finalistów w prasie i Internecie » możliwość udziału w Finałowej Gali » dla zwycięzców – reprezentowanie naszego kraju na Finałach Światowych, studia podyplomowe w Akademii Koźmińskiego GMC posiada akredytację Europejskiej Fundacji Rozwoju Zarządzania.

Sponsorzy: horizontal logotype

Patroni mediani:

vertical logotype

Współpraca

Patron internetowy

WARSAW

kapitałowe Rejestracja zespołów studenckich jest możliwa doRynki 30 października.

13


UNDEREMPLOYMENT.

Normalne zjawisko czy nowa dysfunkcja rynku pracy? Zatrudnienie poniżej kwalifikacji to zjawisko, które bada się od kilku-kilkunastu lat, lecz jednocześnie nie mówi się o nim prawie wcale. Łatwiej jest skomentować stopę bezrobocia, gdyż ten atrybut gospodarki jest względnie łatwo mierzalny, zrozumiały i ważny dla przeciętnego przedstawiciela nowoczesnego społeczeństwa. Jednak do określania sytuacji gospodarczej, samo zjawisko bezrobocia nie wystarczy. Ekonomiści, w myśl zasady: «pokaż mi swój rynek pracy, a powiem ci jaką gospodarką jesteś», badają charakterystyki tego rynku. Jedną z najważniejszych cech rynku pracy, poza bezrobociem, jest właśnie zjawisko underemployment. Underemployment sprawia wiele problemów statystykom i ekonomistom, zaczynając od polskiego tłumaczenia – „zatrudnienie poniżej kwalifikacji”, które jest nieco karkołomne, lecz moim zdaniem najodpowiedniejsze1. Inny problem to sprecyzowanie, co konkretnie ten wskaźnik ma mierzyć. Obecnie odnosi się on do trzech rozłącznych zjawisk:

− nadmierne wykwalifikowanie (ang. overqualification), czyli osoba, która posiada specjalistyczne wyszkolenie (np. wyższe wykształcenie kierunkowe, specjalne licencje, względnie duże doświadczenie) pracuje na stanowisku, które nie wymaga tych umiejętności, np. lekarz pracujący jako

14

− mimowolna praca w niepełnym wymiarze godzin (ang. involuntary parttime), osoba, która ma możliwość i chęć pracować w pełnym wymiarze godzin, lecz znajduje tylko możliwość zatrudnienia na niepełny etat. To dość „łatwa” do zmierzenia kategoria, wystarczą badania ankietowe. Warto zauważyć, że część pracowników z tej grupy nadal poszukuje pracy, tj. innej w pełnym wymiarze godzin lub dodatkowej na niepełnym etacie;

bqw.deviantart.com

trippy4u.deviantart.com

1 Alternatywne tłumaczenie to „niepełne wykorzystanie siły roboczej”, które przedstawia problem z punktu widzenia makroekonomii. Angielski termin jest częściej stosowany w odniesieniu do człowieka, który jest “underemployed”, tzn. zatrudniony poniżej kwalifikacji.

dostawca, inżynier będący sprzedawcą, itd. Jest to jednocześnie najtrudniejsza kategoria do zmierzenia, gdyż tak ostre przypadki jak wyżej wymienione zdarzają sie dość rzadko, a statystycy częściej mają do czynienia z zatrudnieniem poniżej kwalifikacji na poziomie stanowisk w ramach jednej branży;

Makroekonomia


MATEUSZ NIEWIŃSKI Trader, analityk, publicysta, blogger. Student II roku studiów II stopnia na kierunku Finanse i Rachunkowość w SGH. Na rynku Forex od grudnia 2006. Ulubione tematy to opcje walutowe i midterm trading. Ciągle doskonali swoje umiejętności, chętnie poznaje nowe dziedziny finansów. Aktywnie działa na rzecz polskiej społeczności traderów Forex. − przerost zatrudnienia (ang. overstaffing), co oznacza zatrudnianie nadmiernej liczby pracowników, których możliwości nie są w pełni wykorzystywane. Nie należy tego mylić (choć jest to powiązane) z przetrzymywaniem pracowników przez okres recesji (aby oszczędzić na kosztach ponownej rekrutacji), bo przerost zatrudnienia ma miejsce niezależnie od cyklu koniunkturalnego. Niestety, na poziomie całej gospodarki, nie da się zmierzyć tej grupy pracowników, choć można próbować szacować ukryte bezrobocie2;

bliskie zera przy naturalnej stopie bezrobocia. Innymi słowy, prawie wszyscy pracownicy w gospodarce są wykorzystywani adekwatnie do swoich możliwości i nie zasilają grupy bezrobotnych.

bladerennard.deviantart.com

Społeczny punkt widzenia jest nieco inny. Zatrudnienie poniżej kwalifikacji w krótkim terminie zawsze będzie lepsze niż brak pracy. Jednak im dłużej osoba pracuje na stanowisku, które uważa za wymagające umiejętności poniżej jego kwalifikacji, a także nie jest w stanie znaleźć nowej, bardziej adekwatnej pracy, tym większa jej frustracja, co może powodować szereg różnego rodzaju chorób lub zachowań społecznych, podobnie jak u osób bezrobotnych. Jednak w tym Z punktu widzenia makroekonomisty, przypadku te zachowania zwykle są nierozumiane, underemployment jest szacunkową, dodatkową bo te osoby mają w końcu źródło utrzymania. miarą oddalenia produkcji bieżącej od produkcji potencjalnej, którą należy uwzględnić w zależności Teoria teorią, ale jak to się liczy? poziom bezrobocia-wzrost gospodarczy. W tym wypadku pożądaną wartością jest wskazanie Statystyczna miara underemployment zależy od 2 Jest to inna nazwa przerostu zatrudnienia. kraju przeprowadzającego badanie, lecz żadna

Makroekonomia

15


z nich nie oddaje w pełni skali zjawiska. W USA, Bureau of Labor Statistics, przedstawia kilka miar stopy bezrobocia, a zjawisko zatrudnienia poniżej kwalifikacji całkiem nieźle, choć bardzo umownie, określa różnica między stopą bezrobocia U-6 i U-3 lub różnicy między U-6 i U-4. Miarą oficjalną jest stopa U-3, a wszystkie z wyższą cyfrą zawierają informacje o dodatkowych osobach, które nie są „oficjalnie bezrobotne”. To całkiem dobre przybliżenie poziomu underemployment. Stopa U-6 zawiera oprócz oficjalnie bezrobotnych także tzw. discouraged workers3, inne osoby, które z różnych przyczyn nie poszukiwały ostatnio pracy oraz osoby zatrudnione w niepełnym wymiarze godzin, które mogą pracować na pełny etat4. Te kategorie można różnie traktować, ostatnia doskonale pokrywa jedną ze składowych omawianego zjawiska, a pozostałe odnoszą się do niego w pewnej części. W Unii Europejskiej badania są nieco dokładniejsze, bo publikowane są oddzielne wskaźniki określające jako procent siły roboczej: zatrudnionych poniżej kwalifikacji w niepełnym wymiarze godzin, osób poszukujących pracy, lecz niedostępnych natychmiastowo (bezrobotnych lub zatrudnionych, którzy szukają nowej pracy, lecz w najbliższym czasie nie mogą jej wykonywać) oraz osób mogących pracować, lecz nieposzukujących 3 To osoby niewliczane do siły roboczej, ponieważ nie poszukiwały zatrudnienia w ciągu ostatnich czterech tygodni, lecz są zdolne i chętne do znalezienia pracy w przyszłości. 4 Więcej informacji jest dostępne na oficjalnej stronie BLS: www.bls.gov/lau/stalt.htm

pracy5.

Te miary nie odzwierciedlają w całości, ani nawet w większej części, definicji underemployment przedstawionej na początku artykułu, lecz są powszechnie stosowane przez statystyków i ekonomistów. Nie bez podstaw. Osoby zdolne do pracy, lecz jej nieposzukujące w ciągu ostatnich kilku tygodni, to tylko miara statystyczna i trzeba pamiętać, że nawet jeśli nie są wliczane do siły roboczej, pracować mogą. Z pewnych powodów nie znalazły pracy, być może jej nie było, ale całkiem prawdopodobnie nie znaleźli odpowiedniej pracy do swoich kwalifikacji. Można więc nadać tej grupie etykietę «niezatrudnieni z powodu braku odpowiedniej pracy”. W jakimś stopniu oddaje to zjawisko zatrudnienia poniżej kwalifikacji – co więcej, jest stosowane w większości opracowań, stąd te same wskaźniki będą omówione w dalszej części artykułu.

A w jaki sposób powinno się odpowiednio mierzyć tę grupę społeczną? Ciekawą koncepcją jest badanie bezrobocia wśród młodych, gdyż ta grupa jest najbardziej narażona na zatrudnienie poniżej kwalifikacji. Szczególnie ciekawe jest monitorowanie losu absolwentów szkół zawodowych, techników i uczelni wyższych, aby sprawdzić, czy pracują w wyuczonym zawodzie i na stanowiskach umożliwiających im wykorzystanie nabytej wiedzy i umiejętności. Bardziej odważną 5 Informacje o tych wskaźnikach są dostępne na stronie internetowej Eurostatu i obejmują szczegółowe statystyki: http://epp.eurostat.ec.europa.eu/statistics_ explained/index.php/Underemployment_and_potential_ additional_labour_force_statistics

Rys. 1 Suma wskaźników dot. underemployment w UE na przykładzie UE (27 krajów), strefy euro (17 krajów) i Polski.

źródło: Eurostat

16

Makroekonomia


Rys. 2 Porównanie stóp bezrobocia w Stanach zjednoczonych: U-3 i U-6, kolorem szarym zaznaczono okresy recesji.

źródło: BLS, Macrotrends

koncepcją byłoby zadanie kilku dodatkowych pytań podczas spisów powszechnych, które odnosiłyby się do problemu zatrudnienia poniżej oczekiwań. Z pewnością byłaby to najdokładniejsza dostępna miara tego zjawiska.

Wcześniej, kilka statystyk dla Stanów Zjednoczonych, opartych na różnicy między wskaźnikami U-6 i U-3: przeciętna wartość spreadu to 4,6 punktu procentowego, minimalna 2,9 (2000r.), maksymalna 7,3 (2010r.). Średnia wartość jest zawyżona przez ostatni kryzys, gdyż w czasie Underemployment na świecie poprzedniej recesji wartość różnicy była zbliżona do 4 p.p. W Europie wielkość underemployment Obserwując poziom zatrudnienia poniżej jest mierzona poprzez zsumowanie trzech oczekiwań (w wersji statystycznej) i wykorzystując wymienionych wcześniej w artykule wskaźników, dostępne informacje, można wyciągnąć kilka i w badanym okresie wynosi ok. 5 proc. dla krajów ciekawych wniosków. Niestety, nawet te dane Unii Europejskiej (EU27) i ok. 3,6 proc. dla Polski. należy przyjąć z dystansem, gdyż okres ich Wyjaśnienie znacznie niższego odczytu może być zbierania nie jest jeszcze dostatecznie długi. poparte przez szereg hipotez: Obejmują około dwóch cykli gospodarczych w USA i jeden niepełny w Europie. Na stronie − Eurostat i GUS mają nieco inne metodologie internetowej International Labour Organistation liczenia stopy bezrobocia, dlatego dla możemy znaleźć komunikat: The ILO does Polski jest ona średnio niższa o kilka p.p. not have a program of statistical compilation według Eurostatu. Te same zjawisko może of underemployment series6. Problem nie jest występować w przypadku innych miar nowy, wcześniej nie zwracano na niego uwagi, a związanych z rynkiem pracy; dopiero w 1994 roku, w Stanach Zjednoczonych, − przeciętnie Polacy mają niższe kwalifikacje spróbowano wstępnie oszacować zjawisko. W zawodowe (mimo rosnącego odsetka Europie pełne dane są dostępne dopiero od 2008 osób z wyższym wykształceniem), dlatego roku (część z nich od 2005 roku). Ale mimo tych szybciej znajdują pacę odpowiadającą braków można wyciągnąć sensowne wnioski. ich kwalifikacjom (mniejszy problem nadmiernego wykwalifikowania) lub stają 6 “ILO nie posiada statystycznego zbioru danych się bezrobotni; dotyczącego zatrudnienia poniżej kwalifikacji”, źródło: www.ilo.org/global/statistics-and-databases/statisticsoverview-and-topics/underemployment/nationalstatistics-and-ilo-compilation-activities/lang--en/index.htm

− dobrze wykształceni młodzi Polacy mają większe szanse na zatrudnienie

Makroekonomia

17


CIEKAWE PUBLIKACJE: 1. Under-employment crisis. A TUC analysis of under-employment across the UK, http://bit.ly/ N82hoD

2. Measuring Underemployment at the County Level by Christopher R. Bollinger, Paul Coomes and Mark Berger, August 2003, http://www.ukcpr.org/Publications/Bollinger_DP2003-08. pdf 3. Unemployment and inactivity in the 2008–2009 recession, Paul Gregg and Jonathan Wadsworth, http://tinyurl.com/napm35w

4. An econometric analysis of underemployment and overemployment in the UK, Jose Luis Iparraguirre and Hui-Yu Tseng, http://tinyurl.com/npmahe9 5. Psychological Effects of Unemployment and Underemployment, Kerry Bolger, PhD, www.apa.org/about/gr/issues/socioeconomic/unemployment.aspx 6. Underemployment and potential additional labour force statistics, Eurostat, http://tinyurl.com/nfpk6cj

w dowolnym kraju Unii Europejskiej, w zawiązku z czym pracują na stanowisku odpowiadającym ich kwalifikacjom poza granicami Polski;

− Polska jest zaliczana do krajów emerging markets i cechuje się średnio wyższym wzrostem gospodarczym, a więc większymi możliwościami do tworzenia nowych miejsc pracy, które wymagają wysokich kwalifikacji7.

Niezależnie od tego, która z hipotez wyjaśnia sytuację, można zauważyć, że w Polsce, przynajmniej statystycznie, problem ten jest mniejszy w porównaniu z krajami bardziej rozwiniętymi. Jednak aby wyznaczyć bardziej ogólne trendy, trzeba spojrzeć na dane opisujące amerykański rynek pracy i na ich podstawie można stwierdzić, że: − zatrudnienie jest cykliczne bezrobocia8;

poniżej podobnie

kwalifikacji do zjawiska

bezrobocia (spread się zwęża), a więc jest bardziej zmienna;

− stan zatrudnienia poniżej kwalifikacji jest swoistym buforem między zatrudnieniem oczekiwanym a pozostaniem bez pracy, co jest szczególnie ważne podczas recesji (pozwala zachować obywatelom źródło dochodu); − (hipoteza) stopa underemployment jest średnio niższa w krajach rozwijających się (o średnim wyższym wzroście gospodarczym) niż w krajach rozwiniętych9;

− (ciekawostka) wzrostu stopy zatrudnionych poniżej kwalifikacji można się spodziewać między grudniem a styczniem, a spadku między lutym a marcem, najbardziej stabilnym miesiącem jest grudzień10 (dotyczy tylko USA).

Powyższe wnioski nie są przełomowe i sprowadzają się do zastosowania analizy zbliżonej do analizy bezrobocia. Zresztą, teoria ekonomii sugeruje, − w czasie recesji stopa underemployment aby traktować zjawiska bardzo podobnie, gdyż są rośnie szybciej niż stopa bezrobocia, a w 9 Wymaga to badań i odpowiedniego dowodu, sam czasie ożywienia spada szybciej niż stopa przykład Polski i innych rozwijających się członków UE nie

7 Ta hipoteza jest poparta założeniem, że zjawisko underemployment zachowuje się podobnie jak zjawisko bezrobocia, co wymaga nieco bardziej zaawansowanego dowodu. W tym przypadku to założenie zostało sformułowane na podstawie nieekonometrycznej analizy danych statystycznych z USA i Europy. 8 Wniosek wyciągnięty w oparciu o oficjalne wskaźniki, jednak raport Measuring Underemployment at the County Level przedstawia badania, które dowodzą, że nie istnieje związek statystyczny między bezrobociem i underemployment (str. 11).

18

Makroekonomia

jest wystarczający. Dlatego podaną hipotezę należy na razie traktować jako luźne spostrzeżenie. 10 Technicznie: odczyty spreadu wyższego w styczniu niż w grudniu (11 przypadków wzrostu i 4 utrzymania na próbie 20) i niższego w marcu niż w lutym (13 przypadków spadku i 3 utrzymania na próbie 20). W grudniu wielkość spreadu była taka sama jak w lutym 9 razy na 19 przypadków (przy trzech możliwych wynikach: wzrost, spadek, utrzymanie). Próba jest zbyt mała, a te wnioski nie mogą być potwierdzone w danych Eurostatu (odczyt kwartalny), więc należy to traktować jako statystyczną ciekawostkę.


12milebr.wordpress.com

mniejsze skutki ekonomiczne niż bezrobotni, przez co jest najczęściej ignorowana.

Pod względem oddziaływania na społeczeństwo, grupa underemployed także nie wpływa na nie tak negatywnie jak grupa bezrobotnych. Głównie dlatego, że ciągle mają źródło dochodów i mogą zaspokoić przynajmniej podstawowe potrzeby swoje i swoich rodzin. Jednak osoby zatrudnione na mniej ważnych, mniej płatnych lub mało prestiżowych stanowiskach, mogą się spotkać z wykluczeniem społecznym i negatywnymi reakcjami innych ludzi. Mogą silnie powiązane. Pozostaje mieć nadzieję, że w też czuć się pozbawione pomocy instytucji przyszłości jakiś sławny ekonomista obierze za państwowych, jako osoby, które ostatecznie mają temat swoich badań ilościową zależność między pracę, i nie otrzymać np. darmowych świadczeń, wzrostem gospodarczym, stopą bezrobocia i które otrzymują bezrobotni. Najpoważniejszym stopą underemployment oraz dostarczy nowych skutkiem społecznym może być emigracja do ciekawych wniosków w tej dziedzinie. krajów, w których łatwiej znaleźć zatrudnienie w danej dziedzinie, co można zaobserwować obecnie Skutki ekonomiczne i społeczne w Unii Europejskiej, poprzez np. wchłanianie specjalistów z południa i wschodu Europy przez We wcześniejszych akapitach wykazano, że kraje Europy Zachodniej. zatrudnienie poniżej kwalifikacji jest podobne do bezrobocia. Można pomyśleć, że ich skutki są Podsumowanie takie same. To fakt, są one podobne, lecz pojawiają się w innym czasie i z pewnego punktu widzenia, Problem underemployment nie jest zjawiskiem skutki underemployment są „łagodniejsze”. Z nowym, lecz w poprzednich dekadach nie prawie każdego punktu widzenia, lepiej być przywiązywano do niego jakiejkolwiek wagi. zatrudnionym11 niż bezrobotnym, jednak te Dopiero niedawno podjęto próby sprecyzowania dwa różne stany wywołują różne implikacje zjawiska, zmierzenia go i wyciagnięcia ekonomiczne. Zatrudnieni nie są uwzględniani konstruktywnych wniosków. Niestety, oficjalne w oficjalnej stopie bezrobocia, bo albo pracują w miary, choć przybliżają wielkość grupy niepełnym wymiarze godzin albo są wyłączeni z zatrudnionych poniżej kwalifikacji, nie oddają w siły roboczej. Poza tym, coś produkują, świadczą pełni obrazu zjawiska. Można by wiele dyskutować usługi itp., tylko w stopniu o wiele niższym niż ich o dysproporcjach ze względu na pochodzenie, płeć możliwości. W związku z tym mają swój udział w i wiek, ale to nie ma znaczenia, dopóki nie pojawią tworzeniu PKB, choć nie tak duży, jaki potencjalnie się odpowiednie badania tej grupy. Nie do końca mogliby mieć. To ma znaczenie głównie w wiadomo, czy underemplyment to tylko dodatek rozważaniach teoretycznych, szczególnie, że do bezrobocia i podlega tym samym prawom, czy oficjalnie ta grupa nie jest zbyt liczna (wyżej to zupełnie inne zjawisko, które należy dopiero pokazano, że przeciętny poziom underemployment opisać teoretycznie. Zwłaszcza, że badania BLSu to ok. 4-5% siły roboczej), więc na realny wskazują na występowanie tej zależności, a inne wzrost PKB wpływ ma niewielki. Poza tym, nie badania, np. raport Measuring Underemployment trzeba subsydiować tej grupy (np. zasiłek dla at the County Level i dane Eurostatu (które bezrobotnych), płaci ona świadczenia (podatek jednak są zbyt mała próbą aby wyciągnąć istotne dochodowy i inne, np. ubezpieczenie zdrowotne), wnioski) – już nie. Pozostaje tylko mieć nadzieję, a także stanowi bardziej aktywnych konsumentów że ten problem zostanie zbadany i rozstrzygnięty, w porównaniu do bezrobotnych. Grupa do czego zachęcam czytelników, zwłaszcza, ze to zatrudnionych poniżej kwalifikacji powoduje bardzo dobry temat na prace magisterską, jeśli nie 11 Od tego momentu zatrudniony i zatrudniony nawet na rozprawę doktorską. poniżej kwalifikacji będą używane wymiennie.

Makroekonomia

19


panoramio.com

Czy mamy się czego bać, czyli o ryzyku finansowym w Chinach Pod koniec XVIII wieku Wielka Brytania, która po wojnie siedmioletniej była już wówczas największą potęgą świata, podjęła kompletnie nieudaną próbę nawiązania stosunków handlowych z Chinami. Szefem poselstwa Jerzego III do Państwa Środka był George Macartney, który zupełnie nie potrafił odnaleźć się w chińskiej rzeczywistości – choć teza ta jest kontrowersyjna wśród historyków, to uważa się, że fiasko rozmów brytyjsko-chińskich wynikało ze zbyt butnej postawy dyplomaty w stosunku do cesarza Qianlong. Jakkolwiek było naprawdę, niewątpliwe jest, że wizyta Macartneya doprowadziła do zderzenia dwóch zupełnie innych światów, które dotychczas niczego o sobie nawzajem nie wiedziały. Plonem tej wizyty były również słynne słowa: „nic bardziej mylnego niż ocenianie Chin według norm europejskich”, znane obecnie szeroko jako tzw. „aksjomat Macartneya”. Truizm – mógłby ktoś rzec. Zaskakujące jest jednak, jak często trzeba go przypominać i jak wiele „europejscy” (według realiów XXI wieku po prostu zachodni) obserwatorzy tracą, gdy o nim zapominają. 20

Makroekonomia


BARTOSZ WASILEWSKI Student Wydziału Prawa i Administracji UW oraz Szkoły Głównej Handlowej. Na rynku akcji GPW od lipca 2009 roku, na rynku CATALYST od sierpnia 2011. Zwycięzca VII edycji Akademii Giełdowej. Makler papierów wartościowych z uprawnieniami do wykonywania czynności doradztwa inwestycyjnego. Obecnie pracuje w firmie doradztwa compliance. Świetnym przykładem takiego postępowania jest przerażenie z jakim wiele analityków opisuje czerwcowe wydarzenia na chińskim rynku międzybankowym nazwane chińskim „credit crunch” (co dosadnie pokazuje, że o „banalnym” aksjomacie Macartneya kolejny raz zapomniano). 20 czerwca stopa jednodniowych (overnight) pożyczek międzybankowych w Chinach wyniosła rekordowe 13,85%, a najistotniejsza stopa tego rynku – 7-dniowa stawka repo – 12,06% (obie stopy oczywiście w skali roku). Niedługo

później indeksy chińskich akcji znalazły się na poziomach najniższych od czterech lat. W większości komentarzy mogliśmy przeczytać o niespodziewanym wzroście ryzyka kryzysu finansowego w Chinach i niedoborze płynności na tamtejszym rynku międzybankowym. Prawdziwe nie jest ani jedno, ani drugie, a sytuacja podczas „credit crunch” z czerwca i następujących po nim tygodniach każe raczej postawić tezę, że chiński sektor finansowy jest bezpieczniejszy i stabilniejszy niż wcześniej.

Wykres 1. Struktura terminowa stawek lokat na rynku międzybankowym Chin z 28 czerwca 2013. Opadający kształt krzywej świadczy o chwilowym braku podaży pieniądza krótkoterminowego, a nie o utracie "zaufania" między uczestnikami rynku.

źródło: shibor.org za: cpInvestments.pl

Makroekonomia

21


Kiedy podobny „credit cruch”, czyli nagły wzrost kosztu finansowania wskutek niedoboru płynności na rynku międzybankowym, będący zazwyczaj wynikiem braku zaufania między uczestnikami tego rynku, zdarza się w państwach zachodnich, stanowi to poważne zagrożenia dla ich systemu finansowego. Brak płynności może doprowadzić do szybkiego bankructwa mniejszych banków uzależnionych od finansowania na rynku międzybankowym. Podmioty te operują zwykle na tak wysokim poziomie dźwigni finansowej, że nawet kilkudniowy brak dostępu do rynku może doprowadzić do ich bankructwa. W takim wypadku konieczne jest albo bankructwo, albo dokapitalizowanie banku przez dotychczasowych lub nowych właścicieli. Aby tego uniknąć, bank centralny zwykle „wstrzykuje” do systemu dodatkową płynność w postaci taniej gotówki dla każdego – scenariusz doskonale znany z amerykańskiego kryzysu zaufania po upadku Lehman Brothers we wrześniu 2008 roku. Ogromne rozmiary zachodnich rynków finansowych powodują, że takie działania są kosztowne, a czasem również nieskuteczne (szczególnie gdy kryzys zaufania trwa dłużej niż kilka dni). Warto zauważyć, że żadne z opisanych wyżej ryzyk nie ma szans na materializację w Państwie Środka. Chiński system finansowy jest bowiem diametralnie odmienny od zachodnich odpowiedników i nie powinien być „oceniany według ich norm”. Podział na bank centralny i banki komercyjne w Chinach jest całkowicie fikcyjny (przyjęty wyłącznie w celu porównania systemu chińskiego i zachodniego) z jednego prostego powodu: chiński sektor bankowy jest ściśle kontrolowany przez państwo. To nie bank centralny pełni rolę regulatora w swobodnym, co do zasady, handlu pieniądzem między bankami komercyjnymi. Nie jest też pożyczkodawcą ostatniej instancji, jak banki centralne na Zachodzie. Chiński system finansowy należy traktować raczej jako jedno wielkie przedsiębiorstwo w ramach którego dystrybuowane są środki należące do tego samego właściciela – państwa. Ten prosty i powszechnie przecież znany fakt implikuje kilka równie prostych wniosków. Po pierwsze, na chińskim rynku międzybankowym nie jest możliwy kryzys zaufania (państwo nie może przestać ufać samemu sobie). Po drugie, nie jest możliwe bankructwo żadnego z uczestników „rynku” bez wiedzy i woli państwa, gdyż państwo może zawsze nakazać pożyczenie pieniędzy przez jeden bank drugiemu bankowi

22

Makroekonomia

lub po prostu dokapitalizować podmiot mający kłopoty – i może to uczynić z dnia na dzień, nie martwiąc się o procedury demokratyczne czy protesty obywateli (jak w przypadku bailoutu amerykańskiego AIG). Pamiętajmy, że to chińska partia komunistyczna kontroluje, nie tylko banki „komercyjne”, ale i bank centralny, a przez to podaż pieniądza. Li Keqiang może drukować juany znacznie szybciej i znacznie bardziej efektywnie niż Ben Bernanke dolary! Podsumowując, należy stwierdzić, że chiński czerwcowy „credit crunch” nie spowodował wzrostu ryzyka kryzysu w sektorze finansowym w Chinach. Dlaczego twierdzę, że spowodował jego spadek? Źródłem tego ryzyka jest przede wszystkim brak wystarczających informacji o poszczególnych uczestnikach rynku. Po pierwsze, system bankowy w Chinach rozrasta się w tempie geometrycznym i Ludowy Bank Chin po prostu nie jest w stanie analizować, przetwarzać i interpretować wszystkich informacji o nim. Po drugie, chińskie banki, które były zmuszone do finansowania wskazanych przez partię komunistyczną inwestycji, nierzadko całkowicie chybionych, mają bardzo duży portfel złych kredytów, których rozmiary trudno nawet oszacować. Po trzecie wreszcie, dane przekazywane przez banki są zwykle fałszowane. Znamy ten mechanizm z polskiego systemu centralnie sterowanego – papier wszystko przyjmie, normy trzeba wyrabiać, premie dostawać, stanowiska zachowywać. O ryzyku systemowym nikt na niższych szczeblach władzy partyjnej nie myśli. Szeroko znany (zarówno wśród samych Chińczyków jak i analityków z Zachodu) jest fakt fałszowania danych o wzroście PKB przez władze lokalne. Gdyby dodać do siebie raportowane przez poszczególne prowincje dane o wytworzonym produkcie, chiński wzrost PKB byłby znacznie wyższy niż podawany przez Pekin. Podobnie jest z danymi z banków, szczególnie mniejszych operujących w niszach określanych (znów na modłę zachodnią) jako shadow banking. Jak bank centralny może zasypać tą dziurę informacyjną? Na przykład wywołując „credit crunch”. Zachowanie Ludowego Banku Chin przed, w trakcie i po wydarzeniach z czerwca wskazuje jednoznacznie, że stanowiły one kontrolowany eksperyment banku centralnego, który w ten sposób zidentyfikował podmioty narażone na zwiększone ryzyko płynności. Analitycy JP Morgan kilka dni po „credit crunch” przedstawili przekonujące wytłumaczenie jego przyczyn. Wzrost stawek pożyczek międzybankowych


zbiegł się w czasie z wprowadzeniem przez państwo zakazem fikcyjnych transakcji typu Sell-Buy-Back (S-B-B), wykorzystywanych przez mniejsze, lokalne chińskie banki do finansowania produktów inwestycyjnych typu Wealth Management Products (WMP). Oto jak wygląda ten mechanizm: najpierw bank pozyskuje bazę depozytową oferując WMP charakteryzujące się bardzo atrakcyjnym oprocentowaniem i bliskim terminem zapadalności. Aby sfinansować kosztowny produkt bank kupuje ryzykowne, wysoko rentowne obligacje korporacyjne o znacznie dłuższej zapadalności od WMP. W celu zlikwidowania powstającej w ten sposób luki płynności, bezpośrednio przez zapadalnością WMP bank sprzedawał obligację w ramach transakcji S-B-B innemu „zaprzyjaźnionemu” bankowi, wypłacał należną sumę posiadaczom WMP, sprzedawał nowy produkt tego typu i natychmiast odkupował rentowną i ryzykowną obligację. Po wprowadzeniu zakazu tego typu praktyk, banki,

które najsilniej angażowały się w ryzykowne produkty typu WMP, znalazły się pod wysoką presją płynnościową i musiały akceptować rosnące stawki pożyczek międzybankowych. Ludowy Bank Chin ma więc dobre informacje na temat podmiotów, w których koncentruje się ryzyko systemowe związane z WMP. Całą operację można rozumieć jako przeprowadzenie stress testów, podobnie jak czyni się to na Zachodzie, jednak nie w Excelu, lecz w praktyce. Stawki na rynku międzybankowym wróciły zaś do normy – w chwili pisania tego artykułu stopa overnight wynosiła 3%, a stopa tygodniowa 3,5%. Struktura terminowa również wróciła do normalności – krzywa dochodowości uwzględnia koszt płynności i jest rosnąca. Dwa miesiące po „credit crunch”, które wzbudziło przerażenie wśród zachodnich inwestorów, chiński rynek międzybankowy działa normalnie i płynnie, a bank centralny zdobył całą masę cennych informacji o uczestnikach tego rynku, jego głębokości i drożności.

Wykres 2. Uproszczony schemat finansowania tzw. Wealth Management Products przez banki chińskie.

źródło: Reuters za: zerohedge.com

Makroekonomia

23


REKLAMACJA BEZ PARAGONU

weaponsman.com

„Jeżeli towar konsumpcyjny jest niezgodny z umową, kupujący może żądać doprowadzenia go do stanu zgodnego z umową przez nieodpłatną naprawę albo wymianę na nowy, chyba że naprawa albo wymiana są niemożliwe lub wymagają nadmiernych kosztów.” Tak stanowi § 8 Ustawy z dnia 27 lipca 2002 r. o szczególnych warunkach sprzedaży konsumenckiej oraz o zmianie Kodeksu cywilnego (Dz. U. z dnia 5 września 2002 r.)

Co jednak zrobić, gdy sprzedawca żąda od nas dowodu zakupu w formie paragonu? Zwrot towaru bez dokumentu fiskalnego sprzedawcy w Polsce nadal jest mało rozpowszechniony. Część z nas nie zabiera ich ze sklepu, inni gubią je w natłoku dokumentów, a ci, którzy je sumiennie przechowują najczęściej spotykają się z sytuacją, że po kilku miesiącach są całkowicie wypłowiałe i nieczytelne. Znane większości stwierdzenie „podstawą reklamacji jest paragon” zniechęca klientów do walczenia o swoje prawa. Warto jednak zauważyć, że stanowisko sprzedawców nie ma żadnego poparcia w przepisach prawa. Co więcej stwierdzenia „Do reklamowanego lub zwracanego produktu konieczne jest dołączenie paragonu” czy też „Podstawą przyjęcia reklamacji jest dowód

24

Prawo

zakupu towaru (paragon fiskalny lub faktura)” zostały zawarte w rejestrze klauzul niedozwolonych prowadzonym przez Prezesa UOKiK. Na przedsiębiorcę posługującego się ww. stwierdzeniami może zostać nałożona kara pieniężna w kwocie do 10 % przychodu osiągniętego w roku poprzedzającym datę nałożenia na niego kary. Udając się z reklamacją musimy jedynie udowodnić fakt daty nabycia oraz miejsca zakupu przedmiotu. Potwierdzeniami zakupu są nie tylko paragony i faktury. Mogą nimi być wyciągi bankowe, umowy, wyciągi z kart płatniczych czy też kredytowych, a także oświadczenia: zarówno kupującego, jak i świadków będących z nami podczas zakupów. Wiele przedsiębiorstw odnotowuje sprzedaż za pomocą dodatkowych systemów

komputerowych. Często można spotkać się również z sytuacją, gdy przedsiębiorstwa przechowują nagrania z kamer monitorujących obiekt. Sprzedawca znając konkretną datę i godzinę – w ramach dobrej woli i w razie wątpliwości co do sprzedaży w jego przedsiębiorstwie towaru – może odnaleźć na rolkach kasowych kopię zagubionego przez nas paragonu. Wszystkie powyższe sytuacje mogą pomóc w udowodnieniu czasu oraz miejsca zakupu trefnego towaru. Sytuacja udowodnienia zakupu sprzedawcy wydaje się być jeszcze prostsza w przypadku zakupów internetowych. W takim przypadku warto posłużyć się: potwierdzeniem zamówienia towaru, korespondencją ze sprzedawcą, czy też przedstawieniem listu przewozowego. Każda z powyższych dokumentacji


może wspomóc nasze starania o uznanie naszej reklamacji. Jeśli sklep nadal będzie kwestionował nasze prawa należy udać się z zaistniałą sytuacją do powiatowego lub odpowiednio miejskiego rzecznika konsumentów. Należy jednak pamiętać o drugiej stronie medalu. Sprzedawca, który udzielił nam reklamacji, musi fakt ten udokumentować na gruncie podatkowym. Ciężar jej uzasadnienia znajduje się po stronie przedsiębiorcy, który w prowadzonej przez siebie księgowości powinien posiadać dowody potwierdzające stan rzeczywisty. Takimi też dokumentami musiałby się okazać w przypadku kontroli skarbowej. W interpretacji indywidualnej, nr IBPP2/443-121/08/ ICz z 12 maja 2008 r., dyrektor Izby Skarbowej w Katowicach stwierdził jednak, iż „zgromadzenie przez przedsiębiorcę dowodów (...) stanowiących dowód przeciwny do dowodu, jakim jest zapis z kasy

EWA KOŚLACZ Studentka Szkoły Głównej Handlowej. Absolwentka i stypendystka rektora UW na kierunku Finanse i Rachunkowość. Specjalista d.s. księgowości w biurze rachunkowym ProPIT. Autorka publikacji podatkowych oraz ubezpieczeniowych w dzienniku Rzeczpospolita.

rejestrującej, przy uwzględnieniu wyjątkowego charakteru zdarzeń, może stanowić podstawę do skorygowania obrotu i kwot podatku należnego (...)”. Wydawane przez sprzedawców paragony są nietrwałe. Ich całkowita nieczytelność następuje średnio po 7-8 miesiącach. Znane większości są legendarne i zarazem śmieszne formy wydłużania ich przydatności (przetrzymywanie zafoliowanych w lodówce, obklejanie taśmą bezbarwną, czy

też prasowanie już nieczytelnego dokumentu, które powoduje efekt negatywu). Jeżeli chcemy ułatwić zarówno sobie jak i sprzedawcy życie, niezwłocznie po otrzymaniu towaru – kserujmy paragon, lub prośmy sprzedawcę o wystawienie faktury (mamy do tego prawo w ciągu 7 dniu) czy też w przypadku przedsiębiorcy niebędącego czynnym podatnikiem podatku VAT – rachunku (możemy się ubiegać o jego wystawienie w ciągu 3 miesięcy).

info.milestoneadvisors.net

Prawo

25


Minister Finansów Jacek Rostowski – dobry czy zły? W tym numerze Rubryka “To Zależy” była jeszcze trudniejsza do zredagowania niż kiedykolwiek wcześniej. O ile w poprzednich pozycjach oceniane były zjawiska i przedsięwzięcia ekonomiczne, o tyle obecnie na warsztat poszła ocena osoby publicznej. I to jakiej – Minister Finansów Jacek Rostowski wyzwala w ostatnim czasie emocje u wszystkich ekonomistów zaangażowanych w dyskusje publiczną. Warto zwrócić również uwagę, iż w tejże dyskusji sami ekonomiści są niezwykle podzieleni. Wydawać by się też mogło, iż tak fundamentalne kwestie jak kierunek(!) reformy emerytalnej czy też sama polityka budżetowa, nie powinny być powodem do gorących, kilkumiesięcznych sporów, jednak jak rzeczywistość pokazała, w ostatnim czasie byliśmy świadkami niezwykłej polaryzacji środowiska ekonomicznego. W takim razie jak to jest - czy Jacek Rostowski jest dobrym ministrem czy też nie? Dwa przeciwne stanowiska zajmują nasi redaktorzy, i obaj przedstawiają solidne argumenty w poruszanym obszarze. Zapraszamy do lektury!

Nie taki Minister straszny jak go malują

Ministrowie finansów w każdym kraju na świecie są poddawani nieustannej krytyce przez obywateli, ekonomistów i opozycję. Są „winni” wysokich podatków, deficytu budżetowego, zbyt małych wydatków, zmian w systemach emerytalnych bądź ich braku, a czasem nawet wini się ich za zbyt dobrą koniunkturę. Nie inaczej jest w Polsce. Przez ostatnich kilka miesięcy minister Rostowski jest krytykowany za każdą z wyżej wymienionych sytuacji. Ale czy to zasłużona krytyka, czy tylko opozycyjna paplanina? Mateusz Niewiński

Jak sprawdzić, czy minister finansów w Polsce działa skutecznie? Można przytoczyć nagłówki z gazet, które udowodnią nam, że obecny wicepremier jest najgorszym ministrem wszechczasów. Ja wolę sprawdzić, jak minister i jego podwładni realizują cele postawione im przez prawo. Tak, przez prawo, a nie przez program partii. Nie interesują nas przecież cele polityczne, te minister wypełnia doskonale.

W Polsce zadania ministra finansów reguluje wiele aktów prawnych, m.in. Konstytucja RP, „Ustawa o Radzie Ministrów”, „Ustawa o działach administracji rządowej”, dwa zarządzenia i jedno rozporządzenie Prezesa Rady Ministrów1. Najpełniejsze wyjaśnienie znajdziemy w artykule 7., 8. i 12. z „Ustawy o działach...”, które mówią, że podstawowymi zadaniami ministra finansów są: − opracowanie i wykonanie budżetu państwa,

1 Na podstawie http://www.mf.gov.pl/ ministerstwo-finansow/minister-finansow/zadaniaministra-finansow

26

To Zależy

− zarządzanie systemem finansowania sektora publicznego, − zarządzanie długiem publicznym,

− realizowanie przychodów i wydatków budżetu państwa,

− inne zadania dotyczące przepisów celnych, gier losowych, rachunkowości, prawa dewizowego, kontroli skarbowej i funkcjonowania rynku finansowego w Polsce.

Z wymienionych wyżej zadań minister zdaje sprawozdanie, szczególnie dotyczące wykonania budżetu państwa, które musi zostać przyjęte przez Sejm. Nawet jeśli obowiązuje dyscyplina partyjna, to w przypadku rażących nieprawidłowości, Sejm nie przyjmie sprawozdania z wykonania budżetu. Pojawiają się i inne zarzuty, m.in. o błędne założenia (a dokładniej prognozy) przyjęte w ustawach


budżetowych na dany rok. Przypomnę tylko, że sam minister nie liczy wzrostu PKB w Excelu (ani na wielkim kalkulatorze), a robią to ekonomiści zatrudnieni w ministerstwie. I jak każda prognoza, te ministerialne także są obarczone błędem. Nie można wymagać od ministra bezbłędności, a jedynie racjonalności. Tę cechę Jacek Rostowski niewątpliwie posiada. Poprawki budżetu w czasach recesji są częste, a te ostatnie wydają się bardziej przemyślane, niż uważają ich krytycy – mogą poprawić sytuację budżetu w 2014 roku.

Kolejnym zarzutem jest oskarżenie wicepremiera o próbę demontażu systemu emerytalnego. Fakty są takie, że ministerstwo przygotowało raport, minister go przedstawił i zaproponował różne opcje. Nie wszystkie możliwe, ale większość z nich. Nadal są to tylko propozycje, choć w fazie zaawansowanej. Co więcej, gdyby się nie pojawiły, można by uznać zachowanie ministra za niekompetentne! Wszystkim krytykom przypominam, że to nie minister zdecyduje o przyszłości systemu emerytalnego w Polsce, ale parlament i prezydent (ma prawo weta) rozważą propozycje rządu (wcześniej musi je zaakceptować premier). Choć nie każda wypowiedź ministra w tym temacie jest fortunna, to trzeba pamiętać, że jest on politykiem i musi wkomponować się w linię polityczną partii rządzącej.

Także wzrost gospodarczy jest silnie powiązany z wypowiedziami o ministrze finansów. Zwykle jemu przypisuje się winę za złą koniunkturę, lecz w czasach prosperity zapomina się o nim. Jednak przecież zawsze może powiedzieć, że „nie przeszkadzał swoimi

działaniami” w fazie wzrostowej cyklu gospodarczego. Niestety, albo na szczęście, cykl koniunkturalny nie jest zależny od ministra finansów. Może on jedynie podjąć działania stymulacyjne, stosując odpowiednią politykę fiskalną. Jednak warto zauważyć, że w zakresie oficjalnych obowiązków nie zostało ujęte dbanie o wzrost gospodarczy. Jest to zadanie bardziej odpowiednie dla ministra gospodarki, choć to ministra finansów wyposażono w narzędzia umożliwiające jego wykonanie. Oczywiście, minister finansów „to robi”, lecz zawsze przed tym zadaniem priorytet będą miały zadania ustawowe. Te „niedopatrzenie” prawne zmienia nieco rolę ministra finansów, czego krytycy nie zauważają. Wreszcie najpoważniejszy zarzut – nadmierne zadłużanie państwa. Mało kto pamięta o tym, że minister ma niewielki realny wpływ na wydatki i przychody budżetu państwa. Mniej więcej trzy czwarte wydatków to wydatki prawnie zdeterminowane (tzw. wydatki sztywne)2, których zmiana wymaga zmian odpowiednich ustaw, do czego nie zawsze znajdzie się poparcie polityczne. Poza tym, minister może tylko stanowczo poprosić swoich kolegów z innych resortów, aby ograniczyli wydatki, lecz nie zawsze osiągnie kwoty, jakich potrzebuje. Także strona przychodowa nie jest pod pełną kontrolą ministra finansów – nie zmusi on Polaków, aby poszli do sklepów, zrobili zakupy i zwiększyli wpływy z podatków pośrednich (największa pozycja przychodów budżetu). Może on 2 Na podstawie http://orka2.sejm.gov.pl/ BASleksykon.nsf/dokument.xsp?id=856882A0D5E71D55C 1257A5C0045B693&SessionID=DAYOMRDVIK

To Zależy

27


podnieść stawki podatku lub wprowadzić nowe, lecz może to zmniejszyć wpływy do budżetu (odsyłam do teorii Laffera). Jedyną opcją pozostaje więc zadłużenie, które w racjonalnej wielkości i otrzymane od krajowych wierzycieli, nie jest bardzo szkodliwe. Na problem zarządzania finansami publicznymi trzeba też spojrzeć z punktu widzenia samego ministra. Musi on przede wszystkim spełnić wymagania swojego bezpośredniego zwierzchnika, czyli premiera. To premier powołuje go na stanowisko i dopóki nie będzie miał on powodów do odwołania (np. zaniedbanie obowiązków ustawowych), pozycja ministra finansów będzie silna. Minister nie tworzy samodzielnie polityki państwa, więc nawet jeśli ma pomysły dotyczące reform gospodarczych, to musi się liczyć ze zdaniem koalicyjnych kolegów. Wicepremier Jacek Rostowski jest ministrem finansów najdłużej piastującym ten urząd. Ponowny wybór (na drugą kadencję) oraz nagrody uznanego

serwisu „Emerging Markets3” – „minister finansów roku” – stanowią dobrą rekomendację dla naczelnika polskich finansów. Pan wicepremier nie jest ministrem idealnym, wszak odrobina krytyki jeszcze nikomu nie zaszkodziła, lecz większość zarzutów jest sformułowanych bez zrozumienia sytuacji, a także po prostu źle zaadresowanych. Warto o tym pamiętać, krytykując każdego z urzędujących ministrów, bez względu na opcję polityczną...

3 http://www.bankier.pl/wiadomosc/ Jacek-Rostowski-najlepszym-ministremfinansow-2012-roku-2656553.html

Gdziekolwiek jesteś, Panie Ministrze

Gdy w 2007 roku Jacek Rostowski zostawał ministrem finansów, rynki odetchnęły z ulgą. Był przedstawiany przez media jako profesor i wybitny ekonomista. Koledzy po fachu wypowiadali się o nim w samych superlatywach.

Dziś minister kompromituje się na każdym polu. Jego dawni poplecznicy mogą tylko czerwienić się z zażenowania słysząc wypowiedzi, które po prostu nie przystoją osobie z wykształceniem ekonomicznym. Nawet magistrowi, którym minister jest, choć prasa i inni politycy często z rozpędu tytułują go profesorem. Marcin Senderski

Zdaje się, że jako pierwszy Rostowskiego przejrzał jego były zastępca, prof. Stanisław Gomułka, który z bycia wiceministrem zrezygnował w 2008 roku zaledwie po trzech miesiącach wspólnej pracy. Dlaczego? „Dziennikowi” zwierzał się, że czuł brak poparcia politycznego dla swoich działań reformatorskich. To powinien być sygnał ostrzegawczy, że szumnie zapowiadane reformy w dziedzinie finansów publicznych okażą się tylko przysłowiową dużą chmurą. Nie był.

28

To Zależy

Rację ma Leszek Balcerowicz mówiący o „fałszerstwie intelektualnym” Rostowskiego, w kontekście demontażu filara kapitałowego w systemie zabezpieczenia emerytalnego. To fałszerstwo dotyka wielu płaszczyzn. Po pierwsze, minister bez mrugnięcia okiem dowodzi, że stopy zwrotu w ZUS-ie są wyższe niż w OFE, zupełnie ignorując fakt, że ZUS jest jedynie projekcją politycznych pobożnych życzeń, a nie skarbcem z pieniędzmi. Po drugie, krytykuje rentowność OFE, doskonale wiedząc


jednak, e ich portfel inwestycyjny jest mało urozmaicony, a możliwości dywersyfikacji niewielkie, w praktyce ograniczone do dychotomii akcje vs. obligacje. Tym samym, trzeci podnoszony zarzut, jakoby OFE w złej wierze skupowały dług generowany przez państwo, jest bezpodstawny, bo de facto fundusze nie mają innej alternatywy. ż

Popularny stał się również pogląd przypisujący OFE sprawstwo bardzo wysokiego długu publicznego w Polsce. „Nie ma żadnej wątpliwości, że stworzenie filara kapitałowego znacznie zwiększyło dług publiczny” – powiedział Rostowski na konferencji prasowej 26 czerwca. Rzekome wytłumaczenie? Gdyby część naszych składek nie płynęła do prywatnych funduszy, rząd nie musiałby drukować obligacji. To również niedorzeczność, bo każdy, kto śledzi poczynania rządów wie, że są to instytucje będące w stanie zaabsorbować i przejeść każde pieniądze. Nawet gdyby część składki emerytalnej, obecnie przekazywanej sektorowi prywatnemu, trafiała do ZUS-u, nie powstrzymałoby to rządu przed parciem do jeszcze większego zadłużenia. Ostatnio okazało się, że nawet dość mocno umocowany w polskim prawodawstwie 50-proc. próg ostrożnościowy (tj. relacja długu publicznego do PKB) to żadna przeszkoda dla nienasyconego rządowego apetytu. Minister Rostowski żeruje na niewiedzy społeczeństwa. Owszem, świadomość zawiłości ekonomicznych jest dziś dużo większa niż przed wybuchem kryzysu gospodarczego. Słowa takie jak spread, konsolidacja fiskalna czy wzrost gospodarczy nie są już czarną magią dla gospodarczego „laikatu”. Wielu pojęło nawet różnicę między procentem a punktem procentowym. Jednak sprawa OFE jest złożona i właściwy osąd wymaga również znajomości kontekstu, a tego od Polaków trudno wymagać. Minister rozgrywa prymitywne instynkty społeczeństwa, z reguły wrogo nastawionego do świata wielkiej finansjery. Przeciętny obywatel nie powinien mieć jednak żadnych podstaw, by bardziej ufać państwu niż rynkowi. Rostowski krytykuje reformę emerytalną rządu Jerzego Buzka, która miała swoje niedociągnięcia, ale którą kolejne gabinety pozostawiały nietkniętą niczym trędowatego. On sam też przez kilka lat nie robił nic w celu obniżenia prowizji pobieranych przez OFE czy zliberalizowania możliwości inwestycyjnych funduszy. Ministrowi nie przeszkadza to jednak w wyrażaniu dosadnej krytyki funkcjonowania II filara.

Schizofrenia tej sytuacji polega na tym, że minister krytykuje samego siebie. Tymczasem, nie ma żadnego pola do krytyki OFE, gdyż fundusze reagują wyłącznie na bodźce jakich dostarcza im regulator. Maksymalizują swój zysk w sposób często niemoralny, bo mogą to robić – i to jest ekonomiczny sens, jaki można by nadać popularnym prawom Murphy’ego.

Jest jedna cecha, za którą Rostowski powinien zostać potępiony w sposób szczególny. Tą przypadłością jest krótkowzroczność – występująca u wielu polityków, ale w ministerstwie finansów szczególnie niebezpieczna. Minister zdaje się nie przejmować, w jaki sposób przyszłe rządy wyczarują fundusze na wypłatę emerytur. Zachowuje się tak, jakby tabele z danymi demograficznymi oglądał ostatni raz kilka dekad temu, a obecny, alarmująco niski przyrost naturalny nie przemawia do jego wyobraźni. Rozbiórka części kapitałowej systemu jest potęgowana przez zaniechanie bolesnych, ale koniecznych reform w dziedzinie finansów publicznych, pomocy społecznej, systemu podatkowego, a także… systemu emerytalnego (który składa się jednak z czegoś więcej niż ciągłe wałkowanie tematu wysokości składki przekazywanej do OFE). Także kwestia rychłej akcesji do strefy euro zawisła w próżni. Te odważne kroki rekompensowane są zabiegami księgowymi, które skutecznie poprawiają wizerunek bilansu, ale zwalczają tylko objawy, a nie przyczyny zapaści. Ponadto, minister zamraża progi podatku PIT, zawiesza próg ostrożnościowy i regułę wydatkową, do tego krytykując tych posłów, którzy nie godzą się na te fatalne w skutkach kroki. Publicznie wyśmiewa na przykład Jarosława Gowina, dezawuując jego poglądy ekonomiczne i dając jasny sygnał, że dla niego wolnorynkowe korzenie ideowe Platformy Obywatelskiej to mitologia. Minister Rostowski obniżył loty niemal do poziomu wicepremiera Pawlaka, który na przełomie 2008 i 2009 roku rzucił propozycję, by unieważnić niekorzystne dla polskich przedsiębiorców umowy na opcje walutowe. Niewiedza premiera Pawlaka nie raziła jednak aż tak bardzo. Dysonans poznawczy w przypadku Rostowskiego polega na tym, że kreuje się na odpowiedzialnego ekonomistę, fachowca w każdym calu. Tymczasem już dawno temu przekroczył Rubikon dzielący sferę ekonomii i polityki. Nawet w swojej krytyce Leszka Balcerowicza bardziej skupia się na wytykaniu jego porażek politycznych niż na dyskusji o meritum. Niezależnie od tego, czy minister zupełnie stracił kontakt z rzeczywistością, czy tylko udaje, fakty są bezlitosne. Wypowiedzi Rostowskiego (także te z sejmowej mównicy, na której prezentuje się bardzo elegancko, z pobłażaniem i wyższością traktując swoich adwersarzy) są schizofreniczne, populistyczne i przykre. Co się stało z człowiekiem, który w 2007 roku niósł nadzieję na odważne reformy?

To To Zależy Zależy

29 29


elliseenchanted.deviantart.com

Eksperymenty naturalne mogą odmienić oblicze nauk ekonomicznych. Wydobyte z natury.

Zawsze mówi się studentom, że w ekonomii trudno o przeprowadzenie dobrego eksperymentu. To nie biologia ani chemia, gdzie można wytworzyć sztuczną, wyizolowaną rzeczywistość i swobodnie poddawać ją manipulacjom, badając zachowanie ulokowanych w niej organizmów albo substancji. Jaki rwetes by się podniósł, gdyby minister finansów – dla dobra nauki – stwierdził, że ukróci fundusze na edukację i służbę zdrowia o 50 proc., obserwując co stanie się z obywatelami? Niewykonalne. 30

Edukacja


Nie znaczy to, że ekonomiści, szczególnie ci zajmujący się aspektami behawioralnymi, nie próbują stosować eksperymentów w swojej pracy, czego dowodem jest na przykład istniejące przy Uniwersytecie Warszawskim Centrum Ekonomii Eksperymentalnej oraz wydany w zeszłym roku pod redakcją dr. Michała Krawczyka podręcznik „Ekonomia eksperymentalna”. Ekonomiście jednak nie zawsze do twarzy w laboratoryjnym kitlu. Tego typu sztucznie zaprojektowane eksperymenty, choć niewątpliwie pożyteczne, są narażone na liczne problemy. Przede wszystkim, uczestnicy badania są świadomi tego, że znajdują się pod obserwacją (choć najczęściej nie znają jej celu). Ponadto, odtworzenie w warunkach laboratoryjnych wszystkich „smaczków” i bodźców występujących w „realu” jest niemożliwe. Rozwiązaniem tej bolączki jest identyfikacja tzw. eksperymentów naturalnych. Znamy liczne przykłady, kiedy to samo życie dostarczyło materiału na świetną pracę badawczą. Wielu z nas kojarzy z pewnością liczne studia poświęcone paradoksowi zmniejszonej śmiertelności w czasie strajku pracowników służby zdrowia. Dziesiątki prac na ten temat podsumowali w 2008 roku S.A. Cunningham, K. Mitchell, K.M.V. Narayan i S. Yusuf w artykule „Doctors’ strike and mortality: A review” dla pisma „Social Science & Medicine”. Podczas gdy w klasycznych badaniach decyzja o podziale próbki na grupę eksperymentalną i grupę kontrolną należy do laboranta, w eksperymentach naturalnych to sama natura, w sposób naturalnie obiektywny, „decyduje”

Marcin Senderski Specjalista ds. strategii w CEMEX Polska, absolwent Szkoły Głównej Handlowej i Wydziału Nauk Ekonomicznych Uniwersytetu Warszawskiego, doktorant Akademii Leona Koźmińskiego.

komu jaka przypadnie rola. Ponadto, zasadniczą zaletą eksperymentów naturalnych jest ograniczenie wpływu tzw. „unobservables”, czyli cech, których badacz najczęściej nie jest w stanie kontrolować, nie tylko w środowisku laboratoryjnym, ale i w ogóle w żadnym innym środowisku. Przykładowo, chcąc zbadać wpływ liczby lat spędzonych w szkole na późniejszy dochód

osobisty, jesteśmy narażeni na przeoczenie licznych „omitted variables”, tj. wykształcenia czy dochodów rodziców, dostępu do biblioteki czy faktu, że obiekt lubił w dzieciństwie puszczać bańki mydlane. Wyobraźmy sobie natomiast sytuację, w której rząd wprowadza regulację nakazującą ukończenie studiów wszystkim osobom urodzonym… w lutym. Trudno przypuszczać, by urodzeni w lutym różnili się

Rys. 1 Sprzedaż papierosów per-capita w Kalifornii

Źródło: Abadie, A., Diamond, A. & Hainmueller, J. (2010) Synthetic Control Methods for Comparative Case Studies: Estimating the Effect of California’s Tobacco Control Program, Journal of the American Statistical Association, 105(490), s. 499.

Edukacja

31


czymś strukturalnie od reszty społeczeństwa (np. częstszym puszczaniem baniek mydlanych w dzieciństwie). Mając tak losowo dobraną grupę magistrów można byłoby wiarygodnie ocenić, czy na tle reszty społeczeństwa ich dochody rzeczywiście zwiększyły się. Jak „rodzą się” eksperymenty naturalne? Najczęściej, jak w naszym hipotetycznym przykładzie powyżej, wynikają one z wybiórczej regulacji władz, odnoszącej się tylko do jakiejś części populacji, co jest częstym przypadkiem w krajach o ustroju federalnym. Ale nie tylko. Analizując dostępne publikacje można natrafić na różnorakie inne, obiektywne zjawiska, które sprawiły, że część pewnej populacji w sposób zupełnie losowy znalazła się pod działaniem bodźca, niedostępnego dla innej części populacji. I tak analizowano matki, które urodziły bliźniaki (przecież żadne szczególne cechy nie odróżniają ich od innych matek) albo pierwszorocznych studentów w akademikach,

przydzielanych losowo do pokojów, badając, jaki wpływ na ich oceny ma to, z kim dzielą pokój. Nie jest sztuką ani wartością zmierzyć ekonometrycznie, co było „przed” i „po” wprowadzeniu jakiejś regulacji. Sztuką jest natomiast pokazać, „co by było gdyby”, czyli dobrać tzw. „counterfactual”. Znaleźć subpopulację, która podlega pod dany bodziec i odpowiadającą jej subpopulację, której dany bodziec nie dotknął. Ważne, by mieć przekonanie, że obydwie subpopulacje są podobne pod wszystkimi innymi względami. Gdy A. Abadie, A. Diamond i J. Hainmueller chcieli zbadać skutki wprowadzonego w 1988 roku w Kalifornii surowego programu kontroli papierosów (tzw. Proposition 99), stanęli przed problemem, z czym porównać ten dość wyjątkowy jak na Stany Zjednoczone obszar. Wydawało się, że sprzedaż papierosów na głowę spadła dramatycznie, ale ekonomiści poszukiwali silnego dowodu. W celu dokonania rzetelnego porównania z

Rys. 2 Zgłoszenia na ostry dyżur związane z zatruciem pałeczkami E. Coli

Źródło: Klick, J. & Wright, J.D. (2012) Grocery Bag Bans and Foodborne Illness, University of Pennsylvania Law School – Institute for Law and Economics, Research Paper No. 13-2, s. 10.

32

Edukacja

Kalifornią stworzyli stan… syntetyczny. Na podstawie szeregu parametrów obliczyli, że Kalifornijczycy są w 33,4 proc. podobni do mieszkańców stanu Utah, w 23,4 proc. do Nevady, w 19,9 proc. do Montany, w 16,4 proc. do Kolorado i w 6,9 proc. do Connecticut. Dopiero wtedy mogli z czystym sumieniem stwierdzić, że rzeczywiście efekt kalifornijski znacząco różnił się od efektu zaobserwowanego w stanie syntetycznym. Różnicę w jakości między eksperymentami sztucznymi a naturalnymi najlepiej obrazuje przykład stanu Tennessee. Kilka lat temu, władze stanowe sfinansowały (i w sumie chwała im za to) eksperyment, w którym dzieci losowo przydzielano w szkołach do małych lub dużych pod względem liczebności klas. Wydawać by się mogło, że wreszcie ludzkość uzyska nieobciążoną błędami metodologicznymi odpowiedź na pytanie, czy nauka w małych klasach rzeczywiście procentuje. Niestety, okazało się, że to nie takie proste. Bardziej zamożni rodzice lub ci, którzy większą wagę przykładali do edukacji swoich dzieci, wymuszali na dyrektorach, by przydzielali ich dzieci „poza konkursem” do mniej liczebnych klas, wbrew wynikom losowania. Nieuczciwość rodziców, którzy najwyraźniej i bez eksperymentu wiedzieli, że mniejsze klasy są lepsze, zrujnowała całą ideę i nie pozwoliła na rzetelne wyciągnięcie wniosków. Aby rozwiązać ten problem, naukowcy musieli cofnąć się aż do XII wieku. Właśnie wtedy jeden z czołowych żydowskich filozofów, Mojżesz Majmonides zaproponował (zapewne w efekcie jakiegoś mistycznego objawienia – bo na pewno nie


w wyniku naukowej analizy), by klasy w szkole nie liczyły więcej niż 40 osób. Nic byśmy sobie z tego nie robili, ale historia chciała, że ten zapis wszedł na stałe do izraelskiego porządku prawnego. Minister edukacji Izraela nie odpuszcza żadnej szkole i nawet jeśli we wsi zabitej deskami znajdzie się 41 uczniów, trzeba stworzyć dwie klasy. Jak łatwo zauważyć, taka regulacja w sposób zupełnie losowy i sztuczny tworzy małe klasy. Była to woda na młyn dla J. Angrista i V. Lavy’ego, których artykuł ukazał się w 1999 roku w jednym z czołowych periodyków ekonomicznych, „Quarterly Journal of Economics”. Naukowcy nie odrzucili hipotezy, że dzieci uczące się w mniej licznych klasach osiągają lepsze wyniki w testach, ale ta konkluzja dotyczyła tylko starszych roczników. Prof. Jonathan Klick z University of Pennsylvania twierdzi, że oryginalny, często ręcznie zebrany zestaw danych źródłowych to klucz do sukcesu w dzisiejszym, wysoce konkurencyjnym świecie nauki. Rzeczywiście, wiele artykułów opublikowanych w ostatnich latach w najbardziej liczących się czasopismach z dziedziny ekonomii ma tę wspólną cechę, że ich autorzy poświęcili czas na zdobycie nieznanych dotychczas danych pierwotnych. Według prof. Klicka, deficyt nauk ekonomicznych nie polega na braku interesujących pytań badawczych, bo tych jest zawsze zatrzęsienie. To co wyróżnia czołowych ekonomistów, to umiejętność zidentyfikowania ciekawych eksperymentów naturalnych i pomysłowe zaprojektowanie badania. Profesor sam daje przykład. Wraz z J.D. Wrightem napisał

artykuł „Grocery bag bans and foodborne illness”. Jednym z naturalnych zastosowań eksperymentów naturalnych są bowiem różnego rodzaju zakazy, w tym przypadku – zakaz używania torebek foliowych w niektórych częściach Stanów Zjednoczonych (m.in. w kilku miastach w Kalifornii) i Kanady. Jak się okazało, taka niewinna i pozornie proekologiczna regulacja może być niezwykle śmiercionośna. Problem polega na tym, że alternatywą dla torebek plastikowych bywają najczęściej wielorazowe torby zakupowe, których co do zasady nikomu nie chce się prać (a nawet jeśli mielibyśmy to robić – do usunięcia niebezpiecznych dla zdrowia bakterii potrzeba temperatury 140 st. Celsjusza, której większość pralek nie osiąga). Po wprowadzeniu zakazu odnotowano statystycznie istotny przyrost hospitalizacji, a nawet zgonów, związanych z zatruciami układu pokarmowego. Przedstawiony obok wykres liczby nagłych wizyt lekarskich w San Francisco w wyniku zatruć wywołanych bakterią E. coli pokazuje wyraźną nieciągłość między okresami sprzed wprowadzenia regulacji a okresami jej obowiązywania. Jednocześnie, podobny wykres sporządzony dla innych miejscowości w Kalifornii nie wskazywał na żadne gwałtowne zmiany w liczbie zachorowań. Nie lada okazją do eksperymentu naturalnego było także losowanie obywateli wyznaczonych do służby wojskowej w Wietnamie. Jak pamiętamy z wielu amerykańskich filmów, rekrutom były przydzielane numerki, które następnie losowano w czasie transmisji telewizyjnej. Nieszczęśliwi

rekruci musieli stawić się przed komisją. Nie ma żadnego powodu, by podejrzewać, że numerki były przydzielane wedle jakiegokolwiek klucza, co zapewniało losowy dobór próby rekrutów. Skorzystał z tego ponownie J. Angrist, który zamierzał zbadać efekty odbycia służby wojskowej na dochody obywateli. Dla ciekawości czytelników podaję, że zarobki wietnamskich weteranów okazały się ok. 15 proc. niższe niż ich niewylosowanych kolegów. To zaledwie kilka z licznych, ciekawych i wiarygodnych pod względem naukowym przykładów na to, że eksperymenty naturalne mogą stać się mocną stroną nauk ekonomicznych i otwierają szerokie pole dla zastosowań ekonometrycznych. Nie znaczy to, że laboratoria są zupełnie bezużyteczne – mogą służyć ekonomistom do mikroanaliz behawioralnych, ale jak mówi najnowsza reklama jednego z browarów… najlepsze jest to, co z natury.

novatech-usa.com

Edukacja

33


Koniec wojen patentowych? azfarrizvi.com

Ponad 11000 – tyle patentów dotyczących technik telekomunikacyjnych przyznano koncernowi Samsung w latach 1993-2011. Pod względem wielkości dochodów otrzymanych z tytułu opłat licencyjnych palma pierszeństwa należy jednak, najprawdopodobniej, do koncernu Nokia. Na podstawie sprawozdania finansowego firmy można stwierdzić, że fiński koncern zarobił na nich w samym 2012 roku 1,28 mld €. W chwili obecnej nie ma na świecie producenta urządzeń mobilnych, który nie płaciłby Nokii opłat licencyjnych. Zwracając uwagę na dużą wartość rynku nie może dziwić zatem fakt, iż olbrzymia konkurencja popchnęła największe koncerny do walki o dominację, również na drodze rozpraw sądowych. Wszystko wskazuje jednak na to, że wojny patentowe dobiegają końca. Najlepiej świadczy o tym fakt, iż ostatnia wielka transakcja, której celem było nabycie patentów, miała miejsce w 2011 roku. Ponad 6 000 patentów należących do spółki Nortel Networks zostało nabytych za niebagatelną kwotę 4,5 mld $. Nabywcą zostało konsorcjum złożone z kilku największych spółek w branży: Apple, EMC, Ericsson,

34

Technologie

Microsoft, Research In Motion i Sony. Rok 2012 przedstawia się pod tym względem dość ubogo – największą transakcją była sprzedaż części własnych patentów przez koncern AOL za 1,06 mld $. Była to ostatnia tak duża transakcja tego typu i, jak dotąd, nic nie wskazuje na to, by w najbliższej przyszłości miało się to zmienić. Niewiele

zmienia w tej materii głośna transakcja przejęcia oddziału Urządzeń i Usług koncernu Nokia przez Microsoft za 7,17 mld $ we wrześniu tego roku. Jej celem nie było bowiem przejęcie patentowego portfolio fińskiej spółki. Dlaczego jednak pościg za zdobywaniem jak największej liczby patentów tak szykbo


stracił na tempie? Można w tym miejscu wyróżnić kilka przyczyn. Jedną z najważniejszych jest fakt, iż, jak się okazało, przychody z opłat licencynyjnych okazały się znacznie niższe niż przewidywano. Francuski koncern Alcatel-Lucent, posiadający łącznie około 30 000 patentów, jak dotąd nie osiągnął znaczących przychodów z tytułu opłat licencyjnych. Oczywiście wiele zależy również od jakości patentowego portfolio, jednak nawet znaczący zysk koncernu Nokia osiągnięty dzięki patentom wynoszący 1,28 mld € wydaje się niewielki w porównaniu z nakładami na badania i rozwój, które wyniosły w ciągu ostatnich 20 lat około 50 mld €. Poważnym problemem jest również kwestia dochodzenia swoich praw w sądzie. Dobrym przykładem mogą być tu sądowe zmagania pomiędzy koncernami Apple i Samsung. Procesy są bardzo kosztowne, a ich wynik trudny do przewidzenia. Najistotniejszy jest tutaj jednak fakt, iż ciągną się one latami. Rozstrzygnięcie dwóch niedawno zakończonych procesów pomiędzy koncernami Apple i Samsung trwało 2 lata, co stanowi całą epokę w świecie nowoczesnych technologii mobilnych. W momencie wydawania wyroku urządzenia, których dotyczyła rozprawa, były już przestarzałe, a ich produkcja w zasadzie się kończyła. Okazało się, że patenty można naruszać praktycznie bezkarnie – rozwiązania były praktycznie niechronione, a nakładane kary finansowe – za niskie, by pokryć poniesione straty. Co więcej, okazało się, że są one prawie niemożliwe do wyegzekwowania. Nie bez znaczenia jest też samo nastawienie sądów w kwestii

Kamil Prządka Student III roku studiów licencjackich Wydziału Nauk Ekonomicznych na Uniwersytecie Warszawskim oraz I roku studiów magisterskich Wydziału Mechatroniki na Politechnice Warszawskiej. Aktywny członek koła naukowego KNSG UW. Do jego zainteresowań należy rynek nowoczesnych technologii. patentów. Dominujący staje się pogląd, iż oprogramowanie jest tak naprawdę jedynie implementacją matematycznych algorytmów, które nie podlegają ochronie patentowej. Wykres 1 przedstawia ilość przypadków, kiedy sądy w USA powoływały się na precedens prawny dotyczący sprawy Parker vs. Flook z 1978 roku, podczas którego tego typu interpretacja została po raz pierwszy zastosowana. W związku z tym, że dochodzenie swych praw w sądzie okazało się zupełnie niepraktyczne, a zyski z opłat licencyjnych rozczarowująco niskie, koncerny zmieniają swoją politykę dotyczącą patentów. Coraz

mniejszy nacisk jest kładziony na wzmacnianie patentowego portfolio – zmniejsza się liczba zgłaszeń oraz ilość transakcji mająca na celu ich nabycie. Nie oznacza to jednak, że wielcy producenci urządzeń mobilnych zrezygnowali z opracowywania innowacyjnych rozwiązań. Jest wręcz przeciwnie – zawodność ochrony patentowej zmusza koncerny do zwiększenia wysiłków w celu wprowadzania nowych, oryginalnych rozwiązań tak, by być o krok dalej niż konkurencja. Jak się okazuje, tylko w ten sposób mogą one wywalczyć sobie przewagę rynkową.

Wykres 1. Ilość odwołań do precedensu dot. sprawy Parker vs. Flook przez sądy w USA

źródło www.chip.pl

Technologie

35


Idea placement czy CSR?

Czyli co warunkuje istnienie organizacji non-profit Współczesny człowiek jest już zdenerwowany ilością otaczających go reklam, o czym doskonale wiedzą osoby odpowiedzialne za marketing. Jednak specjaliści zauważyli, że skuteczną formą promocji produktów bądź działań, jest reklama, której odbiorca nie jest świadomy. Jak najskuteczniej wypromować organizacje non profit? Co zrobić, żeby otrzymać fundusze na jej działanie? W jaki sposób pozyskać wolontariuszy, sympatyków i sponsorów? Jak zwiększyć świadomość społeczeństwa na temat funkcjonowania tego typu organizacji? Przeanalizujmy najprostszy przykład zabiegu zwanego w literaturze fachowej idea placement (lokowanie idei) – „M jak miłość”. Brzmi znajomo, prawda? Oczywiście. Dlaczego więc nie wykorzystać tego, chyba od wielu już lat, najbardziej popularnego serialu w Polsce, aby wypromować organizację? Niemal każdy, kto na bieżąco oglądał ten serial przez jakiś czas, doskonale wie, że Hanka pracowała w fundacji, a Magda wyjechała na misje z Polskiej Akcji Humanitarnej, po czym namówiła jeszcze przyjaciół do uczestnictwa w słynnym, organizowanym przez PAH biegu charytatywnym. No właśnie. Biorąc pod uwagę, że każdy z niemal 1 000 odcinków tego serialu, ogląda ponad 9 mln widzów, a seriale są ulubionym programami telewizyjnym osób starszych i ludzi o niezbyt wysokim statusie majątkowym, a co za tym idzie – nie zawsze zdających sobie sprawę z tego, co się wokół nich dzieje, można zauważyć, że świadomość społeczeństwa na temat akcji organizowanych przez PAH, zdecydowanie wzrosła. Warto też zauważyć, że ten właśnie profil odbiorcy, jaki prezentują widzowie seriali, jest zdecydowanie bardziej podatny na wpływy zabiegów marketingowych, niż ludzie bardziej wykształceni, o lepszym statusie majątkowym. A podatki płacą wszyscy, prawda? Do kogo, więc trafi 1% podatku większości widzów „M jak miłość”? Jak można przypuszczać będzie to właśnie PAH, bo widzowie przecież chętniej „pomogą Magdzie”, niż komuś, kogo w ogóle nie znają. Sami producenci serialu także na tym zyskają na oglądalności, bo

36 36

Opinie Opinie

grają w nim „tacy dobrzy ludzie…, to i warto ich oglądać”. A teraz spójrzmy na to z innej strony. Jaki jest najlepszy sposób, aby poprawić wizerunek firmy w oczach potencjalnego k l i e n t a , pracownika czy partnera biznesowego? Po prostu pokazać, że się jest człowiekiem. W jaki sposób to uczynić? Najprościej zachować się jak człowiek. Najbardziej znaczące na rynku przedsiębiorstwa znalazły na to sposób, a za ich przykładem podążają i mniejsze organizacje. Otóż korporacje postanowiły być odpowiedzialne społecznie. W tym właśnie celu większość z nich postanowiła wyodrębnić część swojego kapitału finansowego na tak zwany CSR (Corporate Social Responsibility). Zadaniami


JOANNA CHLEBIEJ Studentka III roku Zarządzania Szkoły Głównej Gospodarstwa Wiejskiego, członkini Koła Naukowego Ekonomistów SGGW. W zeszłym roku akademickim pełniła funkcję Ambasadora Grupy PZU oraz Koordynatora konkursu Global Management Challange. Interesuje się tematyką HR, marketingiem, dziennikarstwem oraz nieruchomościami.

typowymi dla CSR jest pokazanie, że firma korzysta z odnawialnych źródeł energii czy wspiera organizacje pożytku publicznego. Przykład? My studenci nie musimy długo szukać. Wystarczy popatrzeć, kto sponsoruje organizacje studenckie. W i d a ć tu spore znaczenie tzw. „wielkiej czwórki”, ale też banków i innych korporacji. Tak, te firmy mają w tym także inny cel. Żeby więc nie było wątpliwości, co do tego czy to już CSR, czy nie, przyjrzyjmy się zatem pierwszej z brzegu korporacji należącej do wspomnianej „wielkiej czwórki”. Oprócz partnerstwa w Forum Odpowiedzialnego Biznesu, czy wspieranie Ecco Walkhatonu, firma może poszczycić się także mniej znanymi społeczeństwu akcjami

charytatywnymi, jak na przykład wspieraniu dwóch domów dziecka, współpracą z Fundacją św. Brata Alberta oraz Fundacją Wspierania Równych Szans, uczestnictwem w akcji Eko-Biuro, wspieraniem akcji „Warto być za”, „Złote Skrzydła” oraz „Zostań dawcą szpiku kostnego”. Brzmi interesująco, prawda? Z pewnością nie jeden potencjalny klient tej firmy, poczułby do niej sympatię, bo w końcu firma jest taka uczynna. Działa? Działa. I o to chodzi. A korzysta nie tylko firma, ale i organizacje non profit. Można powiedzieć, że dla wielkich korporacji, jest to nic nie znaczący wydatek, a dla organizacji non-profit złoty interes. Zatem, jaki sposób jest najlepszy, by podkreślić znaczenie organizacji non-profit we współczesnym świecie, a jednocześnie zdobyć fundusze na ich funkcjonowanie? Jak to już bywa w gospodarce – „to zależy…”. Trzeba przeanalizować co dla takiej organizacji jest najważniejsze. Czy to, że chce ona podkreślić swoje znaczenie dla społeczeństwa, wypromować swój wizerunek i w ten sposób zyskać poparcie społeczeństwa, czy to, że chce otrzymać, znaczącej wysokości, fundusze na swe działania bezpośrednio od firmy. Pewnie wielu specjalistów zajmujących się marketingiem zgodzi się, że najlepiej byłoby znaleźć równowagę między takimi działaniami, bo tylko osiągając oba te cele, organizacje pożytku publicznego mogą z powodzeniem realizować swoje, zapisane w statucie, działania. A przecież właśnie po to one istnieją.

ssandiiee.deviantart.com/

Opinie Opinie

37 37


Co z tymi emeryturami?

pensionriskmatters.com

Pewne jest to, iż dotychczasowa forma systemu emerytalnego jest bardzo kosztowna dla długu. Co więcej, w obecnym kształcie funkcjonowania systemu emerytalnego nietrudno zauważyć patologiczną sytuację. Rząd musi pożyczać pieniądze poprzez emisję obligacji, aby wpłacić składkę do OFE, a te z kolei za otrzymane środki kupują właśnie obligacje. Aby wyeliminować to błędne koło, rząd postanowił przenieść cały portfel obligacji skarbowych z OFE do ZUS. Aktualnie w skład aktywów OFE wchodzą: blisko 122 mld zł obligacji skarbowych (co stanowi 44,9 proc. portfela); pozostałe obligacje o wartości 31,5 mld zł (11,6 proc.); 93,8 mld zł w akcjach (34,5 proc.); w depozytach bankowych 22,1

38

Opinie

– od końca czerwca, bo wtedy zostały zaprezentowane możliwe warianty zmian systemu emerytalnego, wielu Polaków zadaje sobie to pytanie. W mediach popularne stały się hasła takie jak: OFErta, OFEracja czy OFEnsywa. Od tego czasu możliwe do zauważenia są także wahania decyzji inwestorów na warszawskim parkiecie. Ale w końcu decyzja zapadła. Decyzja, którą oceniło wielu ekonomistów jako najbardziej prawdopodobną i chyba najlepszą z możliwych. Chyba, bo inwestorzy zinterpretowali tę decyzję bardzo pesymistycznie, patrząc na wykres blue chipów, a także małych i średnich spółek na Giełdzie Papierów Wartościowych w Warszawie. Jak zmiany wpłyną na naszą gospodarkę? mld zł (0,1 proc.); zagraniczne inwestycje w kwocie 2,3 mld zł (0,08 proc.). Transfer 122 mld zł pozwoli przede wszystkim zredukować zadłużenie kraju liczone w relacji do PKB o ok. 8 proc. (z 55 proc. PKB do 47 proc. PKB) w ujęciu unijnym. Jak zapowiada Jacek Rostowski, wraz z tym, obniżeniu ulegną także obecne progi ostrożnościowe. Umorzenie obligacji obniży także koszty obsługi długu. Jest i druga strona medalu. Obligacje skarbowe w portfelu OFE stanowią zabezpieczenie na wypadek niekorzystnych i nieoczekiwanych zmian pozostałych aktywów głównie akcji. Po zmianach Otwarte Fundusze Emerytalne byłyby dużo bardziej podatne na wahania giełdowe. To

oznacza, iż w przypadku giełdowej bessy obywatel może ponieść większe straty, a taka sytuacja byłaby kolejnym argumentem przemawiającym za demontażem systemu kapitałowego i ukierunkowaniu społeczeństwa do ZUS. Propozycja ta może wzbudzać wiele kontrowersji, ale na tle prawnym może narazić państwo na roszczenia sądowe. Obligacje, które już znajdują się w posiadaniu OFE, są przecież także w posiadaniu obywateli, więc jakim sposobem można je tak po prostu umorzyć? Fundusze nie będą miały już benchmarku, co może niestety odbić się negatywnie na polskim rynku kapitałowym. Aby zdywersyfikować ryzyko w portfelu, fundusze będą


TOMASZ HAŁAJ

prawdopodobnie zwiększały zaangażowanie w obligacje korporacyjne oraz aktywa zagraniczne, a to przełoży się na wyprzedaż części polskich akcji, które dotychczas wchodziły w skład portfeli funduszy. Strona rządowa tłumaczy zniesienie limitów inwestycyjnych jako okazję do zwiększenia konkurencyjności na rynku funduszy, co finalnie będzie miało spory wpływ na wzrost jakości ich inwestycji. Kolejna zmiana to dobrowolność. Obywatele będą mieli 3 miesiące na wybór, gdzie składać pieniądze na przyszłą emeryturę – do ZUS czy do OFE. Jednak wybór ten to nic innego jak „one way ticket”. Osoby, które wybiorą ZUS nie mają już odwrotu, a z kolei ci, którzy zdecydują się na OFE, będą mieli tylko jedną szansę powrócić do ZUS. Chęć pozostania w OFE trzeba będzie jednak wyrazić na specjalnym piśmie z oświadczeniem, w którym funduszu będą lokowane nasze oszczędności. Brak wyboru równa się z nieodwracalnym przejściem do ZUS. Większość obywateli z pewnością wybiorze samodzielnie, lub też nie, ZUS. Dlaczego? Po pierwsze, rząd rekomenduje ZUS tłumacząc, iż tu oszczędności nie będą narażone na wahania giełdowe, jak ma to miejsce w OFE, które zostaną

Absolwent Wyższej Szkoły Informatyki i Zarządzania w Rzeszowie, gdzie był członkiem Koła Naukowego Finansów „Flow” przy Instytucie Badań i Analiz Finansowych. Obecnie student II roku studiów II stopnia na kierunku Finanse i Rachunkowość w SGH. Dziennikarz miesięcznika o sztuce inwestowania „Trend”. Interesuje się tematyką makroekonomiczną oraz polityką pieniężną i rynkami kapitałowymi.

z portfelem z większościowym udziałem samych akcji. Po drugie, dla sporej części społeczeństwa sprawa może okazać się skomplikowana, bądź osoby te nie są zainteresowane potencjalnymi zmianami i, krótko mówiąc, pozostaną bierne, nie decydując się na żaden ruch. To także jest równorzędne z wyborem ZUS. Rząd w propozycjach zmian systemu emerytalnego zwrócił także uwagę na zabezpieczenie obywateli przed ryzykiem tzw. złej daty, dlatego też na 10 lat przed emeryturą OFE będą stopniowo transferowały w każdym roku jedną dziesiątą oszczędności na subkonta w ZUS. Ma to na celu uchronić przyszłe emerytury obywateli, którzy zdecydowali się pozostać w OFE, przed nieoczekiwaną dekoniunkturą na giełdzie. Oznacza to, iż tak czy inaczej wszyscy spotkamy się w ZUS. Tym samym OFE już w następnym roku będą zmuszone znaleźć blisko 10 mld zł (oszczędności osób, którym zostało 10 lat lub mniej do przejścia na emeryturę), aby przekazać je do ZUS. „Spodziewamy się neutralnego, a nawet stymulującego efektu dla giełdy” – stwierdził na konferencji premier Donald Tusk. Niestety, to jedynie kompletnie

nietrafiona prognoza, gdyż już w dniu decyzji, indeks WIG20 zamknął się na poziomie -2,49 proc. Fala wyprzedaży przetoczyła się przez warszawski parkiet dopiero w następnym dniu, bowiem indeks blue chipów znalazł się 4,63 proc. „pod kreską”, a minima sesji znajdowały się w okolicach -8 proc. Estymuje się, że kapitalizacja polskich spółek w ciągu tych 2 sesji spadła o 72 mld zł. Z drugiej strony, po takiej burzy pesymizmu inwestorów, może to być dobry okres do zakupu akcji, i tak się właśnie dzieje. GPW co prawda wolno, ale jednak odrabia straty. Emerytalne modyfikacje wpłynęły także na spadek cen papierów wartościowych gwarantowanych przez Skarb Państwa – rentowność 10-letnich obligacji wzrosła z 4,66 proc. do 4,86 proc., co w konsekwencji zmusi resort finansów do płacenia więcej niż dotychczas za pożyczanie pieniędzy. Krwioobiegiem gospodarki są pieniądze, a krwioobiegiem pieniądza jest informacja – te słowa potwierdził warszawski parkiet, który tak pejoratywnie zareagował na decyzje w sprawie przyszłych emerytur. Co przyniosą te zmiany dla gospodarki? To pokaże czas. Otwarte Fundusze

Opinie

39


Emerytalne, które są istotnym uczestnikiem rynku kapitałowego, prawdopodobnie od następnego roku będą miały zakaz inwestycji w papiery wartościowe gwarantowane przez Skarb Państwa. Zniesiony benchamark daje im w zamian większe możliwości do inwestowania w alternatywne papiery wartościowe, również zagraniczne. Komisja Nadzoru Finansowego w niedawno opublikowanym raporcie

stwierdziła, że udział akcji w OFE na koniec sierpnia był najwyższy w historii i stanowił 39 proc. ich aktywów. Podsumowując, na pewno umorzenie obligacji zmniejszy nasz dług i zrobi przestrzeń do inwestycji publicznych, a w konsekwencji przyczyni się do pobudzenia gospodarki i, finalnie, wzrostu PKB. Problem tylko w tym, że państwo emitować obligacji na pewno nie przestanie, a ich znaczny

odbiorca nie będzie miał już do tego praw. Jak powiedział Erich Fromm – „szczęście nie jest ani dziełem przypadku, ani darem bogów. Szczęście to coś, co każdy z nas musi wypracować dla samego siebie”. Pozostaje nam tylko mieć nadzieje, że to, co wypracujemy sobie przez 67 lat będzie nie tyle szczęściem, co spokojnym i zasłużonym odpoczynkiem na stare lata.

TIM CLISSOLD

Mr China

czyli Amerykanin w Pekinie

Opowieść o dwóch facetach, którzy w latach dziewięćdziesiątych ruszyli na podbój chińskiego rynku – tak w skrócie opisać można tę książkę. Pomimo zmobilizowania ogromnych funduszy na zakup chińskich przedsiębiorstw, ponieśli srogą klęskę. W książce przeczytacie nie tylko o tym, dlaczego tak się stało, ale również pozwoli Wam ona lepiej zrozumieć współczesne Chiny. Na kartach Mr China, Tim Clissold humorystycznie opisuje swoje doświadczenia w robieniu biznesu w Chinach. Po raz pierwszy trafia tam jeszcze przed wydarzeniami na placu Tiananmen i szybko postanawia powrócić. Jego dotychczasowy pracodawca, londyńskie biuro Arthura Andersena, nie dostrzega wówczas sensu zakładania chińskiego biura. Składa więc wypowiedzenie i wyjeżdża do państwa, w którym dogorywa właśnie gospodarka centralnie planowana. Autora książki uwodzi atmosferą zbliżających się wielkich przemian. Zamieszkuje więc w akademiku i uczy się języka mandaryńskiego na uniwersytecie. Codzienne życie Clissolda w komunistycznych Chinach obfituje w wydarzenia przypominające te z czasów PRL. Część z nich okazuje się komiczna nawet dla nas. Clissold w hotelach musi wbiegać do pokojów i udowadniać obsłudze, że pokoje nie są zajęte, ponieważ ta zwykle udaje, że hotel jest pełny. Do podobnych sytuacji dochodzi z resztą prawie wszędzie – w sklepach czy w restauracjach. Do zabawnego kataklizmu dochodzi pewnej zimy, gdy rząd ustanawia wcześniej zbyt wysoką cenę skupu kapusty. Wszyscy rolnicy przestawiają się na jej produkcję, w konsekwencji zalewa ona Pekin – i to dosłownie. Przez kapustę zalegającą na

40

Recenzje

ulicach dochodzi do wypadków samochodowych, a piesi i rowerzyści muszą ją strzepywać z siebie po licznych upadkach. Burmistrz Pekinu wygłasza nawet przemowę do mieszkańców miasta, w której mówi wprost o patriotycznym obowiązku spożywania kapusty. Odtąd odmianę tą prześmiewczo nazywa się kapustą patriotyczną. Pewnego dnia główny bohater dostaje list od swojego znajomego. Firma z branży finansowej poszukuje pracownika ze znajomością mandaryńskiego. Okazuje się, że tą firmą jest Arthur Andersen, który właśnie otwiera swoje biuro w Hong Kongu. Clissold dostaje tym samym szansę połączenia swojego starego życia zawodowego z fascynacją Chinami. Wkrótce poznaje osobę, z którą przyjdzie mu wyruszy na podbój tego wielkiego rynku. Jego towarzyszem jest wschodząca gwiazda Wall Street. Pat ma za sobą pracę w bankach inwestycyjnych i właśnie postanowił zmobilizować jak największy kapitał, który mógłby zainwestować w Chinach. Chce zostać JP Morganem tego kraju. Skupować firmy działające w obiecujących sektorach i łączyć je w branżowych potentatów, zanim pojawią się tam koncerny międzynarodowe i rzesze inwestorów. Jego sposób na robienie biznesu to wyprzedzanie


JAN JĘCZMYK Studiuje na Wydziale Nauk Ekonomicznych UW. W 2011 roku uczestniczył w szkole letniej „Relations between the EU and the emerging global players” na GeorgAugust Universität w Göttingen. Działa w Kole Naukowym Strategii Gospodarczej UW. Stypendysta II edycji Akademii Mediów, obecnie stażysta w redakcji Bloomberg Businessweek Polska. ruchów innych. Tym razem czuł, że oczy całego świata wkrótce zwrócą się ku Chinom. Chiny przywitały początkowo bohaterów naszej książki z otwartmi rękoma. Kraj potrzebował kapitału. Zdawali sobie z tego doskonale sprawę partyjni działacze, którzy słysząc o możliwości pozyskania milionów dla swoich fabryk przychylali się wizjom nietypowych gości. Robili to jednak przy typowym dla Chińczyków dystansie do obcych. Zachodni inwestorzy nie mogli kupować całych przedsiębiorstw. Wchodzili w joint venture z partnerami chińskimi i nawet przy posiadaniu większościowych udziałów wciąż wiele zależało od lokalnych oficjeli oraz zwykłych urzędników. Początkowo Tim i Pat podchodzili jednak optymistycznie do przyszłości. Podpisali przecież wiążące umowy. Państwo Środka okazało się jednak trudnym terenem do inwestowania. Pierwsze problemy wynikały z trudności w podporządkowaniu sobie chińskich kadr zarządzających. Przejmowanymi przedsiębiorstwami zarządzali zwykle dotychczasowi dyrektorzy. Nasi bohaterowie brali oczywiście pod uwagę ich cechy przy doborze spółek, lecz często dochodziło do bardzo nietypowych problemów. W jednym przypadku dyrektor takiej firmy zaczynał prowadzić pod nosem konkurencyjną działalność w ramach obcego przedsiębiorstwa, a w innym najzwyczajniej okradał zatrudniającą go spółkę. Próby wymiany ludzi również prowadziły do problemów. Człowiek z zewnątrz nie potrafił połapać się w panujących w zakładzie układach, a zwolnienia mogły prowadzić do zamachu na dyrektora. Kolejnym szokiem były próby egzekwowania prawa. Zwykle prowadzily do odwrotnych skutków. Zgłoszenie kradzieży kończyło się na przykład zamrożeniem kont bankowych okradzionego

przedsiębiorstwa. Zwalniani zgodnie z prawem dyrektorzy doprowadzali do buntu w firmie i prowadzili działania mające na celu przejęcia władzy. Konflikty uderzały przede wszystkim w przedsiębiorstwa. Jeżeli nawet po jakimś czasie udało się wygrać z punktu widzenia prawa, to spółka mogła i tak być już w opłakanym stanie. Dla Pata i Tima szczególnie nieprzyjemne były telekonferencje i prezentacje w gronie inwestorów, którzy wyłożyli pieniądze na ich wielką ofensywę. Ludzie ci nie rozumieli całkowicie realiów, w których inwestowali pieniądze. Odpowiedzią na każdy problem była racjonalizacja kosztów, gdy o zwolnieniach mowy być nie mogło. W Chinach nie było systemu zabezpieczeń socjalnych. Zwolnienia spotkałyby się w prawie każdym przypadku z zamieszkami. Znamienna była jedna z nocnych dyskusji. Specjaliści przez kilka godzin rozstrząsali skomplikowane zagadanienia prawa, gdy wreszcie jeden z nich zauważył, że może warto było zapytać w tej sprawie jakiegoś prawnika z Chin. W czasie opisanych wydarzeń wielu spekulantów na giełdach w Hong Kongu i Szanghaju dorabiało się swoich małych i wielkich fortun. Tradycyjne przejmowanie firm z wielu względów okazało się być w tamtym okresie nietrafionym pomysłem. Książkę jednak warto przeczytać, gdyż pozwala lepiej poznać chiński punkt patrzenia na świat i kulisy trudnych początków tamtejszego kapitalizmu. Może wkrótce doczekamy się kolejnych tego typu publikacji – w biznesowej prasie głośno było ostatnio o Jankesie, który zainwestował w kilka dużych przedsiębiorstw w Mongolii. Jeden z artykułów opatrzony był zdjęciem, na którym pozował na tle wielkiego pomnika Czyngis Chana. Podobnie jak chciał zrobić to Pat, on też próbuje wyprzedzić kroki innych...

Recenzje

41


42

Sylwetki


Marissa Mayer

Joanna Chlebiej

Marissa Mayer, ur. 30 maja 1975r., znana jest jako CEO Yahoo! oraz najmłodsza osoba na liście 50 najpotężniejszych kobiet biznesu. Zanim jednak rozpoczęła pracę w Yahoo!, była jedną z najbardziej rozpoznawalnych twarzy Google, gdzie obejmowała stanowisko wiceprezesa Search Products & User Experience. Warto podkreślić także, że była ona jednym z 20 pierwszych pracowników Google oraz pierwszą kobietą-inżynierem w tej firmie1. Tytuł naukowy otrzymała na Uniwersytecie Stanfordzkim. Wybitnej absolwentki pozazdrościł Uniwersytetowi Stanforda, Illinois Institute of Technology, który w 2009 r. nadał jej tytuł doktor honoris causa. Marissa nie miała sobie równych na swojej Alma Mater, gdyż po długich latach ciężkiej nauki i pracy, została ona uznana za wybitną studentkę tejże uczelni. Na dowód tego, że nauki nigdy za dużo, a świat pozostawia nam jeszcze wiele do okrycia i zbadania, Mayer, przed przejściem do Google, prowadziła

1. Google VP Marissa Mayer to Address 2009 IIT Graduates, iit.edu

prace badawcze w laboratorium UBS (Ubilab) w Zurychu, a także na SRI International w Kalifornii. Owocem prowadzonych przez nią badań były liczne publikacje, a zachwycone jej drogą zawodową i sukcesami media, zwykły nadawać jej różne, zaszczytne tytuły, takie jak: one of 10 Tech Leaders of the Future (Newsweek); one of the 50 Most Powerful Women (Fortune); one of 15 Women to Watch (Red Herring); part of the Silicon Valley Dream Team. (Business 2.0).

Ponadto, Mayer propaguje w Yahoo! politykę prorodzinną. Będąc wiceprezesem w Google, Mayer odpowiadała za zarządzanie produktami i działania inżynieryjne. Była także członkiem komitetu wykonawczego operacyjnego systemu Google. Pomimo wielu obowiązków wynikających z ciągłego rozwoju i potężnej międzynarodowej kariery, Marrisa zdecydowała się na założenie rodziny. 30 września 2012 r. urodziła ona syna, mimo iż jego narodziny pokrywały się z dosyć ciężkim dla niej okresem w pracy, a Zaraz po objęciu władzy w Yahoo! zatrudnił ją nie wiedząc strukturach Yahoo!, Marrisa jeszcze, że jest ona w ciąży. Mayer zarządziła modernizację Mayer jest zagorzałą luteranką, strony internetowej i żyjącą według zmodyfikowanego wprowadziła kilka innych przez nią hasła: „God, family and zasadniczych zmian w firmie, Yahoo!”. dzięki czemu Yahoo! zarobiło 1,1 bln dolarów na platformie Tumblr oraz 30 mln dolarów na story-shortener Summly. Mayer dąży do tego, aby portal był na tyle nowoczesnym, żeby bez problemu mógł obsługiwać 700 mln użytkowników miesięcznie.

npr.org

npr.org

Sylwetki

43


MACROPRUDENTIAL POLICY

– reborn of the new policy tools five years after the financial crisis

This autumn marked exactly five years since the beginning of the financial crisis. To some extent, it is the most severe in consequences crisis since the Great Depression. This time, however, was different enough, as we simultaneously witnessed one of the greatest monetary experiment in the history of central banks as a response on the ineffective zerointerest-rate policy. It is also the crisis, which led economists and policymakers around the world to reconsider one more time the existing model of the economies, developed on the basis of excessive credit growth and lacklustre regulation. One of the results is the recent paper published by International Monetary Fund, which designed and developed a new framework to guide countries on implementation the macroprudential policy tools – something which is worthwhile to think about. Definition and origins

aggregate risk was dependent on the collective behaviour of financial institutions. To simplify, Let’s start from the very beginning – the word the macroprudential policy was defined as an “prudent” could be directly translated as “cautious”, approach to mitigate the risk created by the “careful”, “wary” or even “conservative”. But, of financial system for the general condition of the course, these words are just a tip of the iceberg. economy. In other words, this policy is the kind of The notion of the macroprudential tools is not the financial regulation, which aims to financial quite new, however it is not easy to pinpoint when stability. Moreover, this regulation should also and who exactly introduced this concept for the prevent a creation of financial bubbles, excessive first time. Clement [2010] in BIS Quarterly Review credit growth and systemic risk and also provides suggests that the macroprudential concept was a robustness of the financial system to external introduced in 1979 in one of the remarks during shocks. a meeting of Cooke Committee (the precursor of Figure 1. Relationship between Macroprudential and Basel Committee today). Back then, the term was Other Policies completely new, although the underlying concerns were not – the meeting addressed the policy options for the worrying rapid pace of lending to developing countries and its implications for macroeconomic and financial stability. Still, the real development of this policy began in 2000 with the speech delivered by Andrew Crockett, at that time the General Manager of the BIS. The title of the speech was meaningful (“Marrying the micro- and macro-prudential dimensions of financial stability”) and this notion received new impetus in the public discussion. First of all, the term macroprudential was used in the context of protecting and regulating the financial system as a whole, with the particular focus on the limiting costs of the financial distress in terms Source: IMF staff of output. Secondly, the author underlined that

44

English section


PRZEMYSŁAW PRYSZCZ Student Quantitative Finance na Wydziale Nauk Ekonomicznych UW. Aktywny członek KNSG UW. Jest stypendystą II edycji Akademii Mediów, projektu Fundacji im L. Pagi, a także byłym stażystą w redakcji Bloomberg Businessweek Polska.

Relationship with other policies

macroprudential policy in preventing an excessive credit growth is raising even more in small open Financial stability is affected by a range of factors economies. Here, whether there is a need of rising and policies. The nature of macroprudential policy or cutting interest rate, both may be a trigger and its interactions with other policies, is clearly of capital flows which end up in jeopardizing shown on the Figure 1. prepared by the IMF staff. domestic financial stability. The figure is probably the closest definition of the macroprudential policy scope. As we can also Macroprudential toolkits easily conclude, this kind of policy requires fully developed institutional arrangements. It embraces By far, everything seems to be a quite broad and interacts with every kind of policy which definition. The truth is that the literature doesn’t provide one good rationale and specific objective lawmakers have to face. of the macroprudential policy (take a look at the For instance, let’s take a look on the role of monetary literature review of Galati and Moessner(2011)). policy. Even when monetary policy is set consistent Many researchers and economists have different with price stability, the resulting monetary stance approach to the given topic, but the ideas and may have undesirable side effects for financial tools developed in order to implement the stability. Low policy rate can be consistent with macroprudential policy have the same background. low inflation and price stability, however it may Let’s take a look on some examples to see the gist. still contribute to excessive credit growth and the build-up of asset bubbles. The importance of the As I noted before, the general objective of the Figure 2. Usage of the term “macroprudential” in academic publications

Source: BIS, 2010.

English section

45


macroprudential approach is to limit the risk of episodes of financial distress with significant losses in terms of the real output for the economy as a whole. Having said that, let’s also notice that microprudential approach is to limit the risk of episodes of financial distress at individual institutions without any concerns about the overall economy. This is why macroprudential toolkits are the ones which address directly the concrete changes at the financial institutions while maintaining the macro approach to the economy. According to the IMF framework, there are three general sets of tools which should be considered: − countercyclical capital buffers and provisions (to increase resilience to shocks); − s e c t o r a l tools (to

contain a build-up of risks in particular sectors);

− liquidity tools (to contain funding risks).

The first group will be adopted by many countries with the implementation of Basel III rules. So for example, having the opportunity to adjust capital buffers of the financial sectors, authorities may need to protect the economy against the adverse consequences of uncontrolled expansion of credit to GDP ratio. Thus policy would be particularly powerful in the times of the excessive credit growth in Spain or Ireland few years ago. On the other hand, with the release of buffers, the economy is expected to avoid credit crunch effects because of the reduced pressure on banks to deleverage in times of financial stress. The second group contains two main tools – sectoral capital requirements and LTV and DTI ratios. The first ones are complementary to the capital buffers, however, here policymakers can increase the risk weights for lending to particular segments of the credit market. Thus, authorities

46

English section

can be more efficient in addressing some of the vulnerable and unsafe parts of the economy. This can include mortgage lending or unsecured consumer credit. These kinds of solutions are already adopted in Brazil and Turkey, where lawmakers aim to increase resilience of lenders to a deterioration in credit quality. The latter subset, LTV (Loan to Value) and DTI (Debt to Income) ratios, is the most common tool of the macroprudential approach. This is mainly justified by the international experience. It is extremely important to adopt the tools which can contain vulnerabilities in residential housing markets. Those markets are particularly exposed to the potential creation of the bubbles. The LTV ratio introduces a cap on the size of a mortgage loan relatively to the value of a property, thereby imposing a minimum down payment. The DTI ratio restricts the size of a mortgage loan to a fixed multiple of household income, therefore containing unaffordable and unsustainable increases in household debt. These kinds of solutions were adopted by South Korea and Israel. The available research suggests strong effects of these tools in cooling an excessive loan growth, which can be accompanied and conjugated by increases in asset prices. IMF also suggests that steering LTV ratio at financial institutions can greatly affect the house prices and an aggregate demand. Therefore, the chances of avoiding a formation of housing bubble is trimmed significantly.

The third group are liquidity tools. These tools are specially focused on the problem of overexposure to funding shocks. To some extent these tools are implemented in the rules of Basel III. Examples are: the Macroprudential Stability Levy, introduced in Korea and the Core Funding Ratio (CFR), introduced in New Zealand. The liquidity tools


Figure 3. Mapping Tools to Objectives: Time Dimension

Source: IMF staff

can also include minimum haircut requirements, and then they are introduced to the specific assets. The overall effect can be greater than we do think – constraining the wholesale funding in banks can contribute to the slowdown in the overall credit growth. Although there are still many complementary tools, the main three groups described above are the essence of macroprudential policy.

The future and obstacles

its tools seem to be the right direction to follow in the future.

However, there are some concerns as well. In one of The Economist’s article, the author sets out a worry about regulatory arbitrage. The author suggests that in the theory, central banks would use regulatory and supervisory authority to stamp out excesses in specific markets while leaving monetary policy to take care of inflation and employment. However, it is easier said than done. The history shows us that there are many cases when controls were often circumvented by regulatory arbitrage. And when controls worked, political pressure sometimes led to their abolition. This kind of policy evaluation based on the history can be blurred and complicated by the environment at that time. Still, the endorsement is not so strong for macroprudential policies everywhere.

As we can see, the impressive progress has been made in the development of the new policy tools over the course of last few years. The recent financial crisis has underscored the need to combine different policies with a particular attention to the financial stability. The general macroeconomic stability of the country is not always enough to avoid the systemic risk. The recent Eurozone crisis also showed how nasty in consequences could More on the other side of macroprudential policy, be the creation of different imbalances in the its limits and challenges can be found in Douglas financial sector. The macroprudential policy and Elliott research from Brookings Institution.

English section

47


Koło Naukowe Strategii Gospodarczej Uniwersytetu Warszawskiego Warszawa 2013


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.