KRS: 0000174572
Powrót
Metodologia ekonomii głównego nurtu

Turowski: Mikropodstawy prawdziwe i fałszywe

0
Krzysztof Turowski
Przeczytanie zajmie 39 min
Turowski_Mikropodstawy-prawdziwe-i-fałszywe.png
Pobierz w wersji
PDF

Autor: Krzysztof Turowski
Wersja PDF

Praca nagrodzona III miejscem w konkursie na esej metaekonomiczny (2018) Polskiej Sieci Filozofii Ekonomii. Redakcja mises.pl serdecznie dziękuje PSFE za zgodę na przedruk tekstu.

1. Wprowadzenie

Jakkolwiek filozofowie mogą się spierać o dokładną definicję ekonomii, jej metod i jej przedmiotu, tak w codziennej praktyce i potocznym postrzeganiu jest to nauka dość dobrze określona i wyodrębniona spośród nauk społecznych. Widać to chociażby w jej strukturze instytucjonalnej: odrębnych wydziałach i katedrach, własnych specjalistycznych czasopismach lub konferencjach oraz nagrodach, z Nagrodą Banku Szwecji im. Alfreda Nobla na czele.

W dużym uproszczeniu można powiedzieć, że ekonomia zajmuje się wszystkimi zagadnieniami związanymi z gospodarką oraz gospodarowaniem.

Istnieje szeroka zgoda wśród ekonomistów, odzwierciedlona m.in. w układzie większości współczesnych podręczników, co do fundamentalnego podziału dziedziny na mikroekonomię i makroekonomię. Mikroekonomia zajmuje się zjawiskami z indywidualnego punktu widzenia, m.in. rozpatruje determinanty oraz skutki decyzji konsumentów i producentów, wyjaśnia zależności cen, podaży i popytu czy też bada firmę w jej danym otoczeniu gospodarczym. Makroekonomia traktuje natomiast o fenomenach dotyczących całej gospodarki np. o dochodzie narodowym, wzroście gospodarczym, kryzysach, inflacji czy bezrobociu, jak również o handlu międzynarodowym (Samuelson & Nordhaus, 2003).

Związek między obydwoma sferami wydaje się intuicyjnie oczywisty: bez indywidualnych wyborów jednostek nie istniałaby gospodarka jako całość. To, co istnieje na poziomie całej gospodarki z konieczności jest nabudowane na decyzjach jednostek, zatem teoria mikroekonomiczna i makroekonomiczna powinny pozostawać w ścisłym systematycznym związku. W tym ujęciu makroekonomia powinna być raczej pewnym rozwinięciem i uzupełnieniem mikroekonomii o zależności wynikające z agregacji działań w całej gospodarce oraz interakcji między różnymi grupami lub sektorami.

Z drugiej strony, istnieje w ekonomii długa tradycja wyjaśniania zjawisk makroekonomicznych na poziomie abstrakcyjnych agregatów, nieprzekładalnych wprost na poszczególne procesy na poziomie jednostkowym. Przykładami tego mogą być rozważania merkantylistów dot. czynników gospodarczych determinujących bogactwo narodów, fizjokratyczne Tableau economique pokazujące przepływy dochodów między poszczególnymi grupami w gospodarce, a z bardziej współczesnych np. model AS-AD, wiążący poziom cen i produkcji w gospodarce ze zagregowanym popytem i podażą.

Celem niniejszego artykułu jest przedstawienie dwóch popularnych w ostatnich 70 lat podejść makroekonomicznych: nieco wcześniejszego, ujęcia zjawisk według bardzo ogólnych kategorii, oderwanych od poziomu jednostek i ich działań, oraz dominującego od lat 80. ubiegłego wieku tzw. modelowania z mikropodstawami. Przedstawiona zostanie krytyka obu metod w kontekście ich zasadności jako narzędzi w teorii ekonomii oraz ich stosowalności do oceny i doboru polityki gospodarczej państwa. Dodatkowo, zostanie wskazane pewne szczególne znaczenie roli ugruntowania mikroekonomicznego makroekonomii, które umknęło uwadze przedstawicielom obu nurtów roli, która stanowiła fundament wielu wartościowych wglądów dokonanych przez ekonomistów w przeszłości, objaśniających zachodzące realnie procesy gospodarcze.

2. Makroekonomia bez mikropodstaw

W pierwszych dekadach po II wojnie światowej makroekonomia została zdominowana przez podejście skoncentrowane na szukaniu relacji między zmiennymi obejmującymi całość gospodarki, takimi jak zagregowany popyt i podaż, całkowita produkcja, bezrobocie, poziom cen czy inflacja. Wśród sztandarowych przykładów tego typu podejścia należy wymienić tzw. krzyż keynesowski (wiążący zagregowany popyt i realną produkcję), model IS-LM (wyrażający zależność stopy procentowej i realnej produkcji), a także krzywą Philipsa (opisującą postulowaną zależność między inflacją a bezrobociem). Modele gospodarcze składały się typowo z kilku zmiennych, a zadaniem ekonomistów była analiza interakcji tych zmiennych (Lachmann 1973)[1].

Przyczyn takiego stanu rzeczy można wskazać kilka: przede wszystkim istotny był proces recepcji Ogólnej teorii zatrudnienia, produkcji i pieniądza Johna Maynarda Keynesa, a szczególnie destylacja z niej modelu makroekonomiczego opartego o IS-LM przez Johna Hicksa, Alvina Hansena i Franka Modiglianiego. To, w połączeniu z olbrzymim sukcesem podręcznika Paula Samuelsona, upowszechniającego te dokonania, stworzyło podwaliny pod nową, neoklasyczną ortodoksję, w której walrasowsko-marshallowska teoria mikroekonomiczna była ściśle oddzielona od keynesowskiej teorii makroekonomicznej (Leijonhufvud, 1969).

Co więcej, należy zaobserwować również zewnętrzne przyczyny zmiany zainteresowań ekonomistów. Z jednej strony, lata międzywojenne były okresem niestabilności gospodarczej, co naturalnie orientowało zainteresowania ekonomistów na problem kryzysów gospodarczych oraz ich zapobiegania i przezwyciężania. Z drugiej strony, powstanie ZSRR, wdrażającej w życie pełnoskalową gospodarkę planową, rozbudziło dyskusje dot. wzrostu gospodarczego oraz właściwej roli polityki gospodarczej w tym procesie.

Równolegle można było zaobserwować powstanie systematycznego podejścia do badań empirycznych nad gospodarką. Symbolicznym początkiem stało się ustanowienie w roku 1930 Econometric Society oraz założenie w 1932 roku Komisji Cowlesa (pod hasłem Science is measurement), zorientowanej na podejście ilościowo-statystyczne. Zaczęły powstawać coraz bardziej skomplikowane ilościowe modele gospodarcze autorstwa Jana Tinbergena, Lawrence'a Kleina oraz wielu innych, starające się zasypać przepaść między ekonometrią a teorią ekonomii oraz mające umożliwiać zarówno przewidywanie zmian aktywności gospodarczej, jak i porównywanie alternatywnych rozwiązań politycznych, a zatem zapewniać naukowe uzasadnienie dla państwowego nadzoru nad gospodarką (De Vroey & Malgrange, 2012).

Jak wskazuje Philip Mirowski, nałożyło się na to ogólne fizykalistyczno-inżynierskie podejście do zagadnień ekonomicznych, mające swoje źródło jeszcze w XIX w. (Mirowski, 1991). Przykładowo, Irving Fisher uzasadniając głoszoną przez siebie ilościową teorię pieniądza wprost pisał, że istnieje pełna analogia między prawem Boyle'a a równaniem wymiany, w którym rolę cząsteczek gazu spełniają działające jednostki (Fisher, 1922)[2]. To podejście można zresztą zaobserwować do dziś np. w twierdzeniu, że modelowanie ekonomiczne nie różni się fundamentalnie od przewidywań meteorologicznych lub epidemiologicznych, w których nie analizuje się konkretnych jednostkowych interakcji np. atomów czy, ale efekty globalne (M. Buchanan, 2013).

Istnieje jednak poważna różnica: w przypadku ekonomii przedmiotem na poziomie mikro są ludzie, którzy są znacząco heterogeniczni, mają różne plany i cele, nawet w obiektywnie identycznych okolicznościach, podczas gdy atomy czy nawet bakterie takiej właściwości zgodnie z naszą wiedzą nie mają, w związku z tym wiadomo, że analogia na pewno nie jest poprawna w istotnym aspekcie (Penrose, 1952). Co więcej, można przywołać w tym miejscu modyfikację popperowskiego argumentu przeciw historycyzmowi: ludzie są zdolni do uczenia się, modyfikacji swojego zachowania, a więc nie można traktować ich jako stałych i niezmiennych przedmiotów działania wielkich sił, czy to dziejowych, czy gospodarczych (Popper, 1957; Hoppe, 1995). W gruncie rzeczy, stosując takie podejście i ignorując wiedzę o poziomie mikroekonomicznym dokonujemy świadomej rezygnacji z wiedzy o różnorodności i zmienności zachowań jednostek. Zamiast jednak dokonywać abstrakcji nieprecyzującej a więc uznać, że skutki tej heterogeniczności są nieznane i zająć się badaniem tego, co od nich niezależne to dokonywana jest raczej asercja jawnie fałszywej zasady, mówiącej że struktura zachowań jednostek nie ma znaczącego wpływu na relacje między agregatami makroekonomicznymi (Long, 2006).

Ujęcie makroekonomiczne oparte jedynie o wysokopoziomowe agregaty napotyka na inny podstawowy problem metodologiczny: w przytoczonym przypadku gazów posiadamy dobre operacyjne ujęcie temperatury czy objętości gazu, a więc jego właściwości makroskopowych. Wręcz to te cechy są pierwotne w porządku poznania wobec teoretycznego modelu atomowego, stanowiącego wyjaśnienie na poziomie mikro. Natomiast w ekonomii mamy do czynienia z sytuacją odwrotną: bezpośrednio obserwujemy poszczególne wymiany dóbr i usług w gospodarce pieniężnej, konkretne zmiany zatrudnienia, ale już treści pojęć „podaż pieniądza” czy „bezrobocie” jest znacznie trudniej uchwytna. Dość powiedzieć, że dość szeroko stosowane jest aż pięć miar agregatowej podaży pieniądza (M0-M3 oraz MZM)[3] oraz sześć miar bezrobocia[4], z których żadna nie może być niearbitralnie wyróżniona jako ta „właściwa”. Joseph Schumpeter ujmował to dosadnie:

Nie będziemy więcej zainteresowani nimi [pojęciami „dochodu narodowego”, „bogactwa narodowego”, „kapitału społecznego” - przyp. K.T.]. Gdybyśmy jednak to zrobili, to dostrzeglibyśmy jak bardzo są trapione niejasnościami i trudnościami, i jak blisko są związane z rozlicznymi fałszywymi poglądami, bez dostarczenia ani jednego prawdziwie wartościowego twierdzenia (Schumpeter, 2010).

Oskar Morgenstern wskazywał na inną znaczącą różnicę: obserwacje makroekonomiczne są obciążone dokładnie tymi samymi błędami, co obserwacje w naukach przyrodniczych, ale również mają szereg własnych problemów, wynikających z braku zaplanowanych eksperymentów, unikalności zjawisk, ukrytych zależności czy problematyczności wiarygodności kwestionariuszy. W rezultacie, poprawna praktyka badawcza sugerowałaby konieczność zdecydowanie bardziej ostrożnego i wymagającego podejścia do zdobywania danych gospodarczych. Jednocześnie, nie sposób nie zauważyć, że ekonomia, w odróżnieniu od nauk przyrodniczych nie wypracowała aż tak rygorystycznego podejścia do błędów obserwacji. Niższe standardy pomiarowe znajdują swoje odzwierciedlenie w jakości zdobywanych informacji, które mimo tego są przedstawiane jako pełnowartościowe w debacie publicznej oraz stanowią materiał do modelowania dla innych ekonomistów, będących tylko konsumentami pracy pomiarowej (Morgenstern, 1963).

Jak wskazywał Ludwig Lachmann, część miar agregatowych jest konstruowana przy założeniu, że gospodarka znajduje się w stanie równowagi ogólnej. Produkt Krajowy Brutto, aby adekwatnie móc agregować nominalną wartość produktów, wymaga, żeby istniała pełna zgodność planów producentów i konsumentów w strukturze kapitałowej. Jeśli pewien proces produkcji zostanie przerwany na pewnym etapie z uwagi na brak popytu na dobro końcowe, to należy raczej mówić o błędnej alokacji kapitału niż o czymś, co należy zaliczyć do wartościowej całkowitej produkcji. Co więcej, PKB jest miarodajne tylko przy założeniu równowagi w systemie elastycznych cen, dostosowujących się do planów działających jednostek. Jeśli natomiast w gospodarce istnieje szeroka kontrola cen (w postaci cen minimalnych/maksymalnych czy płac minimalnych), to w zasadzie dokonywana jest agregacja dość arbitralnych liczb, a więc trudno mówić o miarodajnym oddaniu poziomu zasobności społeczeństwa (Lachmann, 1973). Dobrą ilustracją tego problemu są dane z USA z lat czterdziestych ubiegłego wieku: w latach 1941-45 realne PKB wzrosło o ponad 50%, natomiast w samym roku 1946 spadło aż o 19%. Jednak trudno traktować to inaczej jako artefakt gospodarki wojennej, czyli systemu opartego o arbitralnie ustalane ceny, w którym znaczącą część wynosiły wydatki rządowe na przemysł zbrojeniowy (Vedder & Gallaway, 1991). Realne PKB jest szczególnie złą miarą również pod innym względem: ponieważ eksport i import się znoszą w równaniu, to zachodzi systematyczne niedoszacowanie zmiany dochodu realnego spowodowanej zmianami warunków handlu międzynarodowego (Kohli, 2004).

Pokrewny problem, na jaki natrafiają teorie makroekonomiczne oderwane od mikroekonomicznych podstaw to gubienie wewnętrznej struktury przyjętych zmiennych. Jednym z czołowych ekonomistów podkreślających ten problem był Friedrich von Hayek, który w swojej recenzji Treatise on Money Keynesa pisał, że „agregaty Pana Keynesa ukrywają najbardziej fundamentalne mechanizmy zmiany” (Hayek , 1931b). Zwracał on również uwagę, że statystyczne uogólnienia, którymi posługuje się teoria co prawda mogą być wartościowe jako orientacyjne wskaźniki zachowania gospodarki, ale w ścisłym sensie są daleko mniej naukowe niż teoria mikroekonomiczna (Hayek, 2002). Rzeczywiście, w świecie realnym mamy do czynienia z bardzo złożoną strukturą zależności produkcyjnych, podzielną na wiele etapów, następujących po sobie w czasie, oraz operujących wielością dóbr kapitałowych i czynników produkcji. Jakkolwiek modele oparte o jedno dobro kapitałowe (np. model Solowa) lub przyjmujące implicite jednookresową strukturę produkcji (np. model mnożnika-akceleratora Samuelsona-Hansena) mogą jak najbardziej być zasadne jako narzędzia dydaktyczne, to przykładanie ich do realnych danych gospodarczych wymagałoby uzasadnienia, że podejście to jest przynajmniej dobrym pierwszym przybliżeniem, zamiast zwykłych asercji, że stan stacjonarny jest normalnym stanem rzeczy w rozwiniętych gospodarkach (Solow, 1970). Co więcej, nawet jeśli takie uproszczenie byłoby w pewnej mierze, to mogłoby być mylące z zupełnie innych względów: przykładowo można pokazać, że modele z jednym dobrem kapitałowym sugerują poprawność naiwnej produktywnościowej teorii procentu, obalonej przez Eugena von Bohm-Bawerka jeszcze w XIX w. (Murphy, 2005).

Kenneth Arrow zauważał w podobnym duchu, że makroekonomia uprawiana in abstracto zupełnie „ignoruje fundamentalną kwestię mikroekonomiczną, czyli kwestie heterogeniczności, w szczególności heterogeniczności oczekiwań” (Colander, Holt & Rossander, 2004). Uwaga Arrowa jest ściśle powiązana z inną problematyczną cechą krytykowanych tu teorii makroekonomicznych: ich „hydraulicznym” charakterem, opartym o założenie istnienia stałych relacji na poziomie agregatów. Najsłynniejszym przykładem jest tu oczywiście krzywa Philipsa, wprowadzona przez Samuelsona i Solowa jako stabilna zależność stopy inflacji i bezrobocia (Samuelson & Solow, 1960). Podobna właściwość charakteryzuje doskonale znany model IS-LM, zgodnie z którym przy braku zależności stopy procentowej od zmian wydatków istnieje dodatnia zależność między wzrostem wydatków a wzrostem produkcji (Hicks, 1937). Jak zauważa Coddington (autor pojęcia „hydrauliczny Keynesizm”), w takim podejściu istnieje tylko jedna siła sprawcza, czyli państwo (Coddington, 1976). Relacje makroekonomiczne stają się prostymi narzędziem manipulacji w ramach polityki gospodarczej: wystarczy wpływać na jedną wartość, aby druga dążyła do odpowiedniego poziomu. Obiecywały, że większe zatrudnienie powszechny cel polityki gospodarczej państw po II wojnie światowej (Robinson, 1972) jest możliwe do osiągnięcia bardzo prostymi środkami kosztem jedynie wyższego poziomu inflacji.

Powszechnie uznaje się, że ważnym punktem zwrotnym w dziejach makroekonomii była krytyka przeprowadzona przez Roberta Lucasa, który zauważył, że aby podejście hydrauliczne było poprawne i dawało wiarygodne narzędzie oceny alternatywnych propozycji polityki gospodarczej, to musi założyć stabilność relacji między parametrami modelu. Jednak, jak wskazywał, już sama zmiana polityki może spowodować na zmianę oczekiwań i zachowań jednostek w gospodarce, wpływając na zmianę relacji, a więc wywołując skutki odmienne niż przewidziane przez model. W konsekwencji, wszelkie próby „racjonalnego” wykorzystania zależności wskazywanej przez model mogą zawieść (Lucas, 1976). Jak zauważył Charles Goodhart:

Każda obserwowana statystyczna regularność będzie dążyła do zaniknięcia, gdy zostanie poddana naciskowi dla celów kontroli (Goodhart, 1984).

Chociaż krytyka ta wywołała szeroki oddźwięk i wpłynęła znacząco na dalszy rozwój dyscypliny, to należy zauważyć, że nie był on w tym względzie pionierem. Podobny argument o znaczeniu zmienności liczbowych wartości parametrów makroekonomicznych w zależności od zmian struktury mikroekonomicznej i w związku z tym problematyczność stosowania metod matematycznych oraz ujęcia ilościowego wysuwał już John Maynard Keynes w sporze z Janem Tinbergenem pod koniec lat 30. (Keynes, 1939). W bardziej radykalnej formie przedstawili tę linię krytyki przedstawiciele szkoły austriackiej, podkreślający brak istnienia stałych relacji między obserwowalnymi zmiennymi gospodarczymi, z uwagi na konieczność zapośredniczenia przez kategorię ludzkiego wyboru, będącą, zgodnie nawet z dzisiejszym stanem wiedzy, „ostateczną daną” dla ekonomistów (Mises 2007; Rothbard 1976).

Sukces krytyki Lucasa należy ściśle powiązać z faktem, że coraz bardziej złożone modele makroekonomiczne mimo wieloletniego zbierania danych i wprowadzania kolejnych zależności okazywały się dostarczać przewidywania nadal dalekie od zadowalających. W szczególności, ujawniły one swoją bezradność wobec zjawiska stagflacji lat 70., wykluczonej z góry na gruncie teoretycznym (Kydland & Prescott, 1991).

Dla lepszego zobrazowania większości wyżej wymienionych zagadnień przeanalizujmy poruszone kwestie na konkretnym przykładzie: równaniu wymiany MV = PY. Przede wszystkim należy zauważyć, że właściwie żadna ze zmiennych nie jest precyzyjnie określona, chociaż w różnych stopniu. Wcale nie jest oczywiste, który agregat pieniężny powinien być uwzględniany: M0 (raczej nie, ponieważ w systemie z rezerwą cząstkową zachodzi również niezależna kreacja w ramach systemu banków komercyjnych), M1, a może jeszcze inny.

Podobnie rzecz się ma z poziomem cen i produkcją realną: stosowanie jakiegokolwiek indeksu opartego o koszyk dóbr rodzi problem doboru koszyka oraz odpowiedniego ważenia jego elementów. Typowe praktycznie stosowane indeksy cenowe (CPI, PPI, deflator PKB) mają ewidentne ograniczenia jeśli chodzi o zakres uwzględnianych przez nie dóbr. Co więcej, jak wskazuje Murray Rothbard, w rzeczywistości produkcja realna nie ma żadnej naturalnej jednostki, więc mamy do czynienia raczej z ekwiwokacją iloczynu „ogólnej produkcji” z „ogólnym poziomem cen” oraz sumy wszystkich poszczególnych transakcji kupna/sprzedaży dóbr w gospodarce. Ta ostatnia liczba jest jednak tylko drugą stroną łącznej sumy księgowej wartości pieniężnej transakcji i jako taka niewiele wnosi do wyjaśnienia czy nastąpił np. wzrost produkcji w gospodarce (Rothbard, 1962).

Prędkość obiegu pieniądza V nie jest natomiast w żaden sposób, nawet przybliżony, obserwowana bezpośrednio, a jedynie wnioskowana na podstawie wartości pozostałych trzech zmiennych. Popularne założenie monetarystyczne o stabilności wydatków, a zatem o stałości V wydaje się dość arbitralne. Co gorsza, jeśli M jest uznane za podaż pieniądza w konkretnym punkcie czasu, to pojawia się problem z interpretacją V, ponieważ nie można wtedy ujmować jej jako szybkości obrotu pieniądza w jednostce czasu tj. jako zmiennej typu flow.

Jeśli zastosujemy krytykę Lucasa, to od razu widać, że zmiany polityki monetarnej (kontrolującej bezpośrednio jedynie M0) mogą wpłynąć w niejednoznaczny sposób na inne agregaty pieniężne, zależnie od konkretnych decyzji banków komercyjnych i innych instytucji kreujących pieniądz. Podobnie, może to wywołać zmiany oczekiwań inwestorów i konsumentów przekładające się na inne decyzje gospodarcze, powodujące zmiany V albo wręcz na zmiany struktury kapitałowej, nie znajdujące swojego odzwierciedlenia w agregatach P i Y. Sam Milton Friedman zauważał, że wpływ zmiany pojedynczej zmiennej na dostosowania pozostałych podlega opóźnieniom o różnej wielkości i czasie trwania, niemniej nie podał żadnej systematycznej reguły, która miałaby być określać jak zachodzi ten proces i stwierdzał jedynie, że reguła stałego przyrostu podaży pieniądza zredukuje czas dostosowania do minimum (Friedman, 1996).

Warto dodać również, że równanie wymiany z założenia pomija zależności cen względnych. Tymczasem, jak wskazuje powstawanie baniek na rynkach aktywów, ceny różnych dóbr i usług w gospodarce nie rosną równomiernie, wbrew modelowi helikoptera. Proces rozchodzenia się nowego pieniądza w gospodarce zachodzi nierównomiernie i wywołuje efekty redystrybucyjne tzw. efekty Cantillona, zgodnie z kolejnością odbiorców: od ostatnich do pierwszych. W rezultacie nawet twierdzenie o tym, że w długim okresie wzrost podaży pieniądza nie zmienia proporcji cen wydaje się dyskusyjne. Co więcej, można zasadnie upatrywać przyczyny zaburzeń strukturalnych i cykli koniunktury w gospodarce właśnie w zaburzeniu struktury cen względnych (Sieroń, 2017).

Jedyna interpretacja, w której równanie wymiany byłoby powszechnie akceptowane przez wszystkich ekonomistów uznaje je za tautologię, czysto księgowe równanie ex post, w którym łączna suma wydatków pieniężnych jest równa sumie cen sprzedanych towarów (Yeager, 1994). Należy jednak zauważyć, że nie jest to sens, jaki nadawali mu jego monetarystyczni proponenci, z Miltonem Friedmanem na czele szczególnie, że taka interpretacja nie nadaje się w żaden sposób jako kryterium dobrej polityki pieniężnej.

3. Współczesne modele makroekonomiczne z mikropodstawami

Rozczarowanie stylem teoretyzowania makroekonomicznego na poziomie agregatów oderwanych od decyzji jednostek przyszło w latach 70., czego głośnym wyrazem była wspomniana już krytyka Lucasa. Sam Lucas, oprócz wyrażenia swojej dezaprobaty dla dominującego podejścia, wzywał do budowy modeli opartych o rzeczywiście stałe, głębokie parametry, najlepiej odniesione do wyborów i oczekiwań jednostek (Lucas, 1996). Kamieniem węgielnym nowego podejścia został zaproponowane przez Finna Kydlanda i Edwarda Prescotta (późniejszych noblistów) model gospodarki zbudowany na bazie optymalizujących agentów, racjonalnych oczekiwań i czyszczenia się rynku (Kydland & Prescott, 1982). W tym podejściu do modelowania gospodarki, rozwijanym przez następne lata i znanego współcześnie pod ogólną nazwą DSGE (dynamic stochastic general equilibrium) firmy i gospodarstwa domowe są modelowane przez zadane funkcje użyteczności, maksymalizujące odpowiednio zyski pieniężne i użyteczność, natomiast decyzje innych agentów oraz zmiany instytucjonalne są włączane w postaci równań-ograniczeń (Gali & Gertler 2007; Woodford 2011).

Stopniowo to podejście zyskiwało na popularności, jednak oczywisty brak realizmu podstawowych mechanizmów leżących u podstaw modelu Kydlanda-Prescotta doprowadziło nowych keynesistów do włączania elementów, mających zbliżyć model do zachowania świata rzeczywistego. Jak wskazuje Fernandez-Villaverde, kanoniczne modele współcześnie zawierają m.in. konkurencję monopolistyczną zamiast doskonałej, wprowadzają pieniądz, jak również uwzględniają rolę władz monetarne jako instytucji wprowadzającej do gospodarki szoki nominalne (Fernandez-Villaverde, 2010).

Współcześnie modele DSGE są szeroko stosowane przez banki centralne np. Bank Anglii, EBC oraz FED (Smets et al. 2010; Tovar 2009). Co za tym idzie, z tym podejściem wiązane są duże nadzieje, co można zauważyć również w deklaracjach o skoku niczym „od braci Wright do Airbusa 380 w jednym pokoleniu” (Fernandez-Villaverde, 2010). Nie znaczy to jednak, że podejście to nie spotyka się z krytyką wręcz przeciwnie, wobec tego podejścia formułowano szereg zarzutów dotyczących niemal wszystkich aspektów modelowania DSGE z różnych perspektyw. Co zrozumiałe, fala krytyki nasiliła się po kryzysie 2008 roku, który niewątpliwie zaszedł wbrew przewidywaniom wynikającym ze stosowanych przez banki centralne modeli.

Po pierwsze, kanoniczne wersje modelu przyjmują, że gospodarka składa się z wielu identycznych gospodarstw domowych (oraz firm), którym odpowiada „reprezentatywne” gospodarstwo, mające „typowe” cechy. Takie podejście motywowane jest prostotą modelu, jak również wskazaniem na istnienie możliwości agregacji heterogenicznych agentów bez wpływu na ceny równowagowe, o ile są spełnione tzw. warunki Gormana (Eichenbaum & Hansen, 1990). Problem w tym, że warunki te, co było przeoczane przez kolejne pokolenia ekonomistów, wymagają restrykcyjnych kryteriów dopuszczalności indywidualnych funkcji użyteczności lecz warunki te nie są spełnione przez żadną typową funkcję przyjmowaną w rzeczywistych modelach (Jackson & Yariv, 2017). Słowem, konstrukt reprezentatywnego agenta nie daje się przełożyć na żaden układ preferencji jednostkowych agentów, którzy byliby opisywani przez jakiekolwiek nieliniowe funkcje użyteczności, w tym typowo przyjmowane w literaturze funkcje CARA czy CRRA. Co więcej, jak pokazują ci sami autorzy, każda heterogeniczność preferencji czasowych powoduje, że ich agregacja staje się niespójna w czasie a więc nie może być opisywana przez funkcje z wykładniczym dyskontowaniem preferencji, tak jak zwykle jest dokonywane (Jackson & Yariv, 2015).

Po drugie, pouczający jest sposób doboru oraz obrony założeń dot. dodatkowych mechanizmów przyjmowanych w wielu modelach DSGE. Przykładowo, bardzo popularnym sposobem modelowania zmian cen w nowokeynesowskich modelach DSGE jest tzw. Calvo pricing, polegające na tym, że poszczególne firmy zmieniają cenę niezależnie z pewnym ustalonym prawdopodobieństwem, wspólnym dla wszystkich (Calvo, 1983). Uzasadniane to bywa brakiem potrzeby jawnego śledzenia rozkładu cen między firmami oraz jednoczesnym zachowaniem nominalnych opóźnień, które są przez nie wywołane (Christiano, Eichenbaum & Evans, 2005). Problemem jest jednak to, że próby oszacowania liczbowej wartości prawdopodobieństwa opierają się na bardzo zgrubnym szacowaniu kosztu krańcowego przez udział pracy w wartości produktu co jednak wymaga kolejnych założeń: o tym, że funkcja produkcji jest funkcją Cobba-Douglasa, a także że rynek pracy jest doskonale konkurencyjny (Wolman, 1999).

Co ciekawe, zwolennicy wyceny wg metody Calvo broniąc się przed zarzutami zwracając uwagę na to, że inne często stosowane modele przyjmują równie nierealistyczne założenia lub wskazując na to, że sprzeciw wobec tego podejścia wynika z jego konkluzji, uzasadniających interwencję państwa. Rzeczywiście, alternatywy w postaci np. modelu Lagosa-Wrighta, popularny wśród nowych monetarystów zakłada wymiany między anonimowymi stronami, które więcej nigdy się nie spotykają (Lagos & Wright, 2005). Niemniej, jakkolwiek twierdzenia o wadliwości innych podejść lub częstej ocenie modeli według wypływających z nich wniosków są zasadne, tak trudno uznać to za dobre uzasadnienie obranego podejścia.

Podobnie rzecz się ma z innymi popularnymi elementami modeli DSGE np. z modelem konkurencji monopolistycznej Dixita-Stiglitza (Blanchard & Kiyotaki, 1987). Pozostaje on w sprzeczności z mikroekonomicznym twierdzeniem o zależności elastyczności cenowej popytu na dobro od zmian liczby konsumentów raczej niż od zmian ilości kupowanej przez każdego konsumenta, ponieważ zakłada, że każdy konsument kupuje u każdego producenta. Co więcej, z modelu wynika bardzo ścisły związek między elastycznością popytu i narzutem ponad koszt krańcowy, również niezgodny z badaniami empirycznymi (Yun & Levin, 2011).

Również ujęcie pieniądza w modelach pozostawia wiele do życzenia: początkowo był on zwyczajnie nieobecny, potem został wprowadzony jako argument funkcji użyteczności. Jak przyznają nawet zwolennicy tego podejścia, ten sposób jest tyleż niezbyt elegancki, co w gruncie rzeczy sprowadza się do przyznania, że nie istnieje dobry model pieniądza, który można zestawić z danymi oraz zastosować do oceny polityki gospodarczej (Fernandez-Villaverde, 2010). Ponadto, pieniądz odgrywa rolę w gospodarce poprzez szereg różnych kanałów zależności i można rozsądnie postulować, że np. wpływ inflacji na dobrobyt czy zależności między bazą monetarną a kreacją pieniądza w systemie bankowym są czynnikami, które mogą odgrywać istotną rolę w decyzjach jednostek i ich skutkach na poziomie gospodarczym (Wallace, 2001). W szczególności, problem z zamodelowaniem sektora finansowego prowadzi do jego niedocenienia, a zarazem przeceniania polityki monetarnej oraz szoków realnych (Tovar, 2009).

Ważnym problemem modeli DSGE podkreślanym przez ich krytyków jest także zagadnienie odpowiedniego doboru parametrów. Przede wszystkim, jak wspominał jeden z głównych twórców omawianej tu rewolucji makroekonomicznej (i również noblista) Thomas Sargent, sami proponenci doskonale zdawali sobie sprawę z problemów związanych z ekonometrycznymi testami własnych modeli:

Bob Lucas i Ed Prescott początkowo byli bardzo entuzjastycznie nastawieni do ekonometrii racjonalnych oczekiwań. W końcu po prostu polegało to na narzucaniu sobie tych samych wysokich standardów, które wytykaliśmy keynesistom za to, że im nie sprostali. Ale po około pięciu latach testowania współczynników wiarygodności na modelach racjonalnych oczekiwań, przypominam, że obaj mówili mi, że te testy odrzucały zbyt wiele dobrych modeli (Evans & Honkapoja, 2005).

Konsekwencją tego było wypracowanie podejścia według tzw. kalibracji, czyli zakładania z góry pewnych parametrów, odzwierciedlających rzeczywiste cechy gospodarki (Kydland & Prescott, 1991). Wśród typowo podawanych parametrów można znaleźć m.in. udział pracy w wynagrodzeniach całkowitej produkcji lub najróżniejsze założenia z badań mikroekonomicznych dot. np. zachowań gospodarstw domowych. Jednak należy podkreślić, że ilościowa estymacja parametrów mikroekonomicznych również jest daleka od jednoznaczności i z pewnością nie można postrzegać oszacowań jako czarnych skrzynek, gotowych do włączenia w model makroekonomiczny z pominięciem kontekstu, w jakim zostały opracowane (Hansen & Heckman, 1996). Co więcej, to podejście, wbrew postulowanej ścisłości, nie posiada żadnego odniesienia do jakichkolwiek kryteriów dobrej lub złej zgodności z danymi, a więc istnieje fundamentalna trudność porównania zasadności alternatywnych modeli wobec siebie (Sims, 1996).

Inny problem modeli DSGE wynika z ich złożoności. Typowo modele te nie posiadają jawnych rozwiązań, więc konieczne jest numeryczne szacowanie rozwiązań. Powszechną praktyką jest linearyzacja równań w modelu tj. przekształcanie ich do postaci równań liniowych przez rozwinięcie w szereg Taylora i pominięcie zależności wyższego rzędu, a dopiero potem dopasowywanie do danych. Jednak to powoduje niestety przede wszystkim dość oczywisty błąd polegający na rozbieżności miary wiarygodności (likelihood) modelu pierwotnego i zlinearyzowanego. Jak zauważają Fernandez-Villaverde i in., błąd ten rośnie wraz ze zwiększeniem rozmiaru próbki danych i nie można go pomijać w rzeczywistych modelach (Fernandez-Villaverde, Rubio-Ramirez & Santos, 2006). Dodatkowo, linearyzacja powoduje szereg innych problemów, takich jak gubienie istotnej dynamiki gospodarczej, przejawiającej się dopiero w zachowaniu nieliniowym np. związanym z premią za ryzyko (Dou et al., 2017).

Makroekonomiści pracujący z modelami DSGE podkreślają ich dopasowywanie do danych makroekonomicznych w postaci wieloletnich szeregów czasowych. Niemniej, jak wskazuje Kocherlakota, doskonałe dopasowanie do danych nie jest wartością samą w sobie i jak najbardziej możliwe, że gorszy model prowadziłby do lepszych zaleceń na przyszłość (Kocherlakota, 2007). Przykładowo, ocena wpływu zmiany opodatkowania na podaż pracy zależy od elastyczności podaży pracy, ale przeszłe dane nie pozwalają na odróżnienie zależności przesunięć krzywej podaży od przeszłych zmian podatkowych. Jak wskazywał już w latach 80. Sims, dużo ważniejsza dla modelu jest właściwy dobór i identyfikacja parametrów (Sims, 1980).

Jak się okazuje, modele DSGE wbrew pozorom nie są w pełni odporne na krytykę Lucasa, ponieważ ich analiza na długoterminowych szeregach czasowych pokazuje, że rzekomo „stałe” parametry faktycznie wykazują dryft w czasie. W rezultacie można pokazać, że zastosowanie ich w latach 70. dawałoby właściwie podobne wyniki co ówczesne modele oparte o krzywą Phillipsa, sugerujące istnienie zależności między bezrobociem a inflacją znikającej jednak przy próbie jej wykorzystania (Hurtado, 2014). Niezależnie od tego, czy jest to wynik błędnej specyfikacji modelu, problemów z identyfikacją i estymacją parametrów, czy też faktycznej zmienności parametrów strukturalnych w świecie realnym, podważa to zasadność wykorzystania modeli jako narzędzi kierowania politycznego.

Podsumowując, jak zauważa Mateusz Machaj, właściwie trudno nazwać to podejście budowaniem modelu od mikropodstaw, ale raczej przekładaniem pożądanych makroekonomicznych założeń, wymaganych przez teorię i posiadane dane, na samą konstrukcję stochastycznego mikroekonomicznego agenta, nie mającego absolutnie nic wspólnego z faktycznym zachowaniem ludzi na rynku (Machaj, 2017). Podobnego zdania jest Korinek, wskazujący na to, że wiele dobieranych parametrów (np. elastyczności podaży pracy, nawykowości w funkcji użyteczności) wydaje się mieć nierealistyczny rząd wielkości, wynikający ze specjalnego dopasowania ich pod okresy kryzysu (Korinek, 2017). Wydaje się, że dość trafnie istotę całego tego podejścia ujął Robert Solow:

Jest to sedno mojego zarzutu: przypisanie realistycznego lub behawioralnego odchylenia w stosunku do modelu Ramseya nie nadaje uzasadnienia mikropodstawami. [...] [D]odawanie pewnych realistycznych tarć nie czyni bardziej wiarygodnym, że obserwowana gospodarka działa zgodnie z pragnieniami pojedynczej, spójnej, patrzącej w przyszłość inteligencji (Solow, 2008).

Konsekwencją tego jest wykluczenie możliwości jednostkowych i kolektywnych błędów, niewiedzy, a także niezgodności planów, prowadzących do przechodzenia przez stany nierównowagowe.

Nic dziwnego, że przy okazji kryzysu 2008 na autorów modeli, które spektakularnie zawiodły, spadła lawina krytyki, zarówno ze strony kolegów po fachu, jak również polityków czy dziennikarzy. Warto zwrócić uwagę na podejście części makroekonomistów do wysuwanych zarzutów. Lucas, jeden z ojców omawianego tu podejścia, odpowiadał następująco na zarzut, że jego podejście zawiodło nie przewidując kryzysu finansowego 2008:

Wiadomo od ponad 40 lat i jest to jeden z głównych wniosków z „hipotezy rynków efektywnych” Eugene'a Famy, która stwierdza, że cena aktywa finansowego odzwierciedla wszystkie istotne, ogólnie dostępne informacje. Gdyby ekonomista miał formułę, która potrafi wiarygodnie przewidzieć kryzys z, powiedzmy, tygodniowym wyprzedzeniem, to ta formuła stałaby się częścią ogólnie dostępnej informacji i ceny spadłyby tydzień wcześniej (Lucas, 2009).

Podobnie William Easterly:

Ekonomiści zrobili coś lepszego niż przewidzenie kryzysu. Prawidłowo przewidzieliśmy, że nie będziemy w stanie tego przewidzieć. Najważniejszą częścią mocno znienawidzonej hipotezy rynków efektywnych jest to, że nikt nie może systematycznie być lepszym niż giełda. Co oznacza, że nikt nie jest w stanie przewidzieć krachu na rynku, ponieważ gdybyś mógł, to oczywiście pokonałby rynek (Easterly, 2009).

Słowem, czołowi zwolennicy modelowana makroekonomicznego na bazie mikropodstaw sami przyznają, że modele się sprawdzają wtedy, gdy się sprawdzają, a wtedy gdy byłyby najbardziej potrzebne, to sprawdzać się nie mogą co w zasadzie poddaje w wątpliwość sensowność samego modelowania.

Z jednej strony, ignoruje to fakt, że jak najbardziej istnieli ekonomiści (raczej wywodzący się z nurtów heterodoksyjnych), którzy ostrzegali przed nadciągającym kryzysem roku 2008[5]. Oczywiście, można zasadnie twierdzić, że generalnie czasy kryzysu powodują wzrost popularności ekonomicznych szarlatanów (Robinson, 1972) ale też trzeba zwrócić uwagę, że wielu podawało wyjaśnienia mające rzeczowe uzasadnienia, zakorzenione w obserwowanej rzeczywistości gospodarczej. W szczególności podkreślano problemy strukturalne systemu finansowego, powstanie baniek na rynkach aktywów finansowych i nieruchomości oraz politykę sztucznego zaniżania stóp procentowych prowadzącą do kumulacji błędnych inwestycji kapitału. Jednak ponieważ te teorie były przedstawione w formie werbalnej, czasem prostych diagramów i modeli, a nie w postaci sformalizowanych modeli wraz ze standardową procedurą kalibracji-estymacji, to nie dziwi, że nie spotkały się z zauważalną reakcją wśród zwolenników dominującego podejścia makroekonomicznego.

Z drugiej strony, poddaje to w wątpliwość szumne twierdzenia samego Lucasa z roku 2003, obwieszczającego, że „makroekonomia w pierwotnym znaczeniu odniosła sukces: jej główny problem zapobiegania kryzysom został rozwiązany” (Lucas, 2003). Paradoksalnie w ten sposób Lucas powtórzył niemal dokładnie przekonanie Arthura Okuna, piszącego na przełomie lat 60. i 70.:

Bardziej energiczne i konsekwentne stosowanie narzędzi polityki gospodarczej przyczyniło się do przestarzałości modelu cyklu koniunkturalnego i obalenia mitów o stagnacji (Okun, 1970).

Jak wykazały lata stagflacji 70., Okun nie mógł być dalszy od prawdy.

4. Ku adekwatnym mikropodstawom

Samo wskazanie wad zarówno podejścia otwarcie ignorującego zarówno potrzebę mikropodstaw, jak również oparcia makroekonomii o neoklasyczne postulaty wzbogacone o wkład rewolucji racjonalnych oczekiwań to za mało. Należy ponadto zadać pytanie: jakie twierdzenia ze sfery jednostkowych działań oraz interakcji zachowują istotne znaczenie na poziomie całej gospodarki.

Na szczęście nawet powyższa krytyka obu powyższych stanowisk sugeruje, że istnieją pewne fakty i zjawiska w rzeczywistości gospodarczej, które pozwalają uniknąć przynajmniej części pułapek czyhających w meandrach analizy makroekonomicznej.

Równowaga jest konstruktem pomocniczym, nie celem samym w sobie. Praktycznie wszystkie krytykowane powyżej teorie i modele makroekonomiczne obu podejść (co widoczne już w samej nazwie DSGE) oparte są o równowagę ogólną. Tymczasem istnienie równowagi ogólnej, nawet rozumianej jako równowagi dynamicznej ze sztywnościami cenowymi, asymetrią informacji itp., w świecie realnym nie jest wcale oczywiste. Właściwie nie wiadomo dlaczego należy traktować równowagę jako na tyle dobre przybliżenie rzeczywistości, żeby była czymś więcej niż konstruktem matematycznym i nabrała odniesienia do realnego, konkurencyjnego procesu rynkowego. A co za tym idzie, brak dobrych powodów, żeby opierać na niej praktyczne modele gospodarki i oceny polityki gospodarczej (Blaug, 2003).

Heterogeniczność jest ważna. Ujęcie kapitału jako jednolitej masy np. w funkcjach produkcji w typowych modelach było już krytykowane wielokrotnie, przede wszystkim w tzw. debacie dwóch Cambridge w latach 60., niemniej nawet współcześnie można spotkać prace rehabilitujące klasyczny model wzrostu Solowa (Mankiw, Romer & Weil, 1992). Jednak struktura dóbr kapitałowych wynikająca z wcześniej podjętych decyzji inwestycyjnych ma znaczenie dla aktualnych możliwości i przyszłego rozwoju gospodarki, zatem abstrahowanie od niej musi z konieczności prowadzić do błędów (Skousen, 2007).

W związku z heterogenicznością dóbr należy podkreślić istotną rolę cen względnych dóbr. Friedrich von Hayek wskazywał, że to one z jednej strony pokazują względną rzadkość poszczególnych dóbr, z drugiej strony, to ich relacje (ściślej: oczekiwane relacje) kierują decyzjami inwestycyjnymi jednostek. Ewentualne zaburzenie cen względnych prowadzi do błędnej alokacji czynników produkcji, co pozornie może wywoływać złudzenie boomu gospodarczego, ale czego negatywne skutki ujawniają się dopiero po pewnym czasie (Hayek 1931a; Mises 2007).

Niepewność istnieje. W tym miejscu chodzi o niepewność rozumianą w duchu Franka Knighta, jako niemierzalną cechę ludzkiego działania, mającą swoje źródło w ludzkiej kreatywności i wolnej woli. Jak wskazuje sam Knight, tak rozumianą niepewność należy odróżnić od ryzyka, dotyczącego wielkości losowych, ale posiadających ustalony i znany rozkład prawdopodobieństwa (Knight, 1921). Istnienie niepewności w świecie ma istotne znaczenie dla opisu gospodarczego: z jednej strony implikuje ono istnienie przedsiębiorczości jako fundamentalnie nierównowagowej siły, przynoszącej odrębny rodzaj dochodu: zysk (lub stratę), w odróżnieniu od klasycznych kategorii renty, płac i procentu z kapitału, z drugiej strony natomiast zakreśla ona granice dla możliwości przewidywania rozwoju gospodarczego. W szczególności, w takim ujęciu firma jest ośrodkiem realizacji funkcji przedsiębiorczej: łączenia czynników produkcji w ramach spekulatywnego planu i dyskusyjne jest ujmowanie jej jako ilościowo określonych funkcji produkcji w warunkach równowagowych (Baumol, 1968). Podobnie wątpliwe jest ilościowe modelowanie postępu technicznego lub nawet samo włączanie tych zjawisk w modele równowagowe, ponieważ nawet jeśli uznamy założenie o fundamentalnej tendencji gospodarczej do równowagi, to i tak trzeba przyjąć, że poszczególne działania przedsiębiorcze są twórcze, a więc nieustannie zmieniają stan równowagi (Schumpeter, 1947). Nieprzypadkowo literatura nt. ekonomii organizacji, ekonomii innowacji lub zarządzania przedsiębiorczego powołuje się na ekonomistów (m.in. Josepha Schumpetera, Israela Kirznera, Williama Baumola), którzy otwarcie wskazywali na to, że od czasów syntezy neoklasycznej ekonomia błędnie pomija ten kluczowy aspekt rzeczywistości gospodarczej (Klein & Foss, 2012).

Oczekiwania mają znaczenie i niekoniecznie muszą być racjonalne. Jak pisze Sargent przywołując cytat z Abrahama Lincolna (Sargent, 2008): „Można oszukać część ludzi przez cały czas lub wszystkich ludzi przez pewien czas, ale nie wszystkich przez cały czas”. Ta pierwotna motywacja stojąca za ideą racjonalnych oczekiwań wydaje się być intuicyjna, jednak trudno uznać, że realistycznym modelem odpowiadającym temu wglądowi jest założenie braku systematycznych błędów przewidywań cen. W rzeczywistości ma raczej miejsce najróżniejsza reakcja na zjawiska gospodarcze, czasem rzeczywiście ludzie mogą ulegać systematycznemu złudzeniu, które po prostu po pewnym czasie zanika. Co ważniejsze, często liczy się nie tyle fakt, że błędy z obu stron się znoszą, ale jaki charakter ma cały rozkład oczekiwań (Lachmann, 1973).

Ściśle związana jest z tym konieczność uwzględnienia niezamierzonych skutków polityki gospodarczej. Przykładowo, ekonomista analizujący wpływ znaczącego zwiększenia długu publicznego w walucie krajowej powinien uwzględnić możliwe reakcje jednostek np. powstanie obawy przed inflacją, więc ucieczkę w dolaryzację kontraktów (Palley, 2015). Podobnie zmiany podaży pieniądza rozchodzą się nierównomiernie w gospodarce, przez co powodować systematyczne np. systematyczną redystrybucję na rzecz pierwszych odbiorców nowo emitowanego pieniądza, czyli zjawisko znane pod nazwą efektów Cantillona (Sieroń, 2017).

Podobnie trudno uznać za realistyczną hipotezę rynków efektywnych, zgodnie z którą ceny zawierają cała przeszłą informację. Wbrew zapewnieniom swoich zwolenników, że jest ona bardzo dobrze potwierdzona empirycznie, faktem jest, że w potocznie rozumianej formie wyklucza ona z założenia istnienie baniek na jakichkolwiek aktywach a więc jest właściwie niefalsyfikowalna (vide uwagi Lucasa i Easterly'ego w części 3 niniejszej pracy) lub zwyczajnie błędna (przy potocznym rozumieniu baniek).

Pieniądz jest dobrem takim jak inne i tak samo podlega subiektywnej wycenie przez gospodarujące jednostki. Oczywiście oprócz tego posiada pewne szczególne charakterystyki wynikające z bycia powszechnym środkiem wymiany: można zasadnie twierdzić, że nie ma własnego rynku lub, co równoważne, że jego rynek obejmuje praktycznie całą gospodarkę (Horwitz, 2000). Pieniądz dekretowy (fiat money) nie ma zastosowania jako dobro konsumpcyjne czy produkcyjne (tak jak historycznie miał pieniądz towarowy), ale za to nadal jest najbardziej zbywalnym dobrem w gospodarce. Przez to posiada wartość użytkową dla jego posiadaczy jako efektywny środek wymiany, środek przechowywania wartości i jednostka rozliczeniowa (Jevons, 1875). Ponadto pieniądz pełni istotną, lecz często niedocenianą rolę narzędzia kalkulacji ekonomicznej tj. jednostki służącej do porównania oczekiwanej zyskowności alternatywnych projektów (Mises, 2011).

Warto również dostrzec, że stopa procentowa jest odzwierciedleniem preferencji czasowej wśród członków społeczeństwa (Rothbard, 1962). Jako taka jest ona ściśle związana z międzyokresową alokacją dóbr, a zatem ze strukturą kapitałową gospodarki. Nie można więc jej uznawać li tylko za „dźwignię” na rynku finansowym, którą można w prosty sposób manipulować, osiągając proste przełożenie na inne parametry makroekonomiczne.

Na koniec należy podkreślić, że instytucje rządzą. Nieprzypadkowo od lat, w zasadzie zupełnie autonomicznie wobec formalnego modelowania gospodarczego rozwijają się wielotorowo badania nad rolą instytucji w procesach w skali całych gospodarek. Jak zauważał James Buchanan, analiza zjawisk gospodarczych w duchu matematyczno-inżynieryjnym jest zawodna, ponieważ ignoruje uwarunkowania instytucjonalne oraz ich wpływ na interakcję i wymianę. Ten wpływ zdecydowanie wykracza poza to, co jest ujmowane w równaniach jako warunki ograniczające, ale faktycznie zmieniające bodźce i oczekiwania ludzi (J. Buchanan, 2009). Dokładnie ten sam błąd popełniali ekonomiści neoklasyczni w latach 30. podczas debaty o możliwości socjalizmu, gdy opierając się o formalną poprawność modelu równowagi ogólnej Walrasa dowodzili, że nie istnieje systematyczna różnica między procesem wyceny w ustroju kapitalistycznym i socjalistycznym. Przeoczali bowiem właśnie zarówno wpływ różnic instytucjonalnych na same motywacje ludzi, ale przede wszystkim gubili instytucjonalną rolę pieniądza jako narzędzia kalkulacji ekonomicznej (Mises 2007, 2011).

Co więcej, jak wskazuje Nassim Nicholas Taleb, samo przekonanie o skuteczności modeli oraz stosowanie ich przez instytucje kreujące politykę gospodarczą powoduje istotne zmiany w strukturze instytucjonalnej. Zawierzenie modelom stochastycznym prowadzi do systematycznego zwiększania kruchości gospodarki na zdarzenia z ogonów rozkładu tzw. „czarne łabędzie” (tj. bardzo rzadkie, niespodziewane zdarzeń o dużym wpływie) (Taleb, 2013). Rzeczywiście, w latach poprzedzających kryzys można wprost wskazać na zauważalne tendencje do wzrostu coraz większego wzrostu zależności poszczególnych części sektora finansowego (prywatnego oraz państwowego) i ich wpływu na strukturę gospodarki realnej (Jabłecki, 2016).

5. Zakończenie

Chociaż wiele argumentów z krytyk wysuwanych przez ostatnie lata trafiało celnie w niedostatki i problemy dominujących metod, modeli i teorii, to reakcja czołowych makroekonomistów wywoływała wrażenie, że zupełnie nie rozumieją oni stawianych zarzutów, makroekonomia przeżywa złoty wiek rozkwitu, natomiast jej krytykami są sami ignoranci (Lucas 2009; Sargent 2010). Bardziej krytyczni zwolennicy modelowania twierdzili, że nie istnieje żadna wiarygodna alternatywa do analizy zgodnie z ugruntowanymi paradygmatami (Blanchard 2016; Korinek 2017). Podkreślane jest zarazem, że popularne podejścia są na tyle sprawne, że można bez problemu je rozbudować o kolejne elementy np. heterogeniczność agentów, rynki finansowe czy dalsze ograniczenia behawioralne.

Niemniej, powstaje pytanie: dlaczego wszystkie te ulepszenia są uwzględniane dopiero w sytuacji, gdy modele zostały wdrożone, oparto na nich politykę, a potem przekonano się, że zawiodły? Kolejne dekady makroekonomii stanowią raczej konsekwentne potwierdzenie tezy, że scjentystyczne projekty naukowe nie są dobrymi narzędziami politycznymi.

Jasne jest, że ekonomiści zajmujący się modelowaniem mają tendencję do zachłyśnięcia się dobrze rokującym, nowatorskim podejściem ilościowym przy jednoczesnym niedocenianiu jego niedostatków oraz przecenianiu jakości dostępnych danych gospodarczych. Z drugiej strony istnieje naturalne zapotrzebowanie polityczne (ze strony państw, banków centralnych czy instytucji międzynarodowych) na jak najbardziej systematyczne i naukowe podejście do problemów, w miarę możliwości zapewniające koniunkturę i stabilność gospodarczą. Niemniej, połączenie obu oczekiwań[6] powoduje powstanie bodźców, skutkujących w praktyce tym, że zamiast z racjonalną polityką gospodarczą mamy do czynienia z wielkimi eksperymentami społecznymi. Na nieszczęście bardzo niekontrolowanymi, więc stosunkowo niekonkluzywnymi zawsze istnieje ryzyko zrzucenia niepowodzenia na nieprzewidziany szok zewnętrzny a co gorsza przeprowadzanymi na żywych społeczeństwach.

Jak wskazuje John Kay, makroekonomia stała się ofiarą sprzeczności: z jednej strony dziedziną rozwijającą modele jako wartości same w sobie, z drugiej natomiast w jawny sposób deklarującą służebność teorii wobec zastosowania praktycznego. W rezultacie pierwsze dążenie prowadzi do nacisku na aksjomatyzację modeli oraz przedstawianie ich w formie akceptowalnej dla symulacji komputerowej (Kay, 2012). Założenie z góry możliwości redukcji ludzkiego zachowania do pewnego zestawu równań może być dla wielu naukowców dobrym punktem wyjścia dla badań teoretycznych, natomiast bez dobrego zrozumienia, dlaczego taki opis nie daje jedynie przygodnych korelacji, trudno uzasadnić próby wykorzystania tego w praktyce. A w szczególności nie należy się dziwić, gdy rzeczywistość społeczna nie podąża za w gruncie rzeczy ciasnym lub wręcz błędnym schematem, w który próbowano ją ująć, ponieważ złożoność rzeczywistości społecznej sprawia, że o pozorne regularności łatwo[7].

Należy dopuścić możliwość, że rację mogą mieć ekonomiści post-keynesowscy wskazujący na istnienie radykalnej niepewności, uniemożliwiające modelowanie i predykcję (Davidson, 2009), lub przedstawiciele szkoły austriackiej, podkreślający szczególny jakościowy charakter wszystkich stałych relacji społecznych, w tym gospodarczych (Mises, 2007). Być może rzeczywiście gospodarka jest systemem złożonym, w którym naukowe predykcje ilościowe są po prostu niemożliwe (Hayek, 1964). Możliwe również, że po prostu stosowane modele mają zbyt wiele stopni swobody, a więc (zgodnie z powiedzeniem przypisywanym przez Enrico Fermiego Johnowi von Neumannowi):

Dzięki czterem parametrom mogę zmieścić słonia, a z pięcioma mogę zmusić go do poruszania trąbą (Dyson, 2004).

W każdym razie wydaje się, że fascynacja możliwościami formalnych modeli powinna ustąpić zdrowej dozie sceptycyzmu związanej z ich fundamentalnymi ograniczeniami oraz przynajmniej częściowemu powrotowi do krytycznej i cierpliwej dyskusji teoretycznej, tak jak była ona prowadzona przed II wojną światową (Blaug, 2003).

Nietrudno wyjaśnić przyczynę obecnego stanu. Historyczny splot okoliczności powodujących popularność pewnych podejść skutkuje również powstaniem zależności od ścieżki (path-dependence). Szczególnie nie należy mieć złudzeń co do wpływu metodologii ekonomii. Jak wskazują George Stigler czy Paul Samuelson, korzyści wynikające ze specjalizacji oraz koszty alternatywne zainteresowania metodologią ekonomii lub nawet historią myśli ekonomicznej, wydają się skutecznym bodźcem hamującym ewentualny wpływ dyskusji o metodzie (Samuelson, 1987; Stigler, 1969)[8]. Z drugiej strony, jak wskazywał jeden z ojców rewolucji marginalistycznej, Carl Menger:

Tylko w jednym przypadku, z pewnością, badania metodologiczne są tym, co najważniejsze i najpilniejsze, co należy zrobić dla rozwoju nauki. (...) Błędne metodologiczne zasady wspierania i wnioskowania wspierane przez potężne szkoły całkowicie zwyciężają a jednostronność staje się standardem wszystkich badań. Słowem, postęp nauki jest zablokowany przez błędne zasady metodologiczne. W takim przypadku, rozjaśnienie problemów metodologicznych to warunek wszelkiego dalszego postępu (Menger, 1996).

Kwestia znaczenia podstaw zjawisk makroekonomicznych wydaje się fundamentalna jeśli chodzi o zrozumienie procesów gospodarczych czy dalsze przełożenie na prawidłową politykę gospodarczą. Lepsza metodologia powinna zatem owocować spójniejszą i bardziej wyczerpującą teorią, zdolną do pełniejszego wyjaśnienia zjawisk będących w orbicie zainteresowań ekonomistów. Wobec tego, już samo uwzględnienie (w gruncie rzeczy mało odkrywczych, bardzo skromnych i dość intuicyjnych nawet dla ludzi bez głębszej świadomości metodologicznej) postulatów z punktu 4 powinno prowadzić do lepszej, przynajmniej pod pewnymi względami, teorii.

 

Literatura

Baumol, W. (1968). Entrepreneurship in economic theory. The American Economic Review, 58(2), 64–71.

Blanchard, O. (2016). Do DSGE models have a future? Revista de Economia Institucional, 18(35), 39–46.

Blanchard, O. & Kiyotaki, N. (1987). Monopolistic competition and the effects of aggregate demand. The American Economic Review, 77(4), 647–666.

Blaug, M. (2003). The formalist revolution of the 1950s. Journal of the History of Economic Thought, 25(2), 145–156.

Buchanan, J. (2009). Economists have no clothes. Perspectives in Moral Science, 151–156.

Buchanan, M. (2013). Forecast: what physics, meteorology, and the natural sciences can teach us about economics. Bloomsbury Publishing USA.

Calvo, G. (1983). Staggered prices in a utility-maximizing framework. Journal of Monetary Economics, 12(3), 383–398.

Christiano, L., Eichenbaum, M., & Evans, C. (2005). Nominal rigidities and the dynamic effects of a shock to monetary policy. Journal of Political Economy, 113(1), 1–45.

Coddington, A. (1976). Keynesian economics: the search for first principles. Journal of Economic Literature, 14(4), 1258–1273.

Colander, D., Holt, R., & Rosser, J. B. (2004). The changing face of economics: Conversations with cutting edge economists. University of Michigan Press.

Davidson, P. (2009). The Keynes solution: the path to global economic prosperity. St. Martin’s Press.

De Vroey, M., & Malgrange, P. (2012). From the Keynesian Revolution to the Klein-Goldberger model: Klein and the dynamization of Keynesian theory. History of Economic Ideas, 20(2) 113–135.

Dou, W., Lo, A., Muley, A. & Uhlig, H. (2017). Macroeconomic models for monetary policy: A critical review from a finance perspective. MIT Sloan and Chicago University Working Paper.

Dyson, F. (2004). A meeting with Enrico Fermi. Nature, 427(6972), 297.

Easterly, W. (2009).The idiot’s guide to answering Queen Elizabeth, http://www.nyudri.org/aidwatcharchive/2009/08/the-idiot%E2%80%99s-guide-to-answering-queen-elizabeth, [dostęp 22.09.2018]

Eichenbaum, M., & Hansen, L. P. (1990). Estimating models with intertemporal substitution using aggregate time series data. Journal of Business & Economic Statistic, 8(1), 53–69.

Evans, G., & Honkapohja, S. (2005). An interview with Thomas Sargent. Macroeconomic Dynamics, 9(4), 561–583.

Fernandez-Villaverde, J. (2010). The econometrics of DSGE models, SERIEs, 1(1), 3–49.

Horwitz, S. (2000). Microfoundations and macroeconomics. Routledge.

Hurtado, S. (2014). DSGE models and the Lucas critique. Economic Modelling, 44, S12–S19.

Jabłecki, J. (2016). The financial crisis in retrospect: A case of misunderstood interdependence. Critical Review, 28(3-4), 287–334.

Jackson, M., & Yariv, L. (2015). Collective dynamic choice: the necessity of time inconsistency. American Economic Journal: Microeconomics, 7(4), 150–178.

Jackson, M., & Yariv, L. (2017).The non-existence of representative agents. Working Paper.

Jevons, W. S. (1875). Money and the mechanism of exchange. Appleton.

Kay, J. (2012). The map is not the territory: Models, scientists, and the state of modern macroeconomics. Critical Review, 24(1), 87–99.

Keynes, J. M. (1939). Professor Tinbergen’s method. The Economic Journal, 49(195), 558–577.

Knight, F. (1921). Risk, uncertainty and profit. Houghton Mifflin Co.

Kocherlakota, N. (2007). Model fit and model selection. Review-Federal Reserve Bank of Saint Louis, 89(4), 349.

Kohli, U. (2004). Real GDP, real domestic income, and terms-of-trade changes. Journal of International Economics, 62(1), 83–106.

Korinek, A. (2017).Thoughts on DSGE macroeconomics: Matching the moment, but missing the point? Working Paper.

Kydland, F., & Prescott, E. (1982). Time to build and aggregate fluctuations. Econometrica, 50(6), 1345–1370.

Kydland, F., & Prescott, E. (1991). The econometrics of the general equilibrium approach to business cycles. The Scandinavian Journal of Economics, 93(2), 161–178.

Lachmann, L. (1973). Macro-economic thinking and the market economy. Institute of Economic Affairs.

Lagos, R., & Wright, R. (2005). A unified framework for monetary theory and policy analysis. Journal of Political Economy, 113(3), 463–484.

Leijonhufvud, A. (1969). Keynes and the classics: two lectures on Keynes’ contribution to economic theory. Institute of Economic Affairs.

Long, R. (2006). Realism and abstraction in economics: Aristotle and Mises versus Friedman. The Quarterly Journal of Austrian Economics, 9(3), 3–23.

Lucas, R. (1976). Econometric policy evaluation: A critique. Carnegie-Rochester Conference Series on Public Policy, 1, 19–46.

Lucas, R. (2003). Macroeconomic priorities. The American Economic Review, 93(1), 1–14.

Lucas, R. (2009). In defence of the dismal science. The Economist, 6.

Machaj, M. (2017). Money, interest, and the structure of production: Resolving some puzzles in the theory of capital. Lexington Books.

Mankiw, N. G., Romer, D., & Weil, D. (1992). A contribution to the empirics of economic growth. The Quarterly Journal of Economics, 107(2), 407–437.

Menger, C. (1996). Investigations into the method of the social sciences. Ludwig von Mises Institute.

Mirowski, P. (1991). More heat than light: economics as social physics, physics as nature’s economics. Cambridge University Press.

Mises, L. (2007). Ludzkie działanie. Instytut Ludwiga von Misesa.

Mises, L. (2011). Kalkulacja ekonomiczna w socjalizmie. Instytut Ludwiga von Misesa.

Morgenstern, O. (1963). On the accuracy of economic observations. Princeton University Press.

Murphy, R. (2005). Dangers of the one-good model: Bohm-Bawerk’s critique of the „naive productivity theory of interest”. Journal of the History of Economic Thought, 27(4), 375–382.

Okun, A. (1970). The political economy of prosperity. W. W. Norton & Company.

Palley, T. (2015). Money, fiscal policy, and interest rates: A critique of Modern Monetary Theory. Review of Political Economy, 27(1), 1–23.

Penrose, E. T. (1952). Biological analogies in the theory of the firm. The American Economic Review, 42(5), 804–819.

Popper, K. (1957). The poverty of historicism. Routledge.

Robinson, J. (1972). The second crisis of economic theory. The American Economic Review, 62(1-2), 1–10.

Rothbard, M. (1962). Man, Economy, and State. D. Van Nostrand.

Rothbard, M. (1976). Praxeology: The methodology of Austrian economics. In E. Dolan (Ed.), The Foundations of Modern Austrian Economics (ss. 19–39). Kansas City: Sheed and Ward.

Samuelson, P. (1987). Out of the closet: A program for the Whig history of economic science: Keynote address at History of Economics Society Boston Meeting, June 20, 1987. History of Economics Society Bulletin, 9(1), 51–60.

Samuelson, P., & Nordhaus, W. (2003). Ekonomia. Wydawnictwo Naukowe PWN.

Samuelson, P., & Solow, R. (1960). Analytical aspects of anti-inflation policy. The American Economic Review, 50(2), 177–194.

Sargent, T. (2008). Rational expectations. In: The concise encyclopedia of economics. Liberty Fund.

Sargent, T. (2010). Interview with Thomas Sargent. Federal Reserve Bank of Minneapolis.

Schumpeter, J. (1947). The creative response in economic history. The Journal of Economic History, 7(2), 149–159.

Schumpeter, J. (2010). The nature and essence of economic theory. Transaction Publishers.

Sieroń, A. (2017). Efekt Cantillona — czyli dlaczego pieniądz ma znaczenie? Wydawnictwo CeDeWu.

Sims, C. (1980). Macroeconomics and reality. Econometrica, 48(1), 1–48.

Sims, C. (1996). Macroeconomics and methodology. Journal of Economic Perspectives, 10(1), 105–120.

Skousen, M. (2007). The structure of production. NYU Press.

Smets, F., Christoffel, K., Coenen, G., Motto, R., & Rostagno, M. (2010). DSGE models and their use at the ECB. SERIEs, 1(1-2), 51–65.

Solow, R. (1970).Growth theory. An exposition. Clarendon Press Oxford.

Solow, R. (2008). The state of macroeconomics. The Journal of Economic Perspectives, 22(1), 243–246.

Stigler, G. (1969). Does economics have a useful past? History of Political Economy, 1(2), 217-230.

Taleb, N. N. (2013). Antykruchość. O rzeczach, którym służą wstrząsy. Wydawnictwo Kurhaus.

Tovar, C. (2009). DSGE models and central banks. Economics-The Open-Access, Open-Assessment E-Journal, 3, 1–31.

Vedder, R. & Gallaway, L. (1991). The Great Depression of 1946. The Review of Austrian Economics, 5(2), 3–31.

Wallace, N. (2001). Whither monetary economics? International Economic Review, 42(4), 847–869.

Wolman, A. (1999). Sticky prices, marginal cost, and the behavior of inflation. Economic Quarterly, 85(4), 29–48.

Woodford, M. (2011). Interest and prices: Foundations of a theory of monetary policy. Princeton University Press.

Yeager, L. (1994). Tautologies in economics and the natural sciences. Eastern Economic Journal, 20(2), 157–169.

Yun, T., & Levin, A. (2011). Reconsidering the microeconomic foundations of price-setting behavior. In: 2011 Meeting Papers nr 424. Society for Economic Dynamics.

 

[1] Typowym przykładem takiego podejścia jest Money, Interest, and Prices Dona Patinkina.

[2] Na marginesie warto dodać, że promotorem doktoratu Fishera w Yale był fizyk, specjalista od termodynamiki, Willard Gibbs.

[3] Zob. Federal Reserve Bank of St. Louis: https://fred.stlouisfed.org/categories/24

[4] Zob. Bureau of Labor Statistic: https://www.bls.gov/news.release/empsit.t15.htm

[5] Przykładowo: Steve Keen, Michael Mussa, Ann Pettifor, Raghuram Rajan, Nouriel Roubini czy Mark Thornton.

[6] Należy podkreślić, że w tym miejscu abstrahujemy od konkretnej agendy politycznej lub doszukiwania się psychologicznych motywów politycznego uwikłania ekonomistów.

[7] http://www.tylervigen.com/spurious-correlations

[8] Co ciekawe, obaj ekonomiści osobiście przejawiali wieloletnie zainteresowanie historią myśli ekonomicznej i zdecydowanie nie stronili od refleksji nt. metodologii ekonomii.

Źródło ilustracji: Pixabay.com

Kategorie
Metaekonomia Metodologia ekonomii głównego nurtu Teksty

Czytaj również

Megger_Nowe-szaty-historyzmu.-Austriacy-i-ich-niekończący-się-spór-o-metodę.jpg

Metaekonomia

Megger: Nowe szaty historyzmu. Austriacy i ich niekończący się spór o metodę

Zdrowa ekonomia potrzebuje zdrowej metodologii.

Machaj_Kontrfaktycznie-wszyscy-jesteśmy-martwi.jpg

Metaekonomia

Machaj: Kontrfaktycznie wszyscy jesteśmy martwi

Koniec "ceteris paribus"?

Shostak_Czy_powinnismy_korzystac_z_rachunku_prawdopodobienstwa_w_ekonomii

Metodologia szkoły austriackiej

Shostak: Czy powinniśmy korzystać z rachunku prawdopodobieństwa w ekonomii?

Wbrew powszechnemu przekonaniu, prawdopodobieństwo liczbowe nie ma zastosowania w ekonomii.

Carl-Menger.jpg

Historia szkoły austriackiej

Kwaśnicki: Carl Menger i analiza ekonomiczna bez matematyki

Dlaczego Menger był niechętny stosowaniu matematyki w analizie ekonomicznej?


Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.

Strona korzysta z plików cookie w celu realizacji usług zgodnie z Polityką Prywatności. Możesz samodzielnie określić warunki przechowywania lub dostępu plików cookie w Twojej przeglądarce.