W ekonomii fascynuje najbardziej prostota zasad na których się opiera i fakt, że niewielu ludzi jest w stanie te zasady zrozumieć. Powodów tego stanu rzeczy można wymienić kilka, może nawet kilkanaście, z czego najważniejszym – i najbardziej oczywistym – jest brak solidnej edukacji ekonomicznej. Wydawać się może bowiem, że ekonomia zamiast wyjaśniać niejednokrotnie zaciemnia przedstawiany obraz, oddalając człowieka od przedmiotu swoich dociekań, przedmiotu który jawić się zaczyna jako zaklęty krąg dostępny jedynie nielicznym. Tymczasem ekonomia dotyczy nas wszystkich, a to co w niej najważniejsze – działanie człowieka – może być zrozumiane przez każdego z nas. Ta właśnie idea – idea ekonomii opartej na zdrowym rozsądku, gdzie człowiek nie jest gubiony pod stosami wykresów i równań matematycznych – była prawie nieobecna przez długi okres w głównych nurtach ekonomicznych i salach wykładowych ośrodków akademickich, a skutki takiej sytuacji moglibyśmy również wymieniać w nieskończoność. W ostatnich latach jednak sytuacja wydaje się powoli odwracać.

W dniach 13 – 16 września 2008 roku w miejscowości Lubenia koło Rzeszowa odbyło się po raz pierwszy Letnie Seminarium Austriackie, poświęcone tematyce teorii pieniądza oraz teorii wyceny. Letnie seminaria będą odbywały się co roku we wrześniu, głównymi adresatami są polscy studenci i pracownicy naukowi, ale będą również przyjmowani chętni z zagranicy. W tegorocznej konferencji wzięły udział czterdzieści trzy osoby z całej Polski, co jest godne odnotowania i świadczy upowszechnianiu się wolnorynkowego spojrzenia na gospodarkę.

Cykl wykładów otwierała prelekcja Juliusza Jabłeckiego dotycząca polityki pieniężnej, reżymów monetarnych, działalności banku centralnego oraz standardu złota.

Do ostatecznych celów polityki pieniężnej zaliczane jest oddziaływanie na bezrobocie, wzrost gospodarczy, inflację oraz kurs walutowy. Do ich osiągnięcia wyznacza się cele operacyjne w postaci oddziaływania na stopę rezerw obowiązkowych i stopę procentową. Instrumentami polityki pieniężnej są operacje otwartego rynku, operacje depozytowo-kredytowe i poziom rezerw obowiązkowych.

Obecnie wyróżnić można kilka zasadniczych podejść banków centralnych do polityki pieniężnej.

Pierwsze podejście zakłada kontrolę podaży pieniądza, jak pisał M. Friedman w artykule The Role of Monetary Policy („American Economic Review”, 1968): „Moim zaleceniem wciąż jest, aby władze monetarne nie miały oporów przed publicznym przyjęciem polityki utrzymywania stałego tempa wzrostu określonej miary pieniądza.” Kontrola podaży pieniądza była praktykowana, w mniejszym czy większym stopniu, przez niemiecki Bundesbank (1974-98), Narodowy Bank Szwajcarii (1975-99), Bank Anglii (lata 70-te), NBP (1992-97), amerykański Fed i Bank Kanady. W teorii kontrola podaży pieniądza opiera się na równaniu I. Fischera (MV=PQ); w założeniu jeśli M będzie rosło w tempie realnego PKB, ceny będą stałe. Bank centralny musi zatem być w stanie określić podaż pieniądza M, efektywnie kontrolować jego ilość oraz określić stałą relację pomiędzy zmianami M a zmianami cen. Rodzi to jednak wiele problemów, przed wszystkim wzrost cen (inflacja) jest silnie skorelowany z szerokimi agregatami pieniądza, które pozostają poza kontrolą banku centralnego. Ponadto szybkość cyrkulacji pieniądza V była przez ostatnie pięćdziesiąt lat niestabilna i nadal nie ma stałego poziomu. Drugim podejściem do polityki pieniężnej jest kurs walutowy i powiązanie własnej waluty z walutą innego kraju (currency peg i currency board). Bank centralny danego kraju utrzymuje pełne pokrycie dewizowe dla M0, w Europie stosują ten system np. kraje nadbałtyckie (Litwa, Łotwa i Estonia) czy Bułgaria, które utrzymują pełne pokrycie własnej waluty w euro. W swoich zaleceniach Currency Boards for Eastern Europe z 1991 roku S. Hanke i K. Schuler twierdzą, iż currency board:

  • pomaga ustabilizować gospodarkę i ograniczyć inflację
  • nie pozwala na dyskrecjonalną politykę pieniężną
  • chroni przed spadkiem konkurencyjności
  • nie pozwala na monetyzację długu

Do wad currency board można zaliczyć te same czynniki, które są potencjalną korzyścią: brak narodowej polityki pieniężnej, integracja monetarna, usztywnienie terms of trade. Currency board nie chroni też przed inflacją, dla przykładu: obecnie średni roczny wzrost cen w Bułgarii i Estonii wynosi ponad 10%, a na Łotwie około 15%.Trzecie podejście zakłada ustalanie bezpośredniego celu inflacyjnego, stosuje je większość banków centralnych świata. Celem operacyjnym jest stopa procentowa, a narzędziem oddziaływania operacje otwartego rynku. W takim systemie podaż pieniądza praktycznie nie odgrywa roli, bank centralny po prostu sprzedaje i kupuje tyle papierów wartościowych, aby stopa procentowa ustaliła się na zakładanym poziomie. Jednak mechanizm ten ma poważną wadę, wedle słów wiceprezesa Nowojorskiego Banku Rezerwy Federalnej S. Cecchettiego: „Podczas gdy istnieje sprawny system wstrzykiwania rezerw pieniężnych do krajowego systemu finansowego, nie ma sposobu zapewniającego, że rezerwy trafią do banków które ich potrzebują”. Strategia bezpośredniego celu inflacyjnego prowadzi zatem do prywatyzacji zysków i socjalizacji odpowiedzialności.

W kolejnym wykładzie Maciej Bitner przedstawił argumenty w sporze toczącym się między zwolennikami stuprocentowego standardu złota a ekonomistami optującymi za możliwością działania systemu rezerwy cząstkowej. Wśród ekonomistów szkoły austriackiej nie ma pełnej zgody co do kształtu i funkcjonowania bankowości na wolnym rynku. Będący w mniejszości zwolennicy istnienia rezerwy cząstkowej wskazują na możliwość swobodnego kształtowania treści umów. Jeśli uczestnicy rynku są świadomi istnienia rezerwy częściowej, to akceptują ryzyko posługiwania się pieniądzem fiducjarnym i z premedytacją nie wybierają bankowości ze stuprocentowym pokryciem pieniądza w kruszcu. Wprowadzenie zakazu emisji pieniądza fiducjarnego oznaczałoby złamanie wolności kontraktowania, jednocześnie nic nie stoi na przeszkodzie, aby o klientów konkurowały banki utrzymujące stuprocentową rezerwę. Skutki i mechanizm funkcjonowania rezerwy częściowej są zbliżone jak np. przy upowszechnieniu obiegu weksli. Z praktycznego punktu widzenia rezerwa stuprocentowa uderza w normalną dla działalności finansowej sytuację, gdy długie aktywa finansuje się krótkimi i często rolowanymi pasywami. Złota reguła bankowa, zakładająca równy termin zapadalności aktywów i pasywów, znacznie utrudniłaby możliwość funkcjonowania depozytów na żądanie.

Przeciwnicy rezerwy cząstkowej (obecnie J. H. De Soto, H. H. Hoppe, J. Salerno, J. G. Hülsmann) twierdzą, iż każda emisja środków bez pokrycia w formie kredytu bankowego zaburza strukturę produkcji wywołując najpierw rozkwit, a później nieuchronną recesję. Emisja środka fiducjarnego jest niedopuszczalnym kontraktem – nie wolno rozdawać tytułów własności do nieistniejących rzeczy. Ponadto historia rozwoju bankowości, jeśli ma jakąś logikę, wskazuje na przejście od stosunkowo wolnej bankowości do systemu z bankiem centralnym i ostatecznie „papierowego” pieniądza. System stuprocentowej rezerwy położyłby temu kres u samego zarania. Rezerwa cząstkowa jest również zagrożeniem dla stabilności: jeden bank działając w swoim interesie może przyczynić się do zachwiania całego systemu bankowego.

Wspólnym stanowiskiem ekonomistów szkoły austriackiej jest sprzeciw wobec bankowości centralnej oraz przeciwko państwowemu monopolowi na emisję środków płatniczych (legal tender). Wolna bankowość i dopuszczenie rezerwy cząstkowej jest stanowiskiem kompromisowym i możliwym do zaakceptowania przez niektórych ekonomistów głównego nurtu. Propozycja stuprocentowego pokrycia w kruszcu jest stanowiskiem radykalnym i zupełnie nie do przyjęcia dla elit finansowych.

W czasie kolejnego wystąpienia Juliusz Jabłecki postawił pytanie o zasadność i aktualność krytyki ekonomii matematycznej Ludwiga von Misesa.

Najwybitniejszy ekonomista austriacki odnosił się bardzo sceptycznie do użycia matematyki w ekonomii: „Metodę matematyczną należy odrzucić nie tylko ze względu na jej jałowość. Jest ona całkowicie fałszywa, gdyż opiera się na błędnych założeniach i prowadzi do nieprawdziwych wniosków. Jej sylogizmy są nie tylko jałowe, lecz odciągają umysł od badania rzeczywistych problemów i zniekształcają stosunki między różnymi zjawiskami”.

Istnieją dwa typy ekonomii matematycznej. Pierwszy z nich, statystyka-ekonometria, jest metodą przedstawiania danych historycznych dotyczących cen i innych istotnych aspektów ludzkiego działania. Statystyka nie jest ekonomią i nie może formułować twierdzeń ani teorii ekonomicznych, należy do dziedziny historii gospodarczej. Drugim typem jest ekonomia równowagowa, posługująca się równaniami, rachunkiem użyteczności i założeniem stanu stacjonarnego. Ekonomista matematyczny nie przyczynia się w żaden sposób do wyjaśnienia procesu rynkowego. Opisuje jedynie pomocnicze narzędzie ekonomistów logicznych jako pojęcie ograniczające, definicję stanu rzeczy, w którym nie istnieje żadne działanie, a proces rynkowy zatrzymał się. Nic więcej nie może powiedzieć. To, co ekonomista logiczny przedstawia słowami, kiedy opisuje konstrukcje myślowe końcowego stanu spoczynku i gospodarki jednostajnie funkcjonującej, i to, co również ekonomista matematyczny musi opisać słowami, zanim przystąpi do pracy matematycznej, zostaje przełożone na symbole algebraiczne. Z powierzchownej analogii wyciąga się zbyt daleko idące konsekwencje.

Przykładem na nierealność założeń ekonomii matematycznej jest pojecie nieskończoności. W matematyce nieskończoności mają różne „wielkości”: liczby naturalne stanowią najmniejszą możliwą nieskończoność, liczby rzeczywiste stanowią zaś continuum („dużą nieskończoność”) większa od liczb naturalnych. Co istotne – elementy continuum nie mogą być ponumerowane! Według noblisty Roberta Aumanna (1964): „Najbardziej naturalny model do rozwinięcia koncepcji doskonałej konkurencji zawiera continuum podmiotów rynkowych, tak jak ciecz zawiera continuum cząstek”. Jest to jednak błędne przybliżenie. Jak stwierdził matematyk Donald Greenspan, „(…)w istocie nawet dziś atomowa i molekularna teoria potwierdzają, że wszystko na świecie ma charakter skończony” (1990). Agenci rynkowi Aumanna nie mogą nawet być policzeni – jak mieliby stanąć w kolejce? Ludzie w tym modelu traktowani są jak punkty bez ciał, bez wagi i bez jakichkolwiek cech charakterystycznych.

Inne teorie zakładają nawet więcej podmiotów niż elementów continuum (Brown i Robinson, 1972) – nie można sobie nawet tego wyobrazić, bo przestrzeń euklidesowa zawiera tylko continuum punktów. Z punktu widzenia matematyki odjęcie mocy zbioru liczb rzeczywistych od mocy zbioru liczb rzeczywistych wciąż daje moc zbioru liczb rzeczywistych (continuum). Zatem niezależnie jak wiele elementów usunie się ze zbioru continuum, wiąż jest ich w teorii tyle samo. Stąd model ekonomiczny oparty na continuum powoduje wyeliminowanie zjawiska rzadkości i prowadzi do absurdalnych interpretacji empirycznych założeń.

W teorii ekonomii pojawia się wątpliwość, czy nierealistyczne założenia mają w ogóle jakiekolwiek znaczenie. M. Friedman stwierdził, że im istotniejsza teoria, tym bardziej nierealistyczne są założenia. Dla wyjaśnienia należy wprowadzić dwa pojęcia: abstrakcji precyzującej i abstrakcji nieprecyzującej. W teorii zachowania konsumenta można posługiwać się dwoma całkowicie odmiennymi metodami: nie precyzować pewnych cech, czyli używać nieprecyzującej abstrakcji, albo precyzować brak tych cech, czyli posługiwać się precyzującą abstrakcją. Przy użyciu teorii zachowania konsumenta można uzyskać wyjaśnienia bądź przewidywania. Wyjaśnienie opiera się na zidentyfikowaniu relacji przyczynowo-skutkowych, natomiast predykcja opiera się na stochastycznych zależnościach funkcyjnych. Wyjaśnienie w teorii ekonomii musi być oparte na nieprecyzującej abstrakcji, teoria oparta na precyzującej abstrakcji, którą przyjęła ekonomia matematyczna, umożliwia co najwyżej niepewną predykcję.

W wykładzie zatytułowanym „Po co strzelać do trupa?” Mateusz Machaj nawiązał do słynnej debaty kalkulacyjnej socjalizm-kapitalizm i przedstawił argumenty mające zastosowanie do obecnych stosunków gospodarczych.

Ludwig von Mises wskazywał, że socjalizm oznacza jednego przymusowego właściciela. Taki właściciel nie może wymieniać zasobów, brak jest dobrowolnych transakcji wymiany, co oznacza niemożliwość wykształcenia się cen. Bez cen nie może istnieć rachunek cenowy w jednostkach pieniężnych, będących uniwersalną miara dla wszystkich dóbr. Zatem niemożliwość kalkulacji oznacza brak sposobu na mierzenie efektywności, co nieuchronnie kieruje ku katastrofie gospodarczej.

Odpowiedzi niemieckie były proste i chybione, opierały się na niezrozumieniu problemu i zostały szybko porzucone. Odpowiedź anglosaska (Taylor, Lange) rozwijała model konkurencyjny. Dopuszczał on wolny rynek konsumpcji przy istnieniu centralnej listy cen. Imputacja odbywała się od cen konsumpcyjnych na rynek przez konkurujących menedżerów. Zatem kalkulacja przynajmniej z arytmetycznego punktu widzenia była możliwa, ceny pieniężne mogły zaistnieć w jakiejś formie.

Mises kontrargumentował, że menadżerowie to tylko wycinek działalności gospodarczej. Przedsiębiorcy jako właściciele mają ważniejsze zadania na rynku finansowym i kapitałowym. Wiele codziennych czynności na rynku o rozpoczynaniu produkcji to dużo więcej, niż bieżące zarządzanie przez menedżerów.

Według Misesa imputacja jaka dokonuje się w socjalizmie jest cały czas projektem planistycznym, w którym o cenach, ich elastyczności i zmianach decyduje bezpośrednio centralna władza. W kapitalizmie ceny są dla przedsiębiorcy zewnętrznym sygnałem, pokazują spekulacje, oczekiwania i warunki na innych rynkach w ramach konkurencji. W socjalizmie ceny nie są niezależnymi kosztami alternatywnymi dla planisty, lecz są pochodną jego decyzji i preferencji, a zatem nie zmieniają nic w dyktatorskiej naturze socjalizmu.

Wydaje się, że świat nie wyciągnął należytej lekcji z debaty kalkulacyjnej i obecnie zaobserwować można dążenie do socjalizmu finansowego. System cenowy, mimo że istnieje na papierze, staje się pochodną decyzji urzędniczych i centralnych. Chociaż technicznie rzecz biorąc kalkulacja w takim socjalizmie jest możliwa, to przestaje odzwierciedlać intelektualny podział pracy między przedsiębiorcami, a zaczyna odzwierciedlać urzędnicze biurokratyczne decyzje.

Jan Lewiński w czasie kolejnego wykładu wskazał różnice między szkołą austriacką a chicagowską. W świadomości publicznej pojęcia takie jak „konkurencja doskonała”, „polityka antymonopolowa” lub wszechobecne słowo „rynek”, często używane przez szkołę uniwersytetu w Chicago, skutecznie przekonują, iż ma się od czynienia z czystą ekonomia wolnorynkową.

Pierwszym fundamentalnym rozróżnieniem obu szkół jest używana metodologia. Ekonomiści szkoły chicagowskiej (F. Knight, H. Simons, M. Friedman, R. Coase, H. Demsetz, G. Stigler i G. Becker) przyjęli zaadaptowaną z fizyki metodę opierającą się na empirycznym testowaniu (falsyfikowaniu) hipotez postawionych przez badacza, punktem wyjścia jest stereotyp metodologicznego indywidualizmu (obiektywistyczny) i teoria decyzji. Austriacy z kolei opierają się na wnioskowaniu aprioryczno-dedukcyjnym, odrzucając moc dowodową wydarzeń historycznych, a punktem wyjścia jest silny subiektywizm i teoria ludzkiego działania.

Kolejną różnicą jest wpływ czasu: dla Austriaków czas pełni kluczową rolę, szkoła chicagowska ignoruje wpływ czasu w tworzeniu modeli. Konieczność upraszczania rzeczywistości i wtłaczania jej w abstrakcyjne modele popchnęła ekonomistów szkoły chicagowskiej do traktowania  kapitału jako homogenicznego funduszu oraz przyjcie, iż pieniądz wpływa na ogólny poziom cen, z pominięciem relatywnych zmian w cenach. Takie stanowisko idzie w parze z powszechnym użyciem agregatów makroekonomicznych, które czynią zbędną analizę na poziomie mikro. Pozwala to na poparcie pieniądza fiducjarnego i manipulację jego podażą przez bank centralny. Austriacy posługują się rozbudowaną teorią kapitału, uznają go za heterogeniczny zbiór dóbr. Pieniądz traktowany jest jako dobro w pełni rynkowe, które wpływa na procesy modyfikujące strukturę relatywnych cen.

Szkoła chicagowska często zakłada, że historyczne koszty produkcji mają tendencję do określania cen rynkowych, a koszty produkcji są obiektywne, rzeczywiste i dane z góry, przez co możliwe do poznania i określenia przez osoby trzecie. Jest to wyjątkowo zgubne dla wolności, ponieważ dopuszcza bezpośrednią interwencję organów państwowych (administracyjnych i sądowych) w kontrakty i działania podmiotów rynku. Szkoła austriacka stoi na stanowisku, iż to ceny dóbr konsumpcyjnych mają tendencję do determinowania cen dóbr produkcyjnych, a koszty produkcji są subiektywne i niezdeterminowane.

Szkoła z Chicago uważa stopę procentową za zasadniczo determinowaną przez marginalną produktywność lub efektywność kapitału; ma być ona wewnętrzną stopą zwrotu, czyniącą oczekiwane przychody równymi historycznym kosztom produkcji dóbr kapitałowych (uznawanych za zdeterminowane i stałe). Stopa procentowa jest tu głównie zjawiskiem monetarnym. Szkoła austriacka postrzega stopę procentową jako cenę rynkową określaną poprzez subiektywne wartościowania preferencji czasu. Służy do dyskontowania obecnej wartości przyszłych przychodów.

W podsumowaniu prelegent podkreślił, że interwencjonizm w szkole chicagowskiej jest praktyczne nieunikniony. Etatystyczny potencjał tkwi w mniemaniu, że możliwe jest stworzenie dobrze funkcjonującej teorii w oparciu o całkowicie nieprawdziwe, mylne lub mylące założenia, a następnie niemal ślepe podążanie tym raz wytyczonym szlakiem. Tego rodzaju idealizm wychodzi z prostego acz niekoniecznie prawdziwego założenia, że każda teoria i każdy ideał musi być z konieczności nierealny. W zgodzie z takim obrazem rzeczywistości badacz może swobodnie zrezygnować z poszukiwania rzeczywistych generalnych praw ekonomicznych. Wystarczy, że zajmie się tworzeniem ad hoc własnych, oderwanych od rzeczywistości i sprzecznych z nią (lub też sprzecznych wewnętrznie, bez różnicy) ogólnych modeli, a dopiero szukać będzie jakichś przyczynkarskich związków z (także kłopotliwymi pod względem epistemologicznym) danymi empirycznymi. Patrząc całościowo, nasuwa się wrażenie, że naukowiec musi jedynie wyrzucać z siebie efemeryczne zlepki teoretyczne, które mają częściowo „przylegać” do rzeczywistości w akurat badanych miejscach, a tam, gdzie coś nie pasuje, powinni „łatać” dziury koncepcją interwencji państwa, które miałoby bez zastrzeżeń stosować wszelkie zalecenia światłych ekonomistów na żywej tkance społecznej. Takich błędów jest niestety więcej, a wszystkie wymienione skazują społeczeństwo na arbitralne decyzje sądów, interwencjonizm państwa i inne przejawy lekceważenia suwerennych decyzji uczestników rynku.

Następny dzień wykładów rozpoczął Mateusz Machaj prelekcją o austriackiej teorii imputacji (determinowania cen) i różnicach między podejściem Misesa i Hayeka.

Ogromnym wkładem Austriaków w teorię ekonomii było pokazanie, że to ceny konsumpcyjne decydują o cenach produkcyjnych. Rola przedsiębiorcy polega na dostosowywaniu kosztów do cen poprzez decyzje produkcyjne, jest to możliwe tylko dzięki istnieniu systemu rynkowej wymiany.

Dla Misesa system cenowy jest produktem konkurencji między właścicielami. Odzwierciedla współzawodnictwo o rzadkie środki kapitałowe, a arytmetyczna natura kalkulacji staje się metodą myślenia dla przedsiębiorców. Ta kalkulacja nie jest doskonała i nie zapewnia idealnej wyceny, ponieważ żyjemy w świecie niepewnej przyszłości, a kalkulacja odnosi się do znanych dzisiejszych cen oraz nieznanych przyszłych cen. Stąd bierze się element spekulacji. Z kolei dla Hayeka system cenowy to coś więcej niż tylko metoda rachunku. Wiedza o możliwościach produkcyjnych jest zdecentralizowana między poszczególnych uczestników rynku. System cenowy przekazuje tę wiedzę, której centralny planista nie byłby w stanie zgromadzić. Informacje co i dla kogo produkować przesyłane są za pomocą cen do przedsiębiorców. Ceny służą temu, aby gospodarka zmierzała w stronę równowagi, aby wybierać równowagowe funkcje produkcji.

Pod wpływem krytyki Hayek uzupełnił, że ceny tak jak mogą przenosić informację, mogą również być nośnikiem dezinformacji. Wcale nie muszą prowadzić do równowagi, a decyzje na ich bazie mogą zwiększać zakres błędów w gospodarce. Dla analizy Misesa to nie jest problemem, ponieważ mechanizm rynkowy to jedyne możliwe wyjście do rozpoznawania zysków i strat, bez niego każde działanie byłoby ślepe. Kalkulacja umożliwia spekulowanie co do przyszłości (które może być błędne), a następnie korektę ex post i możliwość oceny przeszłych decyzji. Dodatkowo argument Hayeka nie adresuje projektu socjalizmu rynkowego, gdzie wiedza i zarządzanie mogłoby być dalej zdecentralizowane, a właścicielem wszystkiego byłoby państwo.

W swoim kolejnym wykładzie Jan Lewiński zajął się teorią równowagi w ekonomii. Pojęcie równowagi upowszechniło się w XIX wieku wraz z szerokim zastosowaniem rachunku różniczkowego i rachunku prawdopodobieństwa w naukach ścisłych; równowaga jest specyficzną cechą systemów fizycznych, matematycznych, chemicznych itp. Modele równowagowe w ekonomii opierają się na szeregu abstrakcyjnych założeń jak różniczkowalna przestrzeń dóbr czy producentów, brak pieniądza, zerowe zyski czy konkurencja doskonała. Uczestnicy procesów rynkowych traktowani są, na wzór cząstek materii nieożywionej, jak zbiór homogeniczny znajdujący się w systemie o stałym trendzie wzrostu gospodarczego, rozchwiewany cyklami koniunkturalnymi i działający losowo pod wpływem określonych sił (bodźców).

Najważniejszą cechą systemów równowagowych to przewidywalność – każdy system równowagowy jest w stanie spoczynku lub musi go osiągnąć. Modele równowagowe jednak nie są nawet zbliżone do rzeczywistości i nie potrafią przewidywać przyszłości społeczno- gospodarczej. Przyczyną ich używania mogą być skłonności ekonomistów związanych ze światem polityki do obrony status quo. Z jednej strony, analiza równowagowa świetnie sprawdza się jako destruktor własności prywatnej i, ogólnie, pojęcia indywidualizmu, konserwując jednocześnie narzędzia holistycznego wpływania na agregaty ekonomiczne. Wynika to stąd, że w modelach równowagowych najważniejsze są relacje ilościowe pomiędzy zmiennymi agregatowymi, takimi jak poziom podaży pieniądza, poziom inflacji, poziom PKB, uśredniony poziom cen etc. Z drugiej strony, ze względu na swój statystyczny charakter, modele równowagowe znakomicie nadają się do manipulowania przeszłością za pomocą żonglowania danymi agregatowymi. W ten sposób władza jest w stanie wytłumaczyć kryzys monetarny np. kolejnym cyklem Kondratiewa, zbyt dużą skłonnością do oszczędzania i podobnymi wyjaśnieniami. Sedno problemu tkwi w bezczasowości modelu i stąd braku zainteresowania kierunkiem zależności przyczynowych.

Jedyny przykład teorii równowagowej w szkole austriackiej to gospodarka jednolicie funkcjonująca (ERE, evenly rotating economy) zakładająca rozdział świata idealnego i rzeczywistego. Cechuje się bezczasowością, brakiem zmian danych rynkowych, brakiem zysków i przedsiębiorców (niemożność dokonywania wyboru, brak niepewności), stałą ilością ludzi. W ERE ceny towarów i usług pokrywają się z ich cenami końcowymi (do których zmierzają wszystkie ceny na rynku). Bez użycia modelu abstrakcyjnego wyznaczenie naturalnej stopy procentowej jest niemożliwe – w świecie rzeczywistym pojawia się instytucja przedsiębiorcy, który stara się ominąć problem niepewności, odbiegając od naturalnej stopy procentowej i osiągając zysk. Można jednak oponować, że ERE nie jest do tego konieczne. Sam Mises wskazuje, że przedsiębiorca przede wszystkim kieruje się w swoich działaniach poszukiwaniem najdogodniejszych względnych różnic cenowych pomiędzy kosztami a ceną produktu, wówczas przestaje być potrzebne rozróżnienie procentu i zysku.

Według Misesa, nie da się wyjaśnić zmian gospodarczych bez argumentu a contrario zakładającego brak tych zmian, dlatego ERE jako świat bez zmian jest niezbędny do zrozumienia zjawiska zmiany. Nie musi to być jednak prawda – zmiana to przejście od jednego stanu do drugiego; aby wyobrazić sobie samą zmianę, nie potrzebujemy wiedzieć, do czego ona „dąży” – nawet, jeśli znaczącym założeniem teorii działania jest jego celowość.

ERE może służyć jednak jako narzędzie sądu etycznego i  wskazanie wpływu interwencji państwa na rynek. Jeśli bowiem da się wyznaczyć „naturalną” stopę procentową, której wysokość da się określić gdy wszyscy konsumenci są usatysfakcjonowani w najwyższym możliwym stopniu, to można powiedzieć, że interwencja państwowa zakłócając system cenowy niszczy ten najbardziej pożądany stan. Bez ERE nie można (przynajmniej nie tak łatwo) pokazać, że taki „najlepszy” stan istnieje.

Kolejny wykład, przygotowany przez Ryszarda Jacka Kubisza, dotyczył kontrowersji w teorii austriackich stóp procentowych.

Zjawisko lichwy – rozumianej jako jakikolwiek procent pobierany od pożyczek miało od wieków swoich przeciwników. W miarę rozwoju gospodarki kapitalistycznej dominację uzyskała nowa forma procentu od kapitału – dodatnia różnica cenowa pomiędzy nakładami kapitalisty na czynniki produkcji a przychodami ze sprzedaży. Marks twierdził, że nie da się obniżyć tej różnicy do zera i należy jedynie ją znacjonalizować, natomiast u niektórych innych socjalistów pojawiały się głosy o możliwości likwidacji zysku z kapitału. Ekonomiści stanęli przed zadaniem wyjaśnienia tego zjawiska i odpowiedzi na pytanie, czy procent można wyarbitrażować, czy też nie. W szkole austriackiej był to temat, który wzbudził pewne kontrowersje, prelegent przedstawił różnice w poglądach E. Boehm-Bawerka, L. von Misesa, M. Rothbarda i J. G. Huelsmanna.

Eugen von Boehm-Bawerk w analizie procentu unikał kategorycznych stwierdzeń apriori. Ograniczał się do uogólniania obserwacji rynku. Podawał trzy przyczyny dodatniej stopy procentowej:

  • Zaniżanie wartości przyszłych potrzeb – defekt w odczuwaniu przyszłych potrzeb, powodujący przypisywanie większej wartości potrzebom obecnym.
  • Przystępujący do działalności gospodarczej ludzie mają tendencję do uznawania, że w przyszłości, gdy już zarobią, będą mieli więcej środków na zaspokojenie potrzeb, natomiast potrzeby obecne wydają im się gorzej zaspokojone przez obecnie dostępne dobra.
  • Okrężne metody produkcji są ponadproporcjonalnie bardziej produktywne co w połączeniu z wolniej spadającymi cenami (w porównaniu ze wzrostem produktywności), powoduję powstanie procentu.

Ludwig von Mises krytykował ujęcie Boehm-Bawerka jako psychologiczne, a więc nie fundamentalne dla każdego ludzkiego działania. W odpowiedzi przedstawił uzasadnienie opierające się na argumentacji prakseologicznej. Twierdził, że każdy człowiek musi konsumować, aby żyć. Jako że konsumpcja musi się odbywać w teraźniejszości, każdy człowiek preferuje mieć określoną ilość danego dobra teraz niż później. Co więcej Mises argumentował, że samym działaniem człowiek daje dowód na preferowanie zaspokojenia danej potrzeby teraz a nie później.

W swym traktacie Man, economy and state Murray Rothbard rozwinął teorię procentu opartą o Misesowskie rozważania. Rothbard argumentował, że to preferencja czasowa ludzi jest odpowiedzialna nie tylko za podaż oszczędności ale także za popyt na nie. Było to stanowisko przeciwne neoklasycznemu podejściu, które determinant popytu na oszczędności upatruje w produktywności kapitału. Rothbard twierdził również, że wraz ze wzrostem realnego zasobu pieniądza, będącego w posiadaniu człowieka spada jego preferencja czasowa. Nie jest to jednak reguła i trudno określić czy w ogóle jest to efekt przeważający w gospodarce czy też nie. Rothbard pisał, iż aby możliwy był wzrost gospodarczy stopa procentowa (preferencja czasowa) musi maleć.

J. G. Huelsmann poddał krytyce teorie Misesa na kilku płaszczyznach. Przede wszystkim zarzucił Misesowi, że nie każde działanie ma na celu konsumpcję albo przetrwanie. W związku z czym wbrew tezom Misesa pozytywna preferencja czasowa powodowana chęcią przetrwania nie może cechować każdego ludzkiego działania. Co więcej, teoria Misesa ma zdaniem Huelsmanna jeszcze większy defekt, bowiem samo twierdzenie, że każdym działaniem człowiek dowodzi, iż chce działać teraz a nie później, nie wystarczy do wytłumaczenia różnic w cenach. Teoria Misesa odnosi się do kontrfaktycznego scenariusza użycia konkretnego dobra, natomiast teoria procentu dotyczy sytuacji dwóch dóbr, w dwóch różnych momentach procesu produkcji.

Huelsmann proponuje własne wytłumaczenie. Zwraca uwagę na fakt, że środki uzyskują swą wartość ze względu na cele do jakich osiągnięcia służą. Jednakże zostają one poświęcone dla tych celów, a więc mają mniejszą wartość. Przedsiębiorca – zdaniem Huelsmanna – to człowiek, który traktuje pieniądze na początku i końcu procesu produkcyjnego jako dobro homogeniczne. Jako że pieniądze zainwestowane są środkiem, a przychody celem – muszą być one ilościowo większe, aby cel miał większą wartość niż środki. Dlatego nie da się wyarbitrażować procentu.

Teoria Huelsmanna ma jednak pewne słabe strony. Przede wszystkim jak zauważył Simon Bilo z Uniwersytetu Ekonomicznego w Pradze, człowiek działając nie wybiera między środkami a celami. Tak więc należy uznać, że jeśli człowiek miałby wybierać między poświęceniem środków dla celu a pozostawieniem ich w stanie nienaruszonym, to tak naprawdę wybierałby między dwoma celami i cel niewybrany stał by się kosztem alternatywnym. Natomiast koszt alternatywny zgodnie według Misesa kształtuje aktualną cenę czynnika produkcji, a nie tłumaczy procentu, który on przynosi.

Ostatnim wystąpieniem na konferencji była prelekcja Jarosława Cholewińskiego dotycząca austriackiej teorii cyklu koniunkturalnego, które to zagadnienie jest wyjątkowo aktualne w świetle kryzysu finansowego 2008 roku.

Austriacy wiążą cykl koniunkturalny z działaniem banku centralnego oraz istnieniem rezerwy cząstkowej. Polityka banku centralnego, nawet jeśli nie jest to zamierzone i przewidywane działanie, wykazuje tendencje do zaburzania naturalnej, rynkowej stopy procentowej ustalając ją na niskim poziomie na długi czas, np. poprzez manipulację stopą rezerw obowiązkowych, operacjom otwartego rynku czy innym instrumentom. Polityka taniego pieniądza, przy istniejących możliwościach uruchomienia dzięki temu dodatkowych funduszy kredytowych, stymuluje ekspansję kredytową poprzez mechanizm kreacji w systemie rezerwy cząstkowej, czego następstwem jest monetarny „boom”.

Sztucznie zaniżona stopa procentowa powoduje, że system cenowy dostarcza producentom fałszywych informacji o preferencjach konsumentów, środki finansowe lokowane są w obszarach, które nie cieszyłyby się zainteresowaniem, gdyby podaż pieniądza i stopa procentowa pozostały niezaburzone. Jeśli stopa procentowa pożyczek jest sztucznie zredukowana poniżej naturalnej stopy procentowej ustalonej przez swobodne oddziaływanie sił rynkowych to przedsiębiorcy mają możliwość zaangażowania się w dłuższe procesy produkcji. Jest prawdą, że dłuższe procesy produkcyjne mogą przynosić większy łączny zwrot niż krótsze procesy, ale względny zwrot z tych procesów jest niższy. Wynika to z tego, iż kolejna jednostka kapitału zaangażowana w wydłużenie procesu produkcyjnego przynosi coraz mniejszy zwrot. Innymi słowy każde wydłużenie procesu zwiększa produkt całkowity wedle malejącej stopy wzrostu. Angażowanie się więc w dłuższy, bardziej okrężny proces produkcyjny jest uzasadnione tylko w sytuacji, gdy ta mniejsza dodatkowa produktywność nadal będzie się opłacać przedsiębiorcy. Tak długo jak stopa procentowa pożyczek jest zbieżna z naturalną stopą procentową wydłużenie procesu produkcyjnego nie będzie opłacalne; zaangażowanie się w taki proces przyniesie straty.

Prelegent podkreślił różnice między teorią Hayeka a Misesa: przy polityce taniego pieniądza niekoniecznie musi nastąpić przeinwestowanie, po prostu kapitał jest lokowany nieracjonalnie, Mises określa ten proces jako „malinvestment” czyli błędne inwestycje.

Dla utrzymania inwestycji podaż pieniądza musi wzrastać coraz szybciej, nakręcając bańkę spekulacyjną. Koniec boomu przychodzi wtedy, gdy ludzie zdają sobie w końcu sprawę z ilości nagromadzonych błędów. Groźba utraty płynności w końcu zmusi banki do ukrócenia ekspansji kredytowej, a widmo inflacji skłania bank centralny do podwyżki stóp procentowych. Projekty wdrożone w czasie dobrej koniunktury okazują się nie do zrealizowania przy wyższej stopie procentowej i gorszych warunkach kredytowych, pojawiają się bezczynne zasoby, bankructwa, a to pociąga w końcu za sobą bezrobocie razem z inflacją widzianą już jako wzrost cen dóbr konsumpcyjnych.

Ostatecznie poziom cen spada, ale spada nierównomiernie – ceny dóbr  bardziej oddalonych w czasie od konsumpcji, ceny inwestycji opartych na nieracjonalnej spekulacji mogą spadać wręcz dramatycznie. Jest to rynkowa ocena ich wartości i zdolności do zaspokajania aktualnych potrzeb przez na rynku. W myśl teorii Misesa po fazie sztucznego boomu faza recesji jest nieunikniona. Co więcej, działa tutaj żelazne prawo odwetu, im silniejsza i dłuższa będzie faza sztucznego prosperity tym dotkliwsza będzie faza recesji.

Austriacka teoria cyklu koniunkturalnego jest wciąż przedmiotem badań, znaczący wkład w jej rozwój wnieśli Mises i Hayek, spopularyzowaną wersję przedstawił Rothbard, a obecnie zapoznać się można z graficzną interpretacją R. W. Garrisona oraz modelem „values-riches” R. Fillieule.

Dla wszystkich zainteresowanych ekonomią austriacką inaugurowany został nowy projekt edukacyjny Instytutu – Akademia Misesa. Akademia łączy ideę wolnej wszechnicy z systemem akademickim. Każdy może wziąć udział w zajęciach prowadzonych w lokalnych Klubach Austriackiej Szkoły Ekonomii, ale tylko osoby, które spełnią określone kryteria, będą uzyskiwały zaliczenia i związane z tym uprawnienia. Sesje egzaminacyjne będą odbywały się w trakcie Letnich Seminariów Austriackich (LSA), mamy nadzieję, że dyplomy potwierdzające zakres opanowanej wiedzy zyskają wysoką renomę na rynku edukacyjnym i będę pomocne w karierze naukowej i zawodowej.

Szymon Chrupczalski
Olgierd Sroczyński

Tegoroczne Letnie Seminarium Austriackie wspierał Raiffeisen Leasing Polska. Dziękujemy!

  • google
  • youtube
Zapisz się na newsletter:

Wybierz listę(y):

Cytat:
  • Najpewniej nie jest przesadą rzec, że każdy znaczący postęp w teorii ekonomii ostatnich stu lat był kolejnym krokiem konsekwentnego stosowania subiektywizmu. Friedrich von Hayek
Mecenasi
Wspieraj Nas>>
W grudniu wsparli nas:
Pan Michał Basiński
Pan Marek Bernaciak
Pan Wojciech Bielecki
Pani Dominika Buczek
Pan Marcin Dabkus
Pan Michał Dębowski
Pan Dariusz Dziadkowski
Pan Piotr Furmanek
Pan Maciej Gorzelak
Pan Jarosław Grycz
Pan Adrian Grzemski
Pan Maciej Grzymkowski
Pan Michael Huemer
Pan Przemysław Hys
Pan Miłosz Janas
Pan Dawid Jary
Pan Łukasz Jasiński
Pan Dominik Jaskulski
Pan Paweł Jegor
Pan Tomasz Jetka
Pan Gustaw Jokiel
Pan Dominik Jureczko
Pan Paweł Jurewicz
Pan Jan Kłosiński
Pan Jan Kochman
Pan Mateusz Krzysztof
Pan Jacek Kubica
Pan Mikołaj Kukla
Pan Stanisław Kwiatkowski
Pan Tomasz Malinowski
Pan Miłosz Mazurkiewicz
Pani Magdalena Moroń
Pan Marcin Moroń
Pan Piotr Musielak
Pan Maksym Mydłowski
Pan Tomasz Netczuk
Pan Filip Nowicki
Pani Karolina Olszańska
Pan Zbigniew Ostrowski
Pan Rafał Parol
Pan Krzysztof Patyna
Pan Mikołaj Pisarski
Pani Agnieszka Płonka
Pan Paweł Pokrywka
Pan Adam Skrodzki
Pan Michał Sobczak
Pan Radosław Sobieś
Pan Piotr Sowiński
Pan Łukasz Szostak
Pan Franciszek Szterleja
Pan Tomasz Szumski
Pan Michał Szymanek
Pan Szymon Truszczyński
Pan Jan Tyszkiewicz
Pani Anna Wajs
Pan Adam Wasielewski
Pan Waldemar Wilczyński
Pan Jakub Wołoszyn
Pan Karol Zdybel
Pan Marek Zemsta
Pan Maciej Zieliński
Łącznie otrzymaliśmy 9 726,78 zł . Dziękujemy wszystkim Darczyńcom!
Znajdź się na liście>>
Lista mecenasów>>