Powrót
Teksty

Czyżniewski: Obserwacje w naukach ekonomicznych – zagadnienia wybrane. Oskar Morgenstern, szkoła austriacka i nauki techniczne

0
Mateusz Czyżniewski
Przeczytanie zajmie 48 min
Czyżniewski_Obserwacje-w-naukach-ekonomicznych-–-zagadnienia-wybrane.-Oskar-Morgenstern-szkoła-austriacka-i-nauki-techniczne.jpg
Pobierz w wersji
PDF

Autor: Mateusz Czyżniewski
Wersja PDF

Niniejszy tekst opracowano na podstawie wybranych zagadnień merytorycznych, które przedstawione zostały podczas referatu pt.: „Obserwacje w naukach ekonomicznych: ASE, Morgenstern i nauki techniczne”, wygłoszonego w Krakowie, w dniu 24.11.2022.

Część I: Wstęp

Zagadnienie dokładności danych ekonomicznych jest niezwykle pojemnym i różnorodnym polem problemowym dla całej ekonomii – tak pod względem teoretycznym, jak i praktycznym. Zasadniczo, w gospodarce rynkowej dane ekonomiczne wykorzystuje każdy człowiek – bez względu na swoje cele oraz motywacje. Informacje te dotyczą wielu różnych aspektów jej funkcjonowania, począwszy od indywidualnych preferencji, poprzez parametry działania zakładów produkcyjnych, kończąc na statystykach makroekonomicznych. Jest to na pierwszy rzut oka trywialne spostrzeżenie, lecz po krótkim zastanowieniu się można dość do wniosku, że zachodzi tu szereg problemów oraz nieścisłości. Ilość informacji, sposób ich zapisu, niejednoznaczność, temporalna aktualność czy instytucjonalna dostępność ma istotny wpływ na to, jak działają interpretujący je ludzie w różnym wymiarze czasowym i instytucjonalnym. Na przykład dla historyka gospodarczego jakość danych gospodarczych ma ogromne znaczenie, ponieważ fałszywe informacje, celowe przekłamania czy też wiara w zafałszowane dane może doprowadzić go do błędnych interpretacji przeszłych zdarzeń. Z innego punktu widzenia, dla decydenta dokładność danych jest ważna, ponieważ opiera on swoje decyzje o daleko idących konsekwencjach dla całej gospodarki, które mogą być chwilowo niekompletne bądź nieprecyzyjne.

Niemniej jednak rozwój naukowy dotyczący ekonomii jako nauki teoretycznej oraz widoczny postęp nauk pokrewnych takich jak ekonometria, logistyka, statystyka czy rachunkowość ujawnił szereg zagadnień – pól problemowych, nad którymi należy się pochylić. Do celów zobrazowania doniosłości oraz rozległości tej problematyki można przywołać następujące przykłady zastosowań zbierania oraz przetwarzania danych w ekonomii:

1. estymacja pewnych wielkości oparta o filtrację, wygładzanie czy predykcję w celu poprawy jakości danych,

2. testowanie hipotez statystycznych w celu wyszukiwania pewnych trendów (Schweppe 1978 [1973], s. 263–293),

3. Ustalanie tzw. twardych praw ekonomii, bazując na danych empirycznych,

4. realizowanie polityki monetarnej czy fiskalnej za pomocą odpowiednich instytucji państwowych dysponującymi możliwościami manipulacji pieniądzem (Begg i inni 2014),

5. analiza rynku, rozpoznawanie preferencji konsumentów, szacowanie konkurencyjności usług/produktów,

6. potrzeba historycznego ujęcia danych uzyskanych z badania rynku,7. narzędzia do koordynacji i planowania procesów produkcyjnych,

8. wspomaganie decyzji produkcyjnych czy konsumenckich bazujące na wiedzy eksperckiej oraz uprzednim doświadczeniu (Wierzbicki 2014).

Pomimo faktu że wymienione wyżej pola problemowe nie muszą być ze sobą koherentnie związane, zrozumienie ich istotności dla życia gospodarczego oraz szeregu problemów natury praktycznej i teoretycznej jest sprawą fundamentalną.

Główną inspiracją autora niniejszego tekstu do opracowania przywołanych w tytule zagadnień była wydana w 1950 roku książka niemieckiego ekonomisty i matematyka Oscara Morgensterna pt.: On the Accuracy of Economic Observations (Morgenstern, 1950). Były doktorant samego Ludwiga von Misesa przedstawia w swojej książce liczne argumenty teoretyczne oraz opracowania praktycznych problemów statystycznych, których celem jest wskazanie istotnych problemów, jakie mogą pojawiać się w pomiarach oraz analizie danych ekonomicznych.

Co interesujące, Morgenstern pomimo faktu bycia prominentnym matematykiem, którego prace odcisnęły ogromny wpływ na XX–wieczną naukę, opracował szereg prac ekonomicznych (Kelly 2009). Prace te, powstałe tak i w języku niemieckim, jak i angielskim, związane z analizą danych, statystyką gospodarczą, problemami makroekonomicznymi czy zagadnieniami kalkulacji ekonomicznej, są silnie nacechowane duchem klasycznej szkoły austriackiej. Stąd powołanie się na prace wspomnianego naukowca oraz przedyskutowanie partykularnych zagadnień w odniesieniu do wybranych pól problemowych należy uznać za właściwy kierunek analiz. Szczególnie interesującym może być porównanie – skontrastowanie tez Morgensterna z kanonicznymi stanowiskami szkoły austriackiej oraz problemami poruszanymi w naukach ścisłych, gdzie niejednokrotnie dane narzędzia czy metodologia jest adaptowana przez ekonomię głównego nurtu. Zatem, niniejszy tekst skupia się na następujących zagadnieniach:

  • zreferowanie i omówienie wybranych tez Morgensterna przedstawionych w książce On the Accuracy of Economic Observations,
  • wprowadzenie i przedyskutowanie tez wypracowanych na gruncie szkoły austriackiej, które dobrze uzupełniają i poszerzają argumenty wspomnianego ekonomisty,
  • dokonanie porównania między metodami pomiaru/estymacji w naukach ścisłych a naukach ekonomicznych.
  • przedstawienie argumentów – bazujących na poprzednich punktach – mających na celu przedstawienie szeregu problemów ze stosowaniem narzędzi nauk ścisłych w ekonomii,
  • przedstawienie kilku przykładowych krytyk autorstwa przedstawicieli szkoły austriackiej, skierowanych w stronę tez wspierających stosowanie metod matematycznych przez tzw. główny nurt.

Struktura niniejszego referatu dana jest w następujący sposób. Część druga przedstawia wybrane twierdzenia Morgensterna, które opracowano na bazie jego książki (Morgenstern, 1950) oraz artykułu autorstwa Phillipa Bagusa (Bagus, 2011). Trzecia sekcja odnosi się do wybranych zagadnień merytorycznych wypracowanych na gruncie szkoły austriackiej, które należy traktować jako komplementarne w stosunku do argumentów Morgensterna. Zagadnienia pomiarów oraz estymacji w zastosowaniu do nauk ścisłych i ekonomii omówiono w części czwartej. W sekcji piątej powrócono do zagadnień związanych ze szkołą austriacką, gdzie przedstawiono trzy przykładowe polemiki ze stanowiskami wypracowanymi na gruncie tzw. głównego nurtu. Krótka dyskusja na temat tego, czy możliwe jest dokonanie syntezy stanowisk szkoły austriackiej wraz z fundamentalnymi spostrzeżeniami wyprowadzonymi z metodologii nauk ścisłych na rzecz negatywnej oceny zmatematyzowanego ujęcia ekonomii, została przedstawiona w sekcji szóstej. Tekst został podsumowany w sekcji siódmej.

Część II: Wybrane tezy Oscara Morgensterna dotyczące pomiarów w ekonomii

Sam Morgenstern twierdzi na początku swojej książki, że nie ma sensu zajmować się informacjami ekonomicznymi, które nie są przedstawione w formie statystycznej czy liczbowej. Ma on tu na myśli dane opisowe, historyczne, opisane w pewnym sensie w naturze (Bagus, 2011, s. 2). Jego zdaniem, wszystkie te źródła informacji są istotne i cechują się związkami z występowaniem różnych rodzajów niepewności, dla których koniecznym byłoby opracowanie pewnego zakresu ufności, gdyby tylko przyczyny i zakresy błędów były znane (Morgenstern, 1950, s. 3). Nie deprecjonuje on jednak faktu, że wiedza nieprzedstawiona w formie zmatematyzowanej jest w jakiś sposób nierelewantna[1], lecz jego celem jest ukazanie problemów oraz nieścisłości na gruncie stosowania statystyki oraz metod matematycznych w teorii ekonomii oraz praktyce ekonomizowania.

Na początku swoich rozważań, Morgenstern podkreśla fakt, jak istotna różnica zachodzi pomiędzy tzw. surowymi danymi a odpowiednio przetwarzanymi informacjami ekonomicznymi:

Najważniejszą rzeczą jest zrozumienie, że istnieje fundamentalna różnica (w dziedzinie ekonomii) pomiędzy zwykłymi danymi a obserwacjami. Te ostatnie są oczywiście również danymi, ale są przy okazji czymś więcej. Są one odpowiednio wyselekcjonowane i przetworzone. Przypuszczalnie powstają z zaplanowanej uprzednio obserwacji, kierowanej przez adekwatną teorię, która jednak nie musi być koniecznie związana z kontrolowanymi eksperymentami. [...] Sama teoria nigdy nie opiera się wyłącznie na zwykłych danych w powyższym sensie, tj. na zaledwie uzyskanych informacjach na temat rzeczy w dużej mierze nieznanej, ale prawdopodobnie związanej z niezwykle szerokim marginesem  błędu. [...] Teoria jest ponadto stale opracowywana a dane są jedynie zbierane i gromadzone, nawet jeśli wiąże się to zawsze z planowaniem administracyjnym. Lecz teoria ekonomiczna jest jednak w bardzo dużym stopniu związana z danymi, takimi jak osobiste doświadczenie. Jest to zupełnie odmienne od obserwacji astronomicznych czy tworzeniu teorii w naukach ścisłych. (Morgenstern 1950, s. 7)

Następnie, Morgenstern zarysowuje wątek tego, jak dane ekonomiczne wiążą się z rozważaniami teoretycznymi oraz tym, jak ich przetwarzanie wpływa na potencjalną zdolność do bycia bezpośrednio użytecznymi. W tym aspekcie, wskazuje on szereg problemów. Jednym z nich jest brak zaprojektowanych z góry badań (Bagus 2011, s. 7; Morgenstern 1950, s. 13–17). Obserwacje nie są generowane przez użytkownika eksperymentu, tak jak w naukach przyrodniczych, lecz dane statystyczne są po prostu produktem działalności przedsiębiorstw czy rządu, który ujmuje uprzednie zdarzenia historyczne bez większego wpływu na nie. Ze strony przedsiębiorstw może całkowicie brakować motywacji do dostarczania dokładnych informacji na potrzeby statystyk rządowych czy innych wskaźników gospodarczych, ponieważ wymagałoby to kosztownego i uciążliwego procesu mogącego znacząco wpłynąć na działalność produkcyjną czy komercyjną firm. Ujmując to słowami niemieckiego ekonomisty:

Istotna różnica między wykorzystaniem danych w naukach przyrodniczych a społecznych polega na tym, że w tych pierwszych producent obserwacji jest zazwyczaj także ich użytkownikiem. Jeśli sam nie wykorzystuje ich w pełni, to są one przekazywane innym, którzy w tradycji nauk ścisłych są dokładnie informowani o pochodzeniu i sposobie przetwarzania tych danych. [...] Również jakość pracy obserwatorów jest dobrze znana, co przyczynia się do ustalenia poziomu precyzji, pociągając za tym wzrost zaufania do zebranych informacji. W naukach przyrodniczych nawet teoretycy zajmujący się najbardziej abstrakcyjnymi zagadnieniami są bardzo dobrze poinformowani o dokładnej naturze, okolicznościach i ograniczeniach eksperymentów czy pomiarów (Morgenstern, 1950, s. 14).

Innym potencjalnym źródłem błędów jest brak odpowiedniego przeszkolenia osób obserwujących dane ekonomiczne (Bagus, 2011, s. 9; Morgenstern, 1950, s. 17–35). Gdy w naukach fizycznych obserwatorami są naukowcy przeprowadzający eksperyment, obserwatorzy czy interpretatorzy danych ekonomicznych często nie są w ogóle przeszkoleni w adekwatny sposób. Brak odpowiedniego wyedukowania może prowadzić do błędów w zbieraniu danych czy ich niewłaściwej interpretacji.

[...] W naukach społecznych sytuacja jest zupełnie inna. Często nie jest możliwe poznanie szczegółowego charakteru danych. [...] nie ma jeszcze w pełni ugruntowanej tradycji, by użytkownicy domagali się pełnej informacji o wszystkich etapach zbierania i obliczania danych statystycznych. Każdy, kto korzystał ze statystyk ekonomicznych, nawet przygotowanych przez najlepsze instytucje statystyki gospodarczej, wie, jak niezmiernie trudno jest odtworzyć warunki, w jakich były one gromadzone [...]. (Morgenstern, 1950, s. 15)

Istnieje również problem powiązany z powyższym zagadnieniem który jest nieobecny w naukach technicznych oraz przyrodniczych, a mianowicie możliwość ukrywania istotnych informacji lub dokonywanie jawnego kłamstwa w komunikacji treści danych (Bagus, 2011, s. 7–8)[2]. Firmy mają silną motywację do ukrywania informacji lub kłamania w celu wprowadzenia w błąd swoich konkurentów, co do strategii przedsiębiorczej lub pozycji rynkowej. Czasami firmy manipulują zyskami, aby wypłacić mniejszą dywidendę akcjonariuszom. Osoby fizyczne i przedsiębiorstwa mają również motywację do wprowadzania w błąd organów podatkowych czy rządu w celu uzyskania dotacji lub uniknięcia opodatkowania (Morgenstern, 1950, s. 17–27).

Unikalność zdarzeń gospodarczych ma również wpływ na dokładność obserwowanych danych. Co ważniejsze, w przeciwieństwie do badań dokonywanych w ramach nauk przyrodniczych, obserwacje ekonomiczne są unikalne i nie mogą być powtarzane w analogiczny sposób (Bagus, 2011, s. 9–10). W przypadku obserwacji ekonomicznych mamy do czynienia z procesami, które zmieniają się w różnych skalach czasu i na różnym jego horyzoncie. Oznacza to, że to samo zdarzenie może być obserwowane przez kilku niezależnych badaczy działających w różnych miejscach lub punktach czasu. Prowadzić to może do rozbieżności w treści zebranych danych czy ich finalnej interpretacji. Element temporalny jest kolejnym potencjalnym źródłem błędu, ponieważ przeprowadzenie pewnych rodzajów badań statystycznych wymaga długiego czasu, natomiast wówczas obserwowane zjawisko może ulec zmianie, tak fundamentalnej, że brak synchronizacji czasowej całkowicie fałszuje dane.

Podsumowując, widzimy, że istnieją trzy główne źródła fałszywej reprezentacji danych ekonomicznych. Po pierwsze, obserwator dokonując wyboru, co i jak długo obserwować, wprowadza element stronniczości, której nie sposób uniknąć. Jest tak, ponieważ złożonego zjawiska ekonomicznego nigdy nie da się opisać w skończony sposób. Po drugie, obserwator może celowo ukryć informacje lub sfałszować swoje ustalenia, aby pasowały one do jego hipotez badawczych lub mogły być wykorzystane do realizacji celów politycznych. Zdarza się to w pismach historycznych, a nawet w naukach fizycznych w pewnych wyjątkowych przypadkach oszustwa. Jednak dzieje to częściej, gdy statystyki ekonomiczne i społeczne są używane lub nadużywane w rękach pozbawionych skrupułów osób lub instytucji. Po trzecie, obserwowany może celowo okłamać badacza. Jest to zasadnicza różnica pomiędzy obserwacjami społecznymi a fizycznymi (Morgenstern, 1950, s. 26).

Jedynym punktem, w którym zdaniem Morgensterna nauki przyrodnicze są w gorszej sytuacji w stosunku do nauk społecznych, są błędy wynikające z użycia czujników/urządzeń pomiarowych (Bagus, 2011, s. 10–11, Morgenstern 1950, s. 39–48, 117–130). Dzieje się tak, ponieważ statystycy ekonomiczni często nie korzystają z różnego rodzaju sensorów czy mechanizmów przetwarzania danych. Na przykład ekonomiści nie muszą mierzyć ceny za pomocą czujnika, ale mogą po prostu obserwować pewną cenę płaconą na rynku. W skutek tego mają oni jej wartość liczbową na „wyciągnięcie ręki” – bez konieczności realizacji złożonego przetwarzania danych. Jednakże, używając maszyn do pomiaru, przedstawiciele nauk przyrodniczych i ścisłych przynajmniej otrzymują swoje dane w dokładnie określonym czasie i w bardziej wiarygodnej formie. Pomiary oraz ich analiza w naukach ścisłych odnoszą się wprost do pewnych precyzyjnie wyznaczonych miar, które mają odpowiednie jednostki, czy są jasno rozpoznawalne i klasyfikowane względem adekwatnej teorii. Informacje dotyczące tych zagadnień – tak w wymiarze teoretycznym, jak i praktycznym – można łatwo komunikować w sposób obiektywny. Mamy tu styczność z problemem, w którym gdy człowiek zdobędzie odpowiednią wiedzę, jest w stanie zrozumieć przyczynowe zależności pomiędzy zjawiskami. Posiadając odpowiedni poziom wiedzy, człowiek ten może następnie wykorzystać dane w celu monitorowania, przewidywania a nawet kontrolowania danych procesów. Zdaniem Morgensterna, takie zabiegi nie są możliwe w odniesieniu do nauk ekonomicznych:

Nasze intuicyjne wysiłki mogą być lepiej skoncentrowane na obszarach, które wciąż pozostają niedostępne dla pomiarów. Trzeba też przypomnieć, że pomiar jest wynikiem teorii, lecz ponadto opiera się na czymś intuicyjnie danym. W naukach przyrodniczych, zawsze bardzo trudno było dojść do konkretnych liczb reprezentujących dane zjawisko fizyczne. Precyzyjne zmierzenie temperatury było wielkim osiągnięciem technicznym, chociaż każdy ma natychmiastową wiedzę, kiedy jedno ciało jest cieplejsze od drugiego. W ekonomii sytuacja jest pod wieloma względami znacznie prostsza. Tutaj możemy zacząć od wielu liczb, które generują różne procesy gospodarcze. Mamy już stopy procentowe, ceny, ilości produkowane, sprzedawane, kupowane itd. itp. Nie jest konieczne, aby najpierw przekształcić je w statystyki liczbowe. Nie są one doskonałe jak i nie są pozbawione błędów. Mimo że należy je modyfikować i wyostrzać, stanowią o wiele łatwiejszy start dla rozwijającej się nauki niż jakościowe zjawiska przyrody, które krok po kroku trzeba było uczynić numerycznymi, co jest procesem nigdy do końca niezakończonym [...]. (Morgenstern, 1950, s. 123)

W przypadku nauk społecznych mamy ten problem, że człowiek z natury jest istotą świadomą i racjonalną, a jego działań nie można interpretować jakkolwiek w aspekcie czysto fizycznym, pomijając fundamenty o charakterze teleologicznym. Nawet jeśli mamy organoleptycznie dostępność do fizycznych zachowań pobudzonych intencjonalnymi, introspekcyjnymi aktami wyboru, fundamentem ludzkiego działania są aspekty intelektualne, związane z ideami i wartościami (Mises, 2011 [1957], s. XIX – XXVIII, 3–7, 41–47, 49–55, 100–102, 155–161; Mises, 1962, s. 11–27, 53 – 75, Mises, 2011 [1949], s. 9–60, 78–101). Dokonując swoich działań, człowiek musi opierać się na określonych metodach oraz procedurach stosowania środków do realizacji danych celów.

W kontekście określonych dóbr – czy to produkcyjnych, czy konsumpcyjnych, niezbędne jest dokonywanie odpowiednich klasyfikacji oraz kategoryzacji. W kontekście wątku pomiarów ekonomicznych, które szeroko komentuje Morgenstern, zwraca się uwagę na fakt tego, że tak jak codzienne działania ludzi, tak i skoordynowana oraz zaplanowana praca w np. firmach czy organizacjach musi być oparta o pewne narzędzia. Odwołując się do problematyki klasyfikacji zjawisk w naukach fizycznych, uczeń Misesa tak komentuje dystynkcje pomiędzy działem nauk ekonomicznych oraz nauk przyrodniczo – technicznych:

Często brak jest definicji lub klasyfikacji zjawiska, które ma być mierzone lub rejestrowane. Ponadto istnieje trudność w prawidłowym zastosowaniu nawet teoretycznie bezbłędnego systemu klasyfikacji. Dana charakterystyka sektora przemysłu lub po prostu ceny rynkowej jest mniej ugruntowana niż charakterystyka procesu pomiaru np. długości fali. Prawie wszystko obraca się wokół kwestii klasyfikacji. Jest to dobrze znana trudność i wiele wysiłku skierowano na opracowanie jednolitych miar agregacji i ewaluacji, na przykład kategorii poziomu zatrudnienia czy zasobu towarów. [...] Istnieją jednak dziedziny, w których zrobiono bardzo niewiele i gdzie głębokie problemy teoretyczne czekają na rozwiązanie, zanim klasyfikacja będzie mogła zostać znacząco ulepszona. [...] (Morgenstern, 1950, s. 35)

Oprócz problemów związanych z agregacją, klasyfikacją i grupowaniem towarów, statystyka cen napotyka na dodatkowe trudności (Bagus, 2011, s. 13–15). W rzeczywistości określone dobro występujące na rynku może mieć wiele cen. Cena zmienia się, gdy towar jest sprzedawany w różnych jednostkach fizycznych, w różnym czasie i okolicznościach. Z tej nieskończonej liczby możliwych cen tylko niektóre się urzeczywistniają. Źródła zmian cen wynikają z działalności gospodarczej firm, stowarzyszeń handlowych, czasopism branżowych, związków zawodowych i instytucji rządowych. W związku z tym – patrząc od drugiej strony – jeden produkt może mieć kilka cen ujętych w statystykach księgowych. Którą cenę należy wybrać i co z nieskończoną liczbą cen, które nie są dostępne pomiarom? Co istotne, istnieją również niepieniężne składniki ceny, na przykład jakość obsługi przed, w trakcie i po sprzedaży, która może się między sobą różnić. Nie są one jednak brane pod uwagę przy mierzeniu jedynie ceny pieniężnej (Morgenstern, 1950, s. 68–69).

Zasadniczo, odnosząc się do twierdzeń Morgensterna, bazując na wiedzy z dokonań szkoły austriackiej, możliwym jest wymienienie szeregu czynników, które mogą wpływać na zmiany cen relatywnych, zagregowanych wskaźników cenowych czy być partykularnymi metodami ich wyznaczania:

  • traktowanie danych towarów jako identyczne (homogeniczne) dobra ekonomiczne (Mises 2007 [1949], s. 286–291, 427–430),
  • różne ceny różnych dóbr – fizycznie te same dobra mogą mieć tą samą cenę rynkową,
  • analiza statystyczna cen w danych sektorach gospodarki, poprzedzona agregacją i klasyfikacją może odbywać się w różnych sekwencjach przyczynowych,
  • obliczanie indeksów cenowych na podstawie odgórnej homogenizacji w gospodarce pieniężnej (rynkowej) zaciera aspekt heterogeniczności zasobów realnych oraz strumieni pieniężnych (Begg i inni 2014, s. 24–42, 193–208).
  • zbieranie danych w różnym okresie i z różną częstotliwością wpływa na jakość zbiorów danych oraz modeli na nich opartych,
  • oddziaływania między sektorowe o różnym charakterze – jak i w obrębie jednego państwa jak i na rynku międzynarodowym mogą być zmienne w czasie, co może zdezaktualizować dany model ekonomiczny,
  • wpływ popytu i podaży na dobra oraz na pieniądz w wymiarze poziomym (bezczasowym),
  • Alokacja między czasowa pieniądza – preferencja czasowa i struktura produkcji (Mises 2007 [1949], s. 408–420, 445–463; Rothbard 2017 [1962], s. 263–364),
  • popyt rezerwowy na pieniądz, istnienie zasobów tworzących fundusz utrzymania, które odróżniają popyt transakcyjny na pieniądz oraz chwilowy zasób dóbr na rynku (Mises 2007 [1949], s. 356–368, 420–427, 442–445; Rothbard 2017 [1962], s. 199–262).

W oryginalnym wydaniu książki poruszane są wątki odnoszące się do badań dotyczących zatrudnienia, danych sektora rolniczego czy wydobywczego bądź informacje o wolumenie handlu zagranicznego. Nie mniej jednak to zagadnienia dotyczące statystyki dochodu narodowego zostały przez Morgensterna najszerzej omówione. Statystyki dochodu narodowego są powszechnie uważane za istotne dla bieżącej oraz przyszłej analizy ekonomicznej (Bagus 2011, s. 13–14, Morgenstern 1950, s. 242–282). Mają one rzekomo odzwierciedlać sukcesy rządu czy pokazywać przewagę danego państwa nad innymi. Ponadto określone instytucje gospodarcze wykorzystują te miary do wyznaczania parametrów modeli ekonometrycznych, niezbędnych do dokonywania ewaluacji polityki gospodarczej oraz predykcji przyszłego stanu rynku. W odniesieniu do tej problematyki, niemiecki ekonomista podaje szereg argumentów, których aktualność widać po dziś dzień.

Statystyki dochodu narodowego nie biorą pod uwagę aktów konsumpcji, które odbywają się przy użyciu środków trwałych. Korzystanie z czasu wolnego, angażowanie się w akty produkcji dóbr, które dostarczają dużo usług na długim horyzoncie czasu, jest kłopotliwe dla tego typu statystyk. Ponadto metody te całkowicie pomijają np. produkcję żywności przez rolnika na własne potrzeby czy pracę o specjalistycznym charakterze realizowaną jednie na swoje potrzeby. Podobny problem powstaje, gdy pomoc domową, która wiąże się z płatnościami pieniężnymi, zastępuje się pracą np. gospodyń domowych. Zmiany w ilości i jakości czasu wolnego, a także w ilości i jakości dobrowolnej pracy nie wynagradzanej pieniężnie (np. innej niż gospodyń domowych) generują problemy tego samego rodzaju. Wskaźnik ten nie bierze pod uwagę wymian quasi barterowych, które mają charakter wymiany: usługa za usługę, czy działań związanych z relacjami rodzinnymi czy przyjacielskimi (Morgenstern 1950, s. 245 – 246).

Drugi problem w obliczaniu statystyk dochodu narodowego wynika z problematyki traktowania usług rządowych jako równoznacznych działaniom rynkowym (Morgenstern 1950, s. 247). Nie są one sprzedawane na wolnym rynku, gdzie panuje konkurencja. Jak zatem powinniśmy je rozliczać w dochodzie narodowym? Powszechną praktyką jest rozliczanie ich z kosztami czynników produkcji. Jednak wydaje się to całkowicie arbitralne. Pieniężny koszt usługi nie jest ważny jako miara produkcji bogactwa. Ważne jest raczej to, za co ludzie są skłonni zapłacić na wolnym rynku. Można by nawet postawić tezę, że wydatki rządowe powinny być zamiast tego odjęte od dochodu narodowego, ponieważ rząd wycofuje zasoby z produktywnego sektora prywatnego i wykorzystuje je do swoich celów o charakterze politycznym.

Główny problem w przejściu od produktu narodowego brutto do dochodu narodowego stwarzają tzw. odpisy amortyzacyjne (Morgenstern 1950, s. 248). Szacunków wolumenu amortyzacji dokonują same korporacje, kierując się raczej nierealistycznymi założeniami leżącymi u podstaw ustaw podatkowych oraz własnymi, często niewłaściwymi miarami ekonomicznym (np. opartymi o brak zrozumienia procesu inflacji monetarnej). Kolejnym problemem jest wpływ zmian cen na zyski i szacunki dotyczące amortyzacji per se. Inną główną trudnością koncepcyjną, która prowadzi do problemów w dokonywaniu rzeczywistych szacunków, jest wycena usług świadczonych przez pośredników finansowych i wynikających z tego procesu odsetek kalkulacyjnych. Listę potencjalnych problemów można by znacznie wydłużyć. To, co zostało powiedziane, wystarczy jednak, aby pokazać, że różnice koncepcyjne w formułowaniu danych metod statystycznych, utrzymywane przez badaczy w różnych okresach oraz w różnych miejscach będą miały decydujący wpływ na te statystyki w finalnym wymiarze.

Część III: Morgenstern i ekonomiści austriaccy – komplementarność oraz paralele

W celu uwypuklenia oraz uzupełnienia twierdzeń Morgensterna przedstawionych w poprzedniej części referatu, wartym uwagi jest odwołanie się do czterech zagadnień, które zdaniem autora, dobrze oddają sens przeprowadzonej przez niemieckiego ekonomistę argumentacji. Przywołane zostaną rozważania czterech klasyków myśli austriackiej, których badania w adekwatny sposób wspierają kluczowe tezy Morgensterna.

Regularność a natura ludzkiego działania

Ważnym w kontekście zbierania informacji jest to, czy dane te będą opisywać pewne zdarzenia, które nie są jedynie rejestracją przeszłości, lecz miałyby dostarczać wiedzy o ogólnych zjawiskach ujmowanych prawami. Człowiek chcąc działać, musi zdawać sobie sprawę z faktu istnienia obiektywnej rzeczywistości, która jest ścisłym ograniczeniem dla jego działań. Aby istniała zdolność do uchwytywania zależności spośród aktów doświadczeń, człowiek musi mieć zdolność do kategoryzowania zmieniającego się świata za pomocą konkretnych, deterministycznych praw. Niemniej jednak, aby do tego doszło, rzeczywistość i zjawiska w niej zagnieżdżone muszą być w pewien sposób regularne i powtarzalne. Ponadto człowiek musi wiązać swoje działanie z rzeczywistością, stąd koniecznym jest posiadanie nie tylko motywacji – wyobrażonego stanu przyszłości, ale również konieczny jest pewien pogląd na ograniczające go zjawiska przyrody czy działania innych ludzi (Mises, 1962, s. 4–8, 14–27, 50–51). W celu podkreślenia istoty tej argumentacji warto zacytować samego Misesa:

Żadne rozumowanie czy inne działanie nie byłoby możliwe do zrealizowania w sytuacji, gdy rzeczywistość byłaby chaotyczna, tj. gdyby nie istniały pewne regularności w następowaniu po sobie zjawisk. W świecie, w którym zdarzenia byłyby powodowane przez niezliczone i nieorganiczne związki przyczynowe, nic nie można by było wychwycić, lecz istniałaby jedynie nieustająca, kalejdyczna struktura rzeczywistości. Niedopuszczalne byłoby wnioskowanie z przeszłych zdarzeń o tym, co może wydarzyć się w przyszłości. Wszystkie doświadczenia zebrane przez ludzi można by było traktować jedynie jako niepowiązane ze sobą, upływające akty historii. Człowiek nie byłby w stanie działać. Byłby tylko pasywnym obserwatorem, pozbawionym możliwości aranżowania przyszłości [...]. Gdyby nie powtarzające się regularności, niczego nie można by było się nauczyć na bazie przeszłych doświadczeń (Mises 1962, s. 19–21).

Gdyby nie pewne regularności, człowiek nie byłby w stanie izolować zjawisk oraz związanych z nimi zmian. Niczego nie można by było k oczekiwać ani prognozować, a człowiek nie byłby w stanie zaprojektować ani jednego działania czy przystąpić do jego realizacji. Zagadnienia te są istotne z uwagi na konieczność i chęć dokonywania pomiarów przez ludzi, które dotyczą zmian we wskaźnikach społecznych czy różnych danych gospodarczych. Z jednej strony empiryczne regularności są potrzebne do ujmowania pewnych zjawisk, tj. aktów jako czegoś w pewien sposób jednolitego i powtarzalnego, z drugiej strony ich kategoryzacja musi być dokonywana jedynie w obrębie pewnych fizycznych atrybutów, a nie aspektów związanych z użytecznością czy preferencjami. Fakt ten jasno przeczy klasycznej wykładni szkoły austriackiej, która – bazując na rozważaniach Misesa – wskazuje, że rozumienie czy też konceptualizacja zjawisk pozaludzkich musi odbywać się za pomocą zupełnie innych narzędzi i kategorii niż interpretacji oraz pojmowania teoretycznego celowych i intencjonalnych aktów działania. Mises w swoich dziełach niejednokrotnie wyjaśniał fakt tego, w jaki sposób możliwe jest właściwe postrzeganie oraz interpretacja zachowań ludzkich w stosunku do materialnych aktów przyrody. Wprowadził on jasne i klarowne rozróżnienie pomiędzy prakseologią jako nauką o logicznej strukturze ludzkiego działania a tymologią jako swego rodzaju psychologią stosowaną mającą na celu ucieleśniać wspomniane wysiłki (Mises 2011 [1957], s. 171–184, 197–210; Mises 1962, s. 42–52).

Wiedza w naukach społecznych

Ważne dokonania dotyczące aspektów związanych z typami wiedzy oraz jej charakterystycznymi cechami podjął Hayek w swoich esejach Ekonomia a wiedza (Hayek 2018a) oraz Fakty w naukach społecznych (Hayek 2018b). Hayek podkreśla tam, że w gospodarce naturalnie występuje pewna asymetria wiedzy, dane mają charakter czysto subiektywny, a istotna część informacji nie jest w ogóle ujawniana czy obiektywizowana między ludźmi. Nie każda informacja może być w danej chwili zdobyta przez dowolną osobę, szczególnie uwzględniając działania ludzi, którzy należą do instytucji mających duży wpływ na kształtowanie aktualnego stanu gospodarki. Tyczy to zarówno ludzi pracujących w wielkich korporacjach, ale też ludzi działających na rzecz agencji rządowych. W odniesieniu do badań Hayeka, Misesa i Polanyi’ego, profesor Huerta de Soto proponuje następującą klasyfikację:

Jakie są najważniejsze cechy informacji bądź wiedzy związanej z działalnością przedsiębiorczą? Przestudiujemy dokładnie sześć cech tej wiedzy: 1) jest ona praktyczna i subiektywna a nie naukowa; 2) jest to wiedza unikatowa; 3) jest to wiedza rozproszona w umysłach wszystkich ludzi; 4) zazwyczaj jest to wiedza niejawna, a zatem nie mogąca się w pełni zwerbalizować; 5) powstaje ona ex nihilo, w odniesieniu do preferencji ludzi i ich wizji; 6) jest to wiedza, która może być przekazywana za sprawą złożonych procesów społecznych. (Huerta de Soto, 2011 [1992], s. 26)

Wiedza, która jest istotna dla ludzkiego działania, ma głównie subiektywny charakter – nie jest to tylko ogólna wiedza naukowa dotycząca obiektywnych praw. Zdaniem Hayeka wiedza ta jest przydatna jedynie przez pewien czas i w odpowiednich kontekstach, które mają określony czas trwania, stąd można ją wykorzystywać jako wskazówkę w określonych warunkach i okolicznościach. Ten typ wiedzy odnosi się wprost do ludzkich opinii, wartościowań – dotyczy celów i środków, jakie człowiek obiera w danej chwili. Huerta De Soto łączy poglądy Misesa, Hayeka i Polanyi’ego, opisując dwa typy wiedzy (Huerta de Soto 2011 [1992], s. 27): 1) wiedzę rozproszoną, dynamiczną, niezwerbalizowaną dotyczącą konkretnych zdarzeń oraz 2) wiedzę scentralizowaną, statyczną, zwerbalizowaną, mającą charakter ogólny. Mylenie tych dwóch typów wiedzy w odniesieniu do kategorii jej aktualności, możliwości zdobycia, przyszłego wykorzystania, opisu oraz intersubiektywnej komunikacji jest jednym z fundamentalnych błędów w rozważaniach ekonomicznych omijających subiektywizm i indywidualizm metodologiczny. Jak wyjaśnia hiszpański ekonomista:

Wiedza praktyczna jest czymś unikatowym i rozproszonym. Oznacza to, że każdy działający podmiot dysponuje tylko pewnymi fragmentami informacji, która powstaje w społeczeństwie i jest w nim transmitowana. [...] Z tego powodu działania i przedsiębiorczość każdego człowieka mają ściśle osobisty i niepowtarzalny charakter. Dzieje się tak dlatego, że człowiek stawia sobie cele zgodne z indywidualną, niepowtarzalną wizją i wiedzą o świecie [...]. (Huerta de Soto, 2011 [1992], s. 28)

Zdaniem Huerty De Soto, wiedza subiektywna oraz dokonywanie względem niej odpowiednich działań jest fundamentem koordynacji gospodarczej, będącej podstawą funkcjonowania gospodarki rynkowej (Huerta de Soto 2011 [1992], s. 30–39). Powstawanie informacji w procesach działalności przedsiębiorczej każdego człowieka jest immanentnie związane z jej późniejszym przekazywaniem w ramach dalszych procesów rynkowych.

Wątek wiedzy w odniesieniu do pomiarów danych ekonomicznych można w jasny sposób powiązać, odwołując się do wspomnianych przez Morgensterna zagadnień dotyczących tego, jak różni obserwatorzy zbierają informacje w partykularnych okolicznościach czy odmiennych przedziałach czasu. Nie jest możliwe zebranie całkowitej wiedzy, która może się wyklarować w danych okolicznościach miejsca i czasu. Może to wynikać z faktu istnienia wiedzy społecznej, tj. ukrytej, subiektywnej i nie komunikowalnej, czyli tej rozumianej w duchu Hayeka, gdzie pewne fakty nie mogą być zobiektywizowane czy rozpoznane zanim staną się nieaktualne, bądź w ogóle nie mogą być rozpowszechnione. Ponadto może to wiązać się z faktem intencjonalnego manipulowania danymi, których ujawnienie, komunikacja czy dalsza interpretacja nie stanowiłaby problemu w bardziej dogodnych warunkach działania. Oprócz tego, fakt ograniczoności zdolności człowieka do mierzenia i przetwarzania danych związanych ze zjawiskami naturalnymi (które muszą być przez niego stosowane w odniesieniu do aktów ekonomizacji dóbr i usług) dodaje kolejnej trudności do niezwykle szerokiego pola problemowego dotyczącego wiedzy społecznej.

Ogólne zagadnienie realizacji pomiarów według Misesa i Hoppego

W kontekście problematyki zdolności dokonywania pomiarów w ogóle, czyli tego, jak człowiek je realizuje biorąc pod uwagę zdolności swojego aparatu poznawczego oraz stanu wiedzy na temat otaczającej go rzeczywistości, warto przytoczyć słowa Misesa oraz Hoppego.

Mises w The ultimate foundations of economic science oraz Teoria a historia polemizuje z pozytywistycznym postulatem konieczności wykorzystywania danych eksperymentalnych oraz metody indukcyjnej jako uniwersalnego i jednolitego narzędzia badawczego – adekwatnego tak dla nauk ścisłych, jak i społecznych (Mises 2011 [1957], s. 155–161; Mises 1962, s. 27–30, 39–42). Krytykując ten paradygmat „jednolitej nauki”, austriacki ekonomista odnosi się do zagadnienia generalnych zdolności człowieka do ujmowania oraz postrzegania danych zmysłowych jako takich. Opierając się na fakcie istnienia ludzkiej świadomości oraz logicznej racjonalności, Mises wyjaśnia, jak i dlaczego możliwe jest dokonywanie konkretnych pomiarów oraz eksperymentów w naukach przyrodniczych:

[...] Wnioski wyciągane z realizacji eksperymentów nie opierają się na akcie powtarzania tego samego w identycznym układzie w tym samym miejscu, lecz na założeniu, że to, co zdarzyło się w jednym przypadku, musi koniecznie zdarzyć się także we wszystkich innych przypadkach tego samego typu. Niemożliwe byłoby wywnioskowanie czegokolwiek, biorąc pod uwagę tylko jedną sytuację lub biorąc pod uwagę niezliczoną serię przypadków bez założenia, które implikuje aprioryczną kategorię regularności. Doświadczenie jest zawsze doświadczeniem zdarzeń przeszłych i nie mogłoby nas nauczyć niczego o dawnych zdarzeniach, gdyby kategoria regularności była tylko próżnym założeniem (Mises, 1962, s. 22).

W skutek tego, Austriak podaje jasne rozgraniczenie na to, dlaczego interpretacja pewnych danych historycznych powiązanych z uprzednią działalnością człowieka może być traktowana jako podstawa pewnej i solidnej metody naukowej, innej niż nauki o ludzkim działaniu.

Podobne wnioski przedstawia niemiecki ekonomista i filozof Hoppe. Kontynuując rozważania Misesa, odwołuje się on do problematyki epistemologicznych podstaw możliwości zbierania oraz interpretowania danych empirycznych przez człowieka. Porusza on też w powiązaniu z tymi zagadnieniami wątki związane z tym, co zostało wcześniej opisane w odniesieniu do rozważań Misesa, czyli celowości ludzkiego działania, zasady przyczynowości czy regularności zewnętrznego świata fizycznego.

Zdaniem Hoppego, człowiek działa zawsze w rzeczywistości o koherentnej i uporządkowanej strukturze przyczynowej, lecz jego działania można interpretować w fizycznych kategoriach, tylko i wyłącznie odnosząc się do opisu zewnętrznych, ucieleśnionych aktów działania w danych okolicznościach miejsca i czasu. Odziaływania między innymi bytami a ciałem człowieka opisane w dany sposób mogą być interpretowane jedynie w stosunku do celowych aspektów ludzkiego działania, gdzie interakcje między wspomnianymi elementami są zawsze dyktowane chęcią sfinalizowania danego działania. Zdaniem Hoppego odrzucenie wyjaśnienia przyczynowego albo teleologicznego przy pozostawieniu drugiej możliwości musiałoby doprowadzić do jawnej sprzeczności (Hoppe, 2011b, s. 301–303). Samo skupienie się na fizycznej, realnej stronie działania byłoby ucieczką od intencjonalnego i indywidualnego rozumienia działania człowieka, a porzucenie kategorii fizykalnych stanowiłoby zaprzeczenie idei działania człowieka w realnym świecie. Hoppe odnosi swoje rozważania do istnienia dwóch immanentnych w stosunku do zdolności poznawczych człowieka kategorii: zasady przyczynowości oraz zasady stałości. Jego zdaniem, gdyby nie to, że człowiek jest w stanie postrzegać rzeczywistość właśnie w ten sposób, nie byłby w stanie formułować jakichkolwiek obiektywnych praw natury, dokonywać pomiarów i aktów oceniania właściwości danych bytów/zjawisk. Przez to, brak tego typu zdolności uniemożliwiałby mu planować swoich działań i finalnie zrealizować danych planów. Hoppe w następujący sposób komentuje te zagadnienia:

[...] Idea przyczynowości – idea istnienia stałych, niezmiennych w czasie czynników wpływających na stan danego zdarzenia, pozwala rzutować przeszłe obserwacje dotyczące zależności wydarzeń na przyszłość – jest czymś [...] pozbawionych jakichkolwiek podstaw opartych o uprzednią obserwację. [...] należy rozumieć zasadę przyczynowości jako zawartą w naszym rozumieniu działania jako celowego wtrącenia się do świata obserwowanego, dokonywanego z zamiarem odwrócenia naturalnego toku zdarzeń w celu wytworzenia innego, preferowanego stanu rzeczy, a zatem zakłada pojęcie, że zdarzenia są ze sobą powiązane poprzez niezmienne w czasie przyczyny. [...] Tylko dzięki obiektywnemu istnieniu niezmiennych w czasie przyczyn samych w sobie można założyć, że kiedykolwiek można napotkać konkretne przypadki potwierdzenia lub zaprzeczenia danym obserwacjom, albo może istnieć działająca jednostka zdolna nauczyć się czegokolwiek z przyszłych doświadczeń poprzez klasyfikowanie swoich działań jako skutecznych i potwierdzających jakąś wcześniejszą wiedzę lub nieskutecznych i przeczących jej (Hoppe, 2011b, s. 301 – 302).

[...] Zasada stałości jest pewną kategorią działania, immanentną metodą. Nie doświadcza się jej empirycznie ani nie uczy w trakcie życia. Ustala się raczej, że zjawiska mają konkretne przyczyny, poprzez przestrzeganie pewnej procedury badawczej, przez odrzucenie z zasady dopuszczalności wszelkich wyjątków i gotowość do poradzenia sobie z nimi poprzez przedstawienie nowej hipotezy za każdym razem, gdy jest to konieczne. [...] Aby zagwarantować bezwarunkową słuszność zasady stałości, sam podmiot musi być zdolny do nauki. Musi wychodzić z punktu, że jest w stanie asymilować doświadczenie i zastępować stare koncepcje dotyczące zdarzeń empirycznych nowymi. (Hoppe, 2011c, s. 310–311)

Kolejnym polem problemowym poruszanym przez Hoppego jest to, czy tezy pozytywistycznej wersji empiryzmu związane z unifikacją metody naukowej mogą być weryfikowalne czy też falsyfikowalne na bazie swoich wewnętrznych założeń. Jego zdaniem, wewnętrzna sprzeczność fundamentów metodologicznych tego typu poglądów filozoficznych nie tylko może w łatwy sposób zostać wykorzystana w procesie kontrargumentacji, lecz być również istotną wskazówką w kontekście tego, jakie są podstawy dokonywania agregacji i interpretacji danych przez człowieka w ogóle:

[...] pojęcia obserwacji i pomiaru, które empiryzm musi wykorzystać stawiając tezy, których chce następnie bronić, same nie są zaczerpnięte z doświadczenia w takim sensie, jak pojęcia w rodzaju kurczaków, jajek, jabłek czy gruszek. Nie można obserwować kogoś, kto dokonuje obserwacji czy pomiaru. Trzeba raczej rozumieć najpierw, czym jest akt pomiaru bądź obserwacji, by być w stanie zinterpretować pewne obserwowalne zjawiska jako wydzielony akt dokonywania pomiaru. [...] (Hoppe, 2011b, s. 284)

Pomiar musi stricte odnosić się do ustalonej z góry miary, standardu będącego pewnym wyidealizowanym, wyizolowanym konstruktem (Hoppe, 2011b, s. 300). Bez ustalonych zasad dokonywania zbierania danych nie powstałaby jakakolwiek metodologia badawcza, mówiąca czy dane analizy empiryczne są prawdziwe czy też nie. Standard ten określa normy, jak dokonywać aktu pomiaru, jakich narzędzi użyć oraz jak interpretować uzyskane wyniki. Normy te muszą odnosić się do stałych i odgórnych zasad opisujących zmiany właściwości ciał w czasie i przestrzeni.

Na potrzeby zastosowania wniosków bazujących na dyskusji dotyczącej tematu natury dokonywania pomiarów, Hoppe odnosi się do aspektów teorii pieniądza. Porusza on temat tego, jakie warunki musiałyby być spełnione, żeby pieniądz można traktować jako obiektywny wskaźnik wartości – jej kardynalną miarę (Hoppe, 2011a, s. 188–193). Formułuje on pytanie, jaka jest wartość w ujęciu subiektywnym tego miernika wartości, jeśli miałby on spełniać cechy urządzenia pomiarowego z jednej strony, a z drugiej być czymś, co stricte wyraża ludzkie akty wartościowania. Jak pieniądz (dla ustalenia uwagi jeden dolar) może mierzyć wartość tak, jak np. linijka z podziałką długość w kategoriach przestrzennych? Jeden dolar musiałby mieć trwale przypisaną jakąś liczbę związaną z wartością czy też użytecznością. Musiałoby się to wiązać z przypisywaniem każdej jednostce pieniężnej pewnej ilościowej miary analogicznie do metodologii stosowania instrumentów pomiarowych używanych w naukach technicznych. Miary użytecznościowe musiałyby być stałe, a metodologia ich aplikacji musiałaby być znana powszechnie oraz stricte przestrzegana. Nie istniałyby zatem elementy rynkowej wyceny siły nabywczej pieniądza oparte o popyt na salda gotówkowe oraz podaż jako całkowity zasób pieniądza w gospodarce.

PKB – problem z pomiarem i potencjalne alternatywy

Ekonomista austriacki Mark Skousen podejmuje się krytyki wykorzystania wskaźnika PKB. Wskazuje on, że PKB wyznacza się jedynie poprzez zbieranie informacji na temat finalnych dóbr oraz usług konsumpcyjnych, pomijając aspekty niejednorodności działania ludzi, upływu czasu czy – co istotne w kategoriach pieniężnych – wydatków na dobra wyższego rzędu (Skousen, 2011 [1990], s. 9–10).

Wedle jego argumentacji, wiele dzisiejszych wskaźników przypominających klasyczne PKB wykorzystuje zagregowaną strukturę produkcji bez podziału czasowego – zamiast różnorodnej struktury rozciągniętej w czasie o heterogenicznym charakterze mamy homogeniczny agregat (Begg i inni 2014, s. 415–416). Podejście to odnosi się jedynie do wyliczania tzw. wartości dodanej, która uchwytywana jest po akcie kupna dóbr konsumpcyjnych czy dóbr trwałych, a nie uwzględnia się nietrwałych dóbr kapitałowych czy półproduktów (Skousen, 2011 [1990], s. 224–230). Zyski uzyskane z kapitału stałego (długotrwałego) a nie cyrkulującego (krótkotrwałego) są uwzględniane tylko raz, gdy zostaną ujęte w pomiarze, lecz wpływ wydatków na dobra kapitałowe wymagające cyklicznego odtwarzania jest pominięty.

Zdaniem Skousena pomiar PKB ma za zadanie umiejętnie ominąć problem podwójnej księgowości, gdzie można by wykluczyć problem uwzględniania w księgach przepływów pieniężnych, które w stanie równowagi – po dokonaniu zbilansowania – pokrywałyby się (Skousen, 2011 [1990], s. 11–13, 228). Stąd wykorzystanie tego typu statystyk byłoby niepotrzebne. Rothbard i Skousen krytykują to podejście, gdyż ich zdaniem pomija to fakt tego, że producenci, dokonując działalności biznesowej, muszą brać pod uwagę swój potencjalny zysk oraz to, jak zmieniają się ceny czynników produkcji. Istotnym jest wykorzystywanie zysków brutto, czyli tych które pokryły wydatki produkcyjne. Sam dochód netto producentów jest jedynie niewielkim fragmentem zysków ekonomicznych i nie jest jedynym czynnikiem niezbędnym do utrzymaniu struktury produkcji (Rothbard, 2017 [1962], s. 417–423).

Dlatego jako alternatywę, Skousen konstruuje wskaźnik WKB, czyli wydatki krajowe brutto będące sumą PKP oraz wydatków o charakterze produkcyjnym[3]. Obejmuje on nie tylko to, co uzyskuje się netto jako wartość dodaną na końcu procesu dojrzewania dóbr i usług, lecz obejmuje całościowe wydatki brutto dzielone względem sektorów produkcyjnych, ich terminowości oraz charakteru. Według Skousena WKB pokazuje, że wydatki biznesowe są znacznie większe niż wydatki konsumpcyjne w gospodarce i mają tendencję do bycia bardziej zmiennymi niż PKB. Wcześniejsze etapy i pośrednie nakłady w WKB mogą być również pomocne w prognozowaniu kierunku wzrostu gospodarczego.

Część IV: Pomiary i estymacja – ekonomia vs nauki ścisłe

Jednym z fundamentalnych zagadnień natury technicznej związanej z naukami technicznymi oraz przyrodniczymi jest konieczność zbierania oraz interpretowania danych pomiarowych. Człowiek jako istota, z jednej strony wyposażona w niezwykle uniwersalny, trwały oraz sprawny układ narządów zmysłów nie jest w stanie dostrzegać, a następnie przetwarzać partykularnych bodźców fizycznych związanych z danymi zjawiskami. Stąd, chcąc osiągać cele zbierania oraz przetwarzania informacji, koniecznym jest opracowywanie odpowiednich urządzeń/systemów pomiarowych, pozwalających na głębsze i bardziej złożone interakcje z naturą.

Wszelkie pomiary fizyczne ze swojej natury muszą być realizowane ze skończoną, z góry określoną dokładnością. Zasadniczo, powody tego stanu można podzielić na dwie kategorie: niedoskonałe zaprojektowanie przyrządów pomiarowych i niepełna wiedza o ich fizycznym działaniu oraz niedoskonałość działania ludzkich zmysłów. Błąd pomiaru zawsze definiuje się jako różnica pomiędzy realną, prawdziwą wartością a wielkością zmierzoną. Zawsze zakładamy, że taka wielkość mierzona faktycznie istnieje i nie jest to ta, którą wskazuje nam dane urządzenie (Jakubiec 2014).

W praktyce, pomimo istnienia tych problemów, można zastosować pewną – również nieidealną – metodologię opartą o wyznaczanie tzw. niepewności pomiarowej. Nie ma ona stricte fizycznego, eksperymentalnego charakteru, lecz jest to pewien matematyczny konstrukt obejmujący istotne cechy związane z dynamiczną oraz stochastyczną naturą rozpatrywanych zjawisk[4]. Metody te oraz jej rezultaty nie są stosowane jedynie w fizyce ale też w innych naukach – co można również odnieść do metodologii ekonometrii.

Pomimo postępującego rozwoju naukowego, okazuje się, że nie wszystkie wielkości fizyczne są dostępne pomiarowo. Zatem koniecznym jest opracowanie mechanizmu, który umożliwi numeryczne odtworzenie wartości niemierzalnych wielkości, czyli tzw. estymatorów. Co więcej, często dokładność (jakość) dokonywanych pomiarów nie jest zadowalająca, a i cena samych układów pomiarowych jest relatywnie wysoka w stosunku do kosztów opracowania odpowiedniego estymatora[5] zastępującego ich działanie.

W kontekście stosowania wyżej wymienionych metod estymacji oraz narzędzi pomiarowych, zawsze koniecznym jest uprzednie rozważenie szeregu problemów związanych z ich działaniem oraz tym, jakie są cechy związanej z nimi aplikacji. Poniżej przedstawiono kilka przykładowych zagadnień, które muszą być wzięte pod uwagę:

Problem z określeniem struktury modelu do celów estymacji (Söderström, i Stoica 1997 [1994], s. 36–58, 102–105, 181–204, 538–546, Schweppe 1978 [1973], s. 28–49).

1. Zbyt uboga wiedza empiryczna sensu largo dotycząca zjawisk fizycznych (Schweppe 1978 [1973], s. 382–420).

2. Ubogie dane pomiarowe (zbyt mała ilość, mała różnorodność, niejednorodny typ danych) zebrane w rezultacie kampanii pomiarowych.

3. Obecność dużej ilości czynników zakłócających np. szumy pomiarowe czy nieuwzględnione zakłócenia deterministyczne wpływających na pracę urządzeń, które nie zostały poprawnie zidentyfikowane.

4. Kwestia pracy w tzw. czasie rzeczywistym.

5. Źle oszacowany zakres oraz typ niepewności (Schweppe 1978 [1973], s. 13–15).

6. Nadmierne dopasowanie danych do modelu (ang. overfitting) – czyli kompromis obciążenia a wariancji (Söderström, i Stoica 1997 [1994], s. 46–51).

7. Źle dobrane i skalibrowane algorytmy obliczeniowe.

Biorąc pod uwagę powyższe spostrzeżenia, należy zrozumieć, że stosowanie precyzyjnie opracowanych w sensie technicznym narzędzi do praktycznej realizacji ludzkich celów nie jest czymś pozbawionym potencjalnych punktów zapalnych związanych z pewnymi kompromisami. Czy fizyczne instrumenty czy też zaimplementowane na komputerach algorytmy są tylko pewnymi konstruktami, których istota działania zawsze opiera się na uprzednio zdefiniowanych charakterystykach odnoszących się do pragmatyki ludzkiego działania[6]. Ich cechy oraz właściwości są nieodzownie powiązane z: 1) obiektywnie istniejącymi prawami przyrody oraz twierdzeniami matematycznymi pozwalającymi na ujmowanie ich pracy w ścisłych kategoriach oraz 2) ogólnie zdefiniowanymi schematami działań ludzi w pewnym otoczeniu społecznym oraz gospodarczym. Logiczna struktura ludzkiego umysłu we spół z uporządkowanymi formami rzeczywistości pozwalają człowiekowi na opracowywanie teorii o ściśle praktycznym znaczeniu, które są w istocie przedłużeniem jego zmysłów oraz konceptów idei wypracowanych w skutek procesów rozumienia świata. Kategorie te:

[...] Nie są one arbitralnymi założeniami bez żadnej wartości poznawczej, ani trywialnymi konwencjami, które równie dobrze mogłyby być zastąpione przez inne teorie. Są one niezbędnym narzędziem intelektualnym, które pozwalają uporządkować dane zmysłowe w sposób systematyczny, przekształcić je w fakty doświadczenia, następnie te fakty w elementy niezbędne do budowy adekwatnych teorii, a wreszcie te teorie w praktyczne techniki osiągania celów [...] (Mises, 1962, s. 18).

Idąc za Misesem, można jasno stwierdzić, że każde urządzenie jest projektem człowieka, które stanowi swego rodzaju ucieleśnienie obmyślonego uprzednio planu swojego twórcy. Plan ten jest odniesiony do istoty celu, który chce się osiągnąć samemu, bądź jest odniesiony sensu celów pozytywnie wartościowanych przez innych ludzi. Zawsze jest to tylko mniej lub bardziej ucieleśniona fizycznie metoda, która została opracowana przez człowieka (Mises, 2011 [1957], s. 56–57). Zatem każdy problem napotykany na drodze do realizacji celów w sensie technicznym, który wiąże się jak i z cechami danej aplikacji (problemu, zarysu celów) jak i immanentnych charakterystyk narzędzi (środków), musi przenosić się z nauk ścisłych na nauki społeczne, przyjmując uprzednio fakt zastosowania tych samych metod.

Zatem, mając na uwadze szereg zagadnień metodologicznych związanych z pomiarami oraz estymacją w zastosowaniu do nauk ścisłych oraz wskazując pewne fundamentalne założenia związane z naukami ekonomicznymi, możliwe jest wyprowadzenie następujących spostrzeżeń, które silnie kontrastują te dwa pola badawcze:

  1. Jeżeli w ekonomii, ekonometrii czy metodach wspomagania decyzji stosuje się algorytmy obliczeniowe, to należy stanąć przed szeregiem problemów, które napotyka się w naukach ścisłych. Urządzenia pomiarowe nie działają idealnie, informacje są obarczone błędami o danym charakterze, a utrzymanie warunków działania procesów w danych charakterystykach jest zadaniem wieloetapowym. Co istotne, aby zapewnić ich adekwatną pracę, w naukach ścisłych pewne zagadnienia związane z istnieniem niepewności można rozwiązać z uwagi na dokonywanie realistycznych założeń takich jak np. pomijanie wpływów o bardzo krótkich albo bardzo długich skalach dynamiki, celowe zaniedbywanie zakłóceń o niewielkim znaczeniu dla danego zjawiska, odpowiednią obróbkę sygnałów pomiarowych czy też celowe zaniedbywanie danych parametrów/wielkości.
  2. Nie da się pominąć faktu, że próba zastosowania metod z nauk ścisłych do zastosowań nauk ekonomicznych ściera się z problemem tego, że nie da się ściśle zaprojektować układów pozwalających na sprawne zdobywanie informacji o danych procesach. Nie ma możliwości ilościowego ustalenia pewnych zależności związanych z identyfikacją procesu zanim system estymacji czy sterowania zacznie działać (Söderström i Stoica 1997 [1994], s. 27–35). Budowa takiego układu do celów obserwacji czy sterowania zjawiskami ekonomicznymi skutkuje wywołaniem oddziaływań, które mogą wywołać całkowicie nieprzewidywalny skutek w kontekście dalekosiężnych celów, które będą realizowane na podstawie zebranych danych o konkretnej jakości.
  3. Problem ze znalezieniem jasnych warunków odniesienia, czy też tzw. warunków wzorcowych względem których można by dokonać kalibracji układu pomiarowego, czy też dostrojenia algorytmów tak, aby mogłyby pracować w założony wcześniej sposób jest kluczowym aspektem poprawnego funkcjonowania nowoczesnych instalacji przemysłowych (Jakubiec 2014). Podobnie, znalezienie modelu zjawiska jest kłopotliwe, gdyż obserwowanie danych zdarzeń, które wykazują pewne korelacje nie musi absolutnie wskazywać na pewne związki przyczynowe konstytuujące dane zjawiska fizyczne. Nie zawsze wiadomo, co dzieje się w wewnątrz danego procesu, a widać jedynie pewne zależności między pobrudzeniami – wejściami a pomiarami – wyjściami. Dane pochodzące z wybrakowanych modeli muszą wprost prowadzić do błędnych decyzji (Söderström, i Stoica 1997 [1994], s. 27–35).
  4. Predykcja postrzegana w odniesieniu do narzędzi nauk ścisłych jest zawsze rozumiana jako numeryczna ekstrapolacja wyników powstałych wskutek symulacji modelu matematycznego opisującego dane zjawisko/proces (Söderström, i Stoica 1997 [1994], Schweppe 1978 [1973]). Takie podejście do sprawy wymaga przyjęcia na początku oraz następnie utrzymania w trakcie działania realnego procesu i pracy algorytmów szeregu warunków (założeń) o charakterze konstytutywnym (konstytuującym fundamenty jego działania). Model matematyczny procesu musi być skalibrowany na odpowiednio bogatym zbiorze danych wiążących wejścia, wyjścia oraz stany wewnętrzne, co pozwala na adekwatny dobór parametrów ustalonych jako stałe albo związane z pewnym typem niepewności, który można adekwatnie skompensować. Model może być kalibrowany a algorytmy dostosowywane w odniesieniu do ich parametrów oraz struktury. Możliwe jest też, to że wskutek zmian w naturze procesu, właściwości modelu matematycznego, tj. interakcje skrośne między zmiennymi oraz struktury form funkcyjnych mogą się silnie zmienić, co albo musi być zidentyfikowane albo skompensowane na gruncie algorytmicznym. Dokonywanie predykcji według tych zasad jest możliwe, jeśli mamy pewność, że użyteczność modelu matematycznego jest obiektywnie uzasadniona na całym horyzoncie działania procesu.
  5. W naukach ścisłych, agregacja zmiennych jest często dokonywana w celu upraszczania modeli matematycznych. Działanie to jest dokonywane z różnych powodów, np. opracowywanie modeli projektowych, problem z wyszczególnieniem zmiennych z uwagi na dostępność pomiarową, problemy doboru struktury modelu oraz rozumienie zjawisk per se. W ekonomii takie zabiegi są niedopuszczalne z uwagi na konieczność pomijania pojedynczych aktów działania, które wbrew pozorom mogą mieć duże znaczenie dla przyszłego rozwoju stanu gospodarki[7]. Natomiast w momencie dokonania tegoż ujęcia matematycznego, te charakterystyczne cechy rozumiane jak i w sposób obiektywny (czas i przestrzeń) oraz subiektywny (użyteczność) zostają pominięte, skutkując uśrednieniem ich do jednej reprezentatywnej wielkości (Kacprzyk 2014, s. 35–78, Begg i inni 2014). W naukach ścisłych, w skutek skrupulatnej analizy eksperymentalnej czy też rozważań o charakterze matematycznym, możliwe jest wyznaczenie takich agregatów, które dobrze wyjaśniają oraz przewidują zachowania danych zjawisk.

Biorąc pod uwagę powyższe spostrzeżenia oraz wnioski wynikające z austriackiego ujęcia kontrastu pomiędzy naukami społecznymi a ścisłymi/przyrodniczymi, należy jasno skonstatować, że próba opracowania systemów pomiarowych, systemów monitorowania czy sterowania na potrzeby ekonomii jako nauki teoretycznej (a nie jako metody wspomagania decyzji) musiałaby wiązać się ze znacznie bardziej złożonymi działaniami, niż wydawałoby się to na początkowym etapie rozważań.

Część V: Wybrane wątki austriackie dotyczące krytyki stosowania metodologii nauk ścisłych do problemów teorii i praktyki ekonomii

W odróżnieniu do treści przedstawionej w sekcji III, gdzie opisano komplementarne do sekcji IV zagadnienia uzupełniające tezy Morgensterna, niniejszy fragment referatu ma na celu przybliżyć trzy wybrane opracowania dotyczące problematyki stosowania metod zaczerpniętych z nauk ścisłych do opisu i wyjaśniania teorii ekonomicznych, które zostały poddane krytyce z perspektywy badaczy reprezentujących nurt austriacki.

Problemy analizy wymiarowej w ekonomii

W swoim artykule pt.: „Problemy analizy wymiarowej w ekonomii” (Kwaśnicki, 2013), profesor Kwaśnicki dostarcza nam wyczerpujących analiz pokazujących, że brak konsekwencji i spójności w badaniach ekonomistów matematycznych dotyczący analizy wymiarowej w modelach matematycznych ekonomii może stanowić istotny problem – jak i w aspekcie rozważań teoretycznych jak w praktycznej interpretacji danych gospodarczych. W naukach ścisłych analiza wymiarowa ma za zadanie wykazanie spójności pomiędzy zmiennymi oraz stałymi (parametrami) związanymi z matematycznym opisem danych zjawisk fizycznych, a ich realną interpretacją. W każdym opracowanym modelu lewe oraz prawe strony równań muszą reprezentować te same miary fizyczne np. Wolty czy Newtony, czyli jednostki odnoszące się kolejno do napięcia elektrycznego czy siły. Zdaniem autora powyżej wspomnianego artykułu, niejednokrotnie występuje sytuacja, która z punktu widzenia nauk ścisłych jest niedopuszczalna, tj. albo prawidłowe użycie wymiarów prowadzi do używania równań nie mających jakiegokolwiek sensu ekonomicznego, albo te same zmienne czy stałe mają w różnych równaniach odmienne jednostki czy interpretację (Kwaśnicki, 2013, s. 6).

Aby zobrazować te twierdzenia, podany jest przykład tzw. funkcji produkcji Cobba–Douglasa (Varian, 1995, s. 96, 122–123, 356–358, Begg i inni 2014, s. 416–431), której to wielkości muszą zmieniać swoje jednostki w pewien specyficzny sposób (z uwagi na nieliniowy charakter tej funkcji), co powoduje silne problemy interpretacyjne w wymiarze czasowym. Zdaniem autora, o ile zmienne wejściowe wyrażające zagregowany kapitał  oraz zagregowany zasób pracy , czy też zmienną wyjściową  odnoszącą się do wielkości produkcji można w pewien namacalny sposób zobiektywizować odnosząc się do ich rynkowej natury[8], to parametry odpowiedzialne za elastyczność (wzajemną substytucję) pracy oraz kapitału są związane z istotnym problemem interpretacyjnym.

Czas Newtonowski a Bergsonowski

Istotne rozróżnienie pomiędzy tzw. czasem Newtonowskim (NT) oraz Bergsonowskim (BT) zostało opisane przez O`Driscolla i Rizzo w książce pt.: „Austrian economics re–ezamined” (O`Driscoll i Rizzo, 2014, s. 105–119). Według ich argumentacji, ujęcie upływu czasu w ekonomicznym działaniu człowieka poprzez odniesienie się do twierdzeń klasycznej fizyki Newtonowskiej jest powiązane z przestrzennym rozumieniem tego zjawiska, tj. jednostajnym ruchem w linii prostej, gdzie kolejne momenty w czasie są postrzegane jako elementy zbioru dyskretnego albo ciągłego (O`Driscoll i Rizzo, 2014, s. 106–109). Opierając się na tej wykładni, która naturalnie została zaadaptowana przez główny nurt do deskrypcji modeli ekonomicznych (Varian, 1995; Kacprzyk 2014, s. 35–78), O’Driscoll i Rizzo przedstawiają następujące cechy NT:

  • Punkty czasu różnią się od siebie jedynie położeniem geometrycznym. Są one jednorodnymi jednostkami, traktowanymi w sposób ściśle uprzedmiotowiony.
  • Następowanie pomiędzy kolejnymi fragmentami czasu nie ma tu charakteru pewnego związku przyczynowego między unikalnymi zdarzeniami o różnym czasie trwania, lecz jest to beznamiętna zależność funkcyjna pomiędzy idealnie podzielnymi elementami danego przedziału (zbioru) czasu. Zmiany w czasie mają charakter zdeterminowany względem pewnej określonej z góry formuły matematycznej (np. równania różniczkowe).
  • Czas jest uniezależniony od treści zdarzeń, które dzieją się w danych jego chwilach. Zmiany w czasie od momentu rozpoczęcia danego zdarzenia zachodzą tak, że jego upływ ten nie wpływa na fakt zmian o charakterze konstytutywnym.

Natomiast BT, tzw. czas psychologiczny, realny, powiązany jest z subiektywną istotą jego upływania, patrząc z perspektywy danego człowieka. Koncepcja trwania nie jest statyczna lecz dynamiczna w szerokim sensie, odnosząc się do danych okoliczności miejsca, co w naturalny sposób łączy się z ideami szkoły austriackiej (O’Driscoll i Rizzo, 2014, s. 110 – 114). Zatem BT można opisać za pomocą trzech następujących atrybutów: Zdarzeń jako stanów umysłu nie można podzielić na pewne jednorodne, niepowiązane ze sobą fragmenty (przedziały) z uwagi na aspekty: antycypacji następowania czegoś po sobie czy też pamięci zdarzeń poprzedzających.

  • Realny upływ niejednorodnych chwil czasu, w odróżnieniu od NT, musi być powiązany ze strukturalną nowością doświadczenia. Następowanie w czasie zawsze wiąże się z innowacją wrażeń czy przeżyć oraz zmianą względem subiektywnych odczuć człowieka.
  • Jeżeli pamięć oraz oczekiwanie są nieodzownymi elementami ludzkiego działania, które łączą przeszłość, teraźniejszość oraz przyszłość, to musi zachodzić ciągłe rozróżnianie między poszczególnymi fragmentami czasu. Jednakże, nowy przedział czasu mimo bycia unikalnym i nowym, nie jest ściśle wyizolowany od innych momentów. Dynamiczna ciągłość wraz z przyczynowością oraz heterogeniczność fragmentów czasu są dwiema stronami tego samego medalu, odnoszącymi się do ludzkiego doświadczania zdarzeń.

Stałe behawioralne a stałe fizyczne

Idąc za twierdzeniami Misesa, możemy stwierdzić, że ekonometria nie jest w stanie dostarczyć nam jakichkolwiek pomiarów czy ich estymat, na których podstawie możliwe byłoby wyznaczenie tzw. „stałych behawioralnych” (Mises, 2011 [1957], s. XXV–XXVI). Działania te miałyby na celu wypracowanie ścisłej i pewnej informacji na temat numerycznej wartości danych parametrów, analogicznie do wiedzy dotyczącej wielkości fizycznych takich jak stała grawitacji  czy stała gazowa. Historycznie, niejednokrotnie dokonywano prób wyznaczenia tego typu wielkości bazując na danych, zakładając, że te nieznane parametry jako elementy konstytutywne w danym procesie pozostaną niezmienne przez jakiś czas bądź są stałe bez względu na upływ czasu. Zdaniem austriackiego ekonomisty, fakt stałości można uznać jedynie w momencie, gdy okres zbierania danych minie, a pomiar jednoznacznie wskazywał na występowanie danej prawidłowości w danych warunkach (Mises, 2011 [1957], s. XXVI):

To czy taki okres domniemanej stałości pewnej określone liczny wciąż trwa, czy liczba ta już się zmieniła, można stwierdzić dopiero później. Patrząc wstecz, można [...] powiedzieć, że w pewnym (raczej dość krótkim) okresie między wartościami liczbowymi dwóch czynników zachodził w przybliżeniu stały stosunek [...]. Jest to jednak coś zasadniczo różnego od stałych fizyki. Mamy tu stwierdzenie faktu historycznego, a nie stałą, do której można się uciec w próbach przewidywania przyszłych zdarzeń.

Mises twierdzi, że z uwagi na niepewny oraz zmienny obraz ludzkiego działania odnoszący się do świadomych aktów wyboru, ludzie nie reagują na zmiany świata zewnętrznego w sposób regularny i przewidywalny lecz ich fizyczne akty działania zawsze są efektem myśli i idei, a nie wewnętrznych impulsów czy popędów (Mises, 2011 [1957], s. 4–6, 49–54; Mises, 1962, s. 6–8, 11–17, 35–39).

Część VI: ASE a nauki ścisłe: czy istnieje komplementarność argumentacji?

Wartym podkreślenia jest fakt, że o ile szeroko rozumiana szkoła austriacka niezwykle dokładnie opisuje aspekty związane z bogatą paletą zagadnień dotyczących różnych pól teorii ekonomii, to niestety jej przedstawiciele od dłuższego czasu nie opracowali zaktualizowanych czy też nowych argumentacji na rzecz krytyki metod oraz narzędzi stosowanych w tzw. głównym nurcie ekonomii. Tym razem jednak, zamiast atakować bezładne przeszczepianie metodologii nauk fizycznych czy zagadnień matematyki, koniecznym jest odniesienie do metod stosowanych w ekonomii, które pierwotnie opracowano na rzecz automatyki, informatyki, metod wspomagania decyzji itp. Z uwagi na inżynierski oraz widocznie pragmatyczny charakter tych zagadnień możliwe jest wyprowadzenie krytyki będącej jawną syntezą następujących podejść:

  • Poszerzone oraz zaktualizowane klasyczne argumenty dostarczane przez szkołę austriacką.
  • Argumenty wyprowadzone z rdzenia nauk technicznych, których to metody są per analogiam stosowane w ekonomii głównego nurtu.

Nowo opracowaną krytyką można by objąć szereg pól problemowych, które jednocześnie wpisują się w ramy ekonomii teoretycznej w wydaniu głównonurtowym. jak i – z uwagi na ich zmatematyzowany charakter – do nauk ścisłych. Jako przykłady, można podać następujące zagadnienia:

Zastosowanie metod nieliniowego sterowania optymalnego w aplikacji do modeli makroekonomicznych reprezentujących agregatowe spojrzenie na gospodarkę (Kacprzyk 2014, s. 35–78).

1. Stosowanie metod optymalizacji w rozwiązywaniu problemów wyboru konsumentów oparty o imperatyw ekonomii dobrobytu (Varian, 1995, s. 627–636, 641–651).

2. Wyprowadzanie matematycznych modeli makroekonomicznych jako modeli reprezentujących tzw. twarde prawa ekonomii analogicznie do praw fizyki czy chemii (Kacprzyk 2014, s. 11–21, 79–109, Begg i inni 2014, s. 193–261, 412–443).

3. Wyznaczenie jasnej dystynkcji pomiędzy metodami wspomagania decyzji i koordynacji produkcji a teorią ekonomii – narzędzia działania vs prawa konstytutywne (Wierzbicki 2008).

4. Predykcja jako ekstrapolacja numeryczna odpowiednio skalibrowanych modeli matematycznych a przewidywania ludzi dotyczące niepewnej przyszłości.

5. Problematyka dynamicznych zmian w czasie: ewolucja zachowania modeli procesów a działanie w społeczeństwie.

Część VII: Podsumowanie

Treść niniejszego referatu dotyczyła dyskusji nad szeroko rozumianym zagadnieniem pomiarów w ekonomii. Począwszy od zaprezentowania wybranych stanowisk wypracowanych przez Oscara Morgensterna, odwołano się zarówno do argumentów wybranych ekonomistów szkoły austriackiej, jak i do argumentów, które można wyprowadzić na bazie osiągnięć nauk ścisłych. Oprócz zrekonstruowania powyżej wspomnianych aspektów, w tekście dokonano dyskusji oraz zestawiania właściwych dla zarysowanego pola problemowego rozważań. Głównym celem było, bazując na literaturze, dokonanie syntetycznej krytyki głównonurtowego podejścia do problematyki realizacji pomiarów w ekonomii poprzez wypracowanie stanowiska, które oparto na fundamentalnych dokonaniach szkoły austriackiej oraz poprawnie rozumianej metodologii nauk ścisłych. W skrócie, wykazano, że nierealistyczne założenia związane z naturą informacji ekonomicznych, metodami jej transmisji, fundamentami ludzkiego działania czy też istotą dokonywania pomiarów przez ludzi można nie tylko obalić, stosując relewantną analizę ekonomiczną, lecz można tego dokonać poprzez wskazanie szeregu sprzeczności czy braku konsekwencji w stosowaniu metodologii nauk ścisłych do problemów gospodarczych. Odwołanie się do problematyki estymacji, przetwarzania danych, symulacji czy działania algorytmów naświetliło szereg problemów, które muszą być rozwiązane podczas realizacji prac w obrębie nauk ścisłych oraz technicznych. Kontrastując to z teoretycznymi oraz praktycznymi aspektami ekonomii zobrazowano, że analogiczne rozwiązanie równoległych problemów może być bardzo trudne bądź nawet niemożliwe. Ponadto naświetlono kilka potencjalnych pól problemowych, względem których możliwe jest rozwinięcie rozważań teoretycznych opartych o syntetyczne ujęcie osiągnięć szkoły austriackiej jak i osiągnięć nauk ścisłych takich jak: automatyka, informatyka, metrologia, przetwarzanie sygnałów czy logistyka.

Część VIII: Literatura

Bagus, P., „Morgenstern's Forgotten Contribution: A Stab to the Heart of Modern Economics”, The American Journal of Economics and Sociology, Vol. 70, nr. 2, dostęp online [02.12.2022]: https://doi.org/10.1111/j.1536-7150.2011.00783.x, 2011.

Begg, D., Vernasca, G., Fischer, S., Dornbusch, R., Makroekonomia, Polskie Wydawnictwo Ekonomiczne, Warszawa, 2014.

Górecki, B.R., Ekonometria podstawy teorii i praktyki, Wydawnictwo Key Text, Warszawa, 2010.

von Hayek, F.A., Nadużycie rozumu, Wydawnictwo Prohibita, Warszawa, 2013 [1953].

——, Ekonomia a wiedza, w: Indywidualizm i porządek ekonomiczny, Wydawnictwo Aletheia, Warszawa 2018a.

——, Fakty w naukach społecznych, w:] Indywidualizm i porządek ekonomiczny, Wydawnictwo Aletheia, Warszawa 2018b.

Hoppe H.H., Jak może istnieć pieniądz fiducjarny albo degeneracja pieniądza i kredytu, w: Ekonomia i etyka własności prywatnej, Fijorr Publishing, Warszawa, 2011a [1993].

——, O prakseologii i prakseologicznych podstawach epistemologii, w: Ekonomia i etyka własności prywatnej, Fijorr Publishing, Warszawa, 2011b [1993].

——, Czy badania oparte na przyczynowości są w naukach społecznych możliwe?, w: Ekonomia i etyka własności prywatnej, Fijorr Publishing, Warszawa, 2011c [1993].

Kacprzyk, A., Instytucjonalne determinanty wzrostu gospodarczego, Wydawnictwo Uniwersytetu Łódzkiego, Łódź, 2014.

Huerta de Soto, J., Socjalizm, rachunek ekonomiczny i funkcja przedsiębiorcza, Instytut Misesa, Warszawa, 2011 [1992].

Jakubiec, W., Zator, S., Majda, P., Metrologia, Polskie Wydawnictwo Ekonomiczne PWE, Warszawa, 2014.

Kelly, Y.J., „Mises, Morgenstern, Hoselitz, and Nash: The Austrian connection to the games theory”, The quarterly journal of Austrian economics, Vol. 12, nr. 3, 2009.

Kwaśnicki W., „Problemy analizy wymiarowej w ekonomii”, Studia Ekonomiczne, Vol. 76, nr. 1, s. 147 – 172, dostęp online [02.12.2022]: http://yadda.icm.edu.pl/yadda/element/bwmeta1.element.ekon-element-000171235009, 2013.

Morgenstern, O., On the Accuracy of Economic Observations, Princeton University Press, Princeton, New Jersey, 1950.

von Mises, L., Ludzkie działanie, Instytut Ludwiga von Misesa, Polska, 2007 [1949].

——, Teoria a historia. Interpretacja procesów społeczno-gospodarczych, Wydawnictwo PWN i Instytut Ludwiga von Misesa, Polska, 2011 [1957].

——, The Ultimate Foundations of Economic Science, Van Nostrand, New York, USA, 1962.

O`Driscoll, G.P. i Rizzo, M., „Austrian Economics Re-examined. The Economics of Time and Ignorance”, Taylor & Francis, dostęp online [02.12.2022]: https://library.oapen.org/bitstream/handle/20.500.12657/48514/9781317691365.pdf?sequence=1&isAllowed=y , 2014.

Rothbard M.N., Ekonomia Wolnego Rynku, Instytut Ludwiga von Misesa, Warszawa 2017 [1962].

Schweppe, F.C., Układy dynamiczne w warunkach losowych, Wydawnictwa Naukowo – Techniczne WNT, Warszawa, 1978 [1973].

Skousen M., Struktura produkcji. Giełda, kapitał, konsumpcja, Fijorr Publishing, Warszawa, 2011 [1990].

Söderström, T., Stoica, P., Identyfikacja systemów, Wydawnictwo naukowe PWN, Warszawa, 1997 [1994].

Szabatin, J., Podstawy teorii sygnałów, Wydawnictwo komunikacji i łączności WKŁ, Warszawa, 2000.

Varian, H., Mikroekonomia — kurs średni. Ujęcie nowoczesne, Wydawnictwo Naukowe PWN, Warszawa, 1995.

Wierzbicki A. P., Teoria i praktyka wspomagania decyzji, Wydawnictwo Uniwersytetu Warszawskiego, Warszawa, 2008.

 

[1] Jest wręcz przeciwnie, co niejednokrotnie przedstawia w dalszych częściach książki.

[2] W tym miejscu należy sprecyzować twierdzenie Morgensterna. Fałszowanie danych i informacji może być również możliwe w naukach przyrodniczych/ścisłych, co łatwo zobrazować faktem tego, ile publikacji naukowych czy raportów z działalności przedsiębiorstw przemysłowych (opracowanych w aspekcie fizykalnym) jest pełnych przekłamań i nadinterpretacji. Niemiecki ekonomista ma na myśli fakt tego, że fałszowanie danych odnosi się zawsze do intencjonalnych aktów działania ludzi, którzy mają na celu dokonanie sprecyzowanej manipulacji – czy to stricte ekonomicznej, czy dotyczącej informacji związanymi z naukami przyrodniczymi. Urządzenia pomiarowe, maszyny czy systemy komputerowe nie posiadają właściwości ludzkiego działania (są jedynie środkami do realizacji celów (Mises 2011 [1957], s. 56–58) i nie można ich antropomorfizować), zatem jedyne problemy z „manipulacją danymi” odnoszą się jedynie do błędów pomiarowych, błędów projektowych czy oszacowanych niepewność, które dany konstruktor czy użytkownik może wziąć pod uwagę.

[3] W swojej książce, Skousen odnosi skrót WKB do angielskiego odpowiednika ang. gross output, czyli produktu brutto (Skousen, 2011 [1990], s. 11–12, 231).

[4] Paralele między stanowiskiem nauk technicznych a stanowiskiem badaczy z nurtu szkoły austriackiej można w łatwy sposób zauważyć odwołując się do sekcji III niniejszego tekstu.

[5] Estymacja jest to zbiór metod, których zadaniem jest określenie (wydanie osądu, oszacowanie) wartości parametrów bądź zmiennych, związanych z rozpatrywanym procesem (np. zbiorem zjawisk fizycznych), bazujący na wiedzy o naturze problemu. Efektem działania algorytmów estymacji jest wyznaczenie estymat, czyli wartości odwzorowujących rzeczywiste zmienne/parametry z określoną dokładnością. Dokładność uzyskanej estymaty wynika z natury procesu, przyjętego modelu do celów estymacji oraz dokładności/pewności wykorzystanych danych.

[6] Na temat tego, jaką rolę w ludzkim działaniu pełnią odpowiednio skonstruowane urządzenia oraz tego, w jaki sposób należy odróżniać ich działanie od świadomego działania ludzi, patrz (Mises, 2011 [1957], s. 56–59).

[7] Przykład stosowania tego typu podejścia w naukach ekonomicznych patrz (Varian 1995, s. 641–643).

[8] Zgodnie z klasyczną wykładnią, w funkcji Cobba–Douglasa praca odnosi się do zagregowanego poziomu zsumowanych indywidualnych roboczogodzin na dany okres, kapitał to zagregowana wartość pieniężna sumy wszystkich dóbr produkcyjnych biorących udział w procesie wytwarzania, natomiast poziom produkcji to realna wartość dóbr wyprodukowana w ciągu danego okresu. Nie mniej jednak, odnosząc się do treści sekcji II, III oraz V, należy zwrócić istotną uwagę na problem agregacji wielkości, które pozornie mogą tworzyć konglomeraty niemające finalnie jakiegokolwiek sensu ekonomicznego.

Kategorie
Metaekonomia Metodologia szkoły austriackiej Teksty

Czytaj również

Juszczak_Studia_prawnicze_z_perspektywy_libertarianina

Prawo

Juszczak: Studia prawnicze z perspektywy libertarianina

Studia, jeżeli są tylko dobrze wykorzystane, to okazja do bardzo wysokiego rozwoju,  która nie zdarza się potem często w życiu.

Hulsmann_Makroekonomia według Rogera Garrisona

Teoria ekonomii

Hülsmann: Makroekonomia według Rogera Garrisona

Książka Garrisona zawiera wiele wnikliwych omówień poruszających problematykę polityki fiskalnej.

St_Onge_Javier Milei_zlikwidowal_deficyt_budzetowy_w_9_tygodni

Ekonomia sektora publicznego

St. Onge: Javier Milei zlikwidował deficyt budżetowy w… 9 tygodni

Milei potrzebował zaledwie dziewięciu i pół tygodnia, aby zrównoważyć budżet, który według prognoz poprzedniego rządu miał wynieść 5% PKB.

Shostak_Preferencja czasowa to kluczowy czynnik wpływający na stopy procentowe

Teoria ekonomii

Shostak: Preferencja czasowa to kluczowy czynnik wpływający na stopy procentowe

Polityka pieniężna tylko zniekształca sygnały dotyczące zmian wartości stóp procentowych, a tym samym doprowadza do niewłaściwej alokacji zasobów w czasie, co prowadzi do cyklu koniunkturalnego. 


Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.

Strona korzysta z plików cookie w celu realizacji usług zgodnie z Polityką Prywatności. Możesz samodzielnie określić warunki przechowywania lub dostępu plików cookie w Twojej przeglądarce.