KRS: 0000174572
Powrót
Metodologia ekonomii głównego nurtu

Leszek: Problematyka wiedzy w naukach społecznych: o jednym z powodów zawodności ekonomii głównego nurtu w wyjaśnianiu rzeczywistości gospodarczej

1
Przemyslaw Leszek
Przeczytanie zajmie 50 min
Leszek_Problematyka-wiedzy-w-naukach-społecznych-o-jednym-z-powodów-zawodności-ekonomii-głównego-nurtu-w-wyjaśnianiu-rzeczywistości-gospodarczej.jpg
Pobierz w wersji
PDF

Autor: Przemysław Leszek
Wersja PDF

Artykuł wchodzi w skład książki Pod prąd głównego nurtu ekonomii

wiedzy

Wprowadzenie

W rozdziale tym twierdzimy, że współczesna ekonomia głównego nurtu w wielu obszarach swoich naukowych dociekań systematycznie ignoruje bądź bagatelizuje problematykę wiedzy. Uważamy, że jest to jeden z ważniejszych powodów tego, iż wyjaśnienia podawane przez „ortodoksyjnych” teoretyków często nie odpowiadają rzeczywistości rynkowej, a nierzadko zaciemniają jej prawdziwy obraz.

Najpierw postaramy się wskazać przyczynę, która, naszym zdaniem, przesądziła o zepchnięciu problematyki wiedzy — pozyskiwanej i wykorzystywanej przez podmioty rynku we wszystkich podejmowanych przez nie decyzjach — do podrzędnej roli. Ową przyczynę nie przez przypadek określiliśmy mianem „uroku Newtona”.

Następnie przedstawiamy krytykę podejścia ortodoksyjnego — porównamy to, co wiemy na temat wiedzy i sposobów jej pozyskiwania i wykorzystywania przez ludzi, z tym, co postuluje teoria ekonomii głównego nurtu.

Wiedza w ekonomii

Chociaż temat wiedzy w kontekście rozważań nad funkcjonowaniem systemu społeczno-gospodarczego pojawił się stosunkowo wcześnie, na długo przedtem nim ekonomia wyodrębniła się jako osobna dyscyplina nauki[1], to w owym czasie raczej nie był przedmiotem teoretycznej refleksji.

Nie istnieje jedna, ogólnie przyjęta definicja terminu „wiedza”, choć jest on powszechnie stosowany. Próby ustalenia, czym jest wiedza, podejmowane w literaturze naukowej i filozoficznej, odnoszą się zwykle do dziedzin związanych z obszarami zainteresowań poszczególnych badaczy. W obrębie tych dziedzin pojęciu „wiedzy” nadaje się specyficzne znaczenia, z czego wynika jego niejednoznaczność.

Ponieważ przedmiotem badań ekonomii są — mówiąc najogólniej — ludzkie działania i ze względu na to, że człowiek podejmuje decyzje na podstawie tego, co wie, w rozdziale tym opowiadamy się za stosunkowo szeroką i chyba najbardziej intuicyjną interpretacją pojęcia wiedzy. Zgodnie z nią wiedzę poszczególnych ludzi stanowi to, co wiedzą. Ujmując rzecz bardziej szczegółowo, na wiedzę człowieka składa się ogół będących w jego posiadaniu informacji, poglądów, przekonań, wierzeń i zdobytych doświadczeń. Części z nich nie można nawet zwerbalizować. Tak zdefiniowana wiedza jest pojęciem szerszym niż wiedza sprowadzana przez niektórych naukowców i filozofów do uporządkowanego zespołu informacji czy obiektywnie uzasadnionych przekonań. Uczestnicy rynku nie podejmują bowiem decyzji ekonomicznych, kierując się zbiorem „uzasadnionych przekonań”, lecz zgodnie z własnymi przekonaniami[2].

Pierwszym ekonomistą, który podkreślał znaczenie wiedzy w działalności gospodarczej, był Richard Cantillon. W książce Essai Sur la Nature du Commerce en Général, napisanej w latach 1730–1734, po raz pierwszy zostało użyte słowo „przedsiębiorca” (Kwaśnicki 2001, s. 92), rozumiane jako synonim słowa arbiter, który robiąc użytek ze swojej wiedzy, dokonuje wyboru alternatywnych zastosowań różnych zasobów. Żyjący kilkadziesiąt lat później Jean-Baptiste Say uznał tak określoną przedsiębiorczość za czwarty czynnik produkcji. W okresie późniejszym w dziełach Johna Stuarta Milla, Carla Mengera i wielu innych autorów odnajdujemy nawiązania do kwestii wiedzy: dawała ona przewagę w interesach, a stojący za nimi motyw zysku gwarantował jej efektywne wykorzystanie (Kostro 2001, s. 119).

Przełom XIX i XX wieku przyniósł całkowicie odmienną perspektywę postrzegania wiedzy oraz jej roli w kontekście rozważań ekonomicznych. Druga połowa XIX wieku obfitowała w wynalazki, z których przynajmniej kilka miało fundamentalne znaczenie dla rozwoju gospodarki. Mamy tu na myśli silnik spalinowy oraz żarówkę, które uchodzą za symbole współczesnej cywilizacji (należy do nich także tranzystor wynaleziony w pierwszej połowie XX wieku). Oblicza gospodarek ulegały gwałtownym transformacjom. Szybkie i zasadnicze zmiany otoczenia rynkowego wiązały się w dużej mierze z rozwojem naukowo-technicznym, stąd też nie dziwi, że gdy pisano o wiedzy w ekonomii, coraz częściej miano na myśli wiedzę naukową, ujawniającą się pod postacią wynalazków oraz innowacji, nie zaś wiedzę osobistą, wykorzystywaną przez przedsiębiorcę działającego na rynku.

W opublikowanej w 1912 r. Teorii wzrostu gospodarczego Joseph Schumpeter wprowadził do analizy ekonomicznej specyficzną koncepcję przedsiębiorczości. Wiedza, ucieleśniona w owocach postępu technicznego i organizacyjnego (w wynalazkach, innowacjach, a także w nowych zastosowaniach już istniejących zasobów wiedzy i środków produkcji), była implementowana do gospodarki przez przedsiębiorców, co zwiększało ich zyski, ale także przeobrażało dotychczasowo funkcjonujący system produkcji dóbr i usług, powodując rewolucyjne zmiany w wielu sferach życia[3] (Schumpeter 1960, s. 103–104 i passim).

Początki współczesnej teorii wzrostu gospodarczego wiążą się z modelem skonstruowanym pod koniec lat 50. Przez Roberta Solowa (Solow 1956). Neoklasyczna funkcja produkcji została przez niego wzbogacona o parametr symbolizujący wiedzę (ściślej: postęp techniczny). Za kolejny etap na drodze do lepszego zrozumienia i wyjaśnienia zjawiska rozwoju gospodarczego możemy uznać próbę potraktowania wzrostu jako procesu endogenicznego. Dynamika jest tu określona wewnątrz modelu, a jej siłą napędową są efekty zewnętrzne związane z kumulacją wiedzy w formie technologii oraz kapitału ludzkiego (np. Mankiw i in. 1992; Romer 2000, s. 149–163; Romer 1990).

Rozwój wiedzy pod postacią „szoków technologicznych” odgrywa zasadniczą rolę w koncepcjach formułowanych przez przedstawicieli szkoły realnych cykli koniunkturalnych. W 1982 roku Erling Kydland i Edward Prescott zaprezentowali model makroekonomiczny, w którym za fluktuacje PKB odpowiadały częste losowe „wstrząsy technologiczne”[4].

W połowie ubiegłego wieku ekonomiści ponownie zaczęli przywiązywać większą wagę do zachowań pojedynczych podmiotów rynku. Określona w sposób doskonały „wiedza niedoskonała” — wraz z odgórnie wyspecyfikowanymi i całkowicie sformalizowanymi schematami podejmowania decyzji w takim „niedoskonałym” otoczeniu informacyjnym[5] — została szeroko opisana w literaturze. Takie podejście reprezentują koncepcje rozwijane w obrębie tzw. nowej ekonomii klasycznej (chodzi tu zwłaszcza o zasadę tworzenia prognoz ekonomicznych opartych na hipotezie racjonalnych oczekiwań, którą ostatecznie zaakceptowali również przedstawiciele szkół konkurencyjnych), nowy keynesizm (zwłaszcza ekonomika informacji), a także teoria gier.

Począwszy od lat 80. obserwujemy umacnianie się pozycji nowego keynesizmu, którego przedstawiciele — na czele z Josephem Stiglitzem oraz George’em Akerlofem, laureatami Nagrody Nobla — uczynili przewodnim motywem swoich badań poszukiwanie wiarygodnych mikropodstaw, tj. „prawdziwych” fundamentów, na których mogliby oprzeć tradycyjne, keynesistowskie postulaty dotyczące niedoskonałości rynku o charakterze makroekonomicznym[6]. Nowość ich ujęcia polegała przede wszystkim na wprowadzeniu do rozważań ekonomicznych wysoko sformalizowanych analiz sytuacji, w których jednostki zmagają się z asymetrią informacji oraz niedoborami informacyjnymi[7] (np. Akerlof 1970; idem 2003; Stiglitz 2004; por. Wojtyna 2000).

Rozwój matematycznej teorii gier pociągnął za sobą niebywały rozkwit koncepcji ekonomicznych opisujących proces podejmowania decyzji przez podmioty, które pozostają względem siebie w stosunku interakcji i działają w warunkach wiedzy niedoskonałej. „Wiedza niedoskonała” stała się tutaj synonimem ryzyka lub częściej (całkowicie błędnie) niepewności[8].

Podsumujmy: oto rozpoznaliśmy trzy cechy podejścia ortodoksyjnego do problemu będącego przedmiotem naszej analizy.

Po pierwsze, pojęcie wiedzy oraz jemu pochodne („wiedza doskonała”, „niedoskonała”) nie są precyzyjnie zdefiniowane, toteż posługiwanie się nim może stanowić przyczynę nieporozumień[9].

Po drugie, ekonomiści mają skłonność do łączenia w swoich pracach pojęcia wiedzy z wynalazczością czy technologią, mówiąc ogólnie: z nauką oraz jej rozwojem. Wiedza występuje tu w pewnej zagregowanej formie, w roli jednego z czynników produkcji (obok kapitału oraz pracy), zwykle w kontekście badań makroekonomii nad dynamiką wzrostu gospodarczego.

Po trzecie, jeśli nawet rozważania prowadzone są na gruncie mikroekonomii, to temat wiedzy albo nie występuje (zakładamy najpierw, że wiedza jest „doskonała”, następnie koncentrujemy się na właściwościach zastosowanego aparatu matematycznego), albo sprowadza się do określenia „niedoskonałości” wiedzy w sposób doskonały (wprowadzamy do analizy kiepską imitację „niedoskonałości”, dalej postępujemy zgodnie z tą samą procedurą jak w przypadku wspomnianym wyżej).

Nie ulegając pokazanej tu swoistej logice myślenia części ortodoksyjnych teoretyków, twierdzimy, że temat wiedzy w ekonomii nadal jest ignorowany przez główny nurt i w związku z tym konieczny jest jego obszerniejszy opis. Zagadnienia, które się z tym tematem łączą, będziemy określać jako „problem” bądź „problematyka wiedzy”. „Wiedza”, jaką posługują się modelowe podmioty (tudzież centralny planista), ma niewiele wspólnego z wiedzą osobistą, na podstawie której jednostki układają swoje plany i podejmują decyzje. Wykażemy to w dalszej części rozdziału. Teraz jednak spróbujemy odpowiedzieć na ważne dla nas pytanie: dlaczego ekonomia tak zaciekle broni się przed wiedzą?

Urok Newtona. Problem wiedzy w naukach społecznych a urok Newtona

Począwszy od XVI wieku, kierunki zmian, jakie dokonały się w sposobie postrzegania świata oraz w systemach metodologicznych, wyznaczały rozwój nauk przyrodniczych. Szczególną rolę w tym względzie odegrała fizyka. Owe zmiany znacznie wykroczyły poza obszar badań należący do „królowej nauk”. W czasie jednego stulecia nowożytna fizyka odcisnęła piętno na większości dyscyplin przyrodniczych, społecznych[10], a nawet na sztuce i literaturze[11].

W okresie oświecenia silniej ugruntował się wyznawany już wcześniej pogląd, że „wiedzę” należy łączyć tylko ze sferą badań, rozwoju i przekonaniami naukowców:

w ciągu wieków większość filozofów „wiedzą” — a tym bardziej „nauką” — skłonna była nazywać jedynie takie poglądy, które byłyby nie tylko prawdziwe, ale o których wiedzielibyśmy, że takie są. Nie wystarczy prawda odgadnięta szczęśliwym trafem — nauka to zbiór twierdzeń dowiedzionych (Sady 2008, s. 5).

Wiedza została utożsamiona znaczeniowo z nauką; słowa „nauka” oraz „wiedza” często stosowano zamiennie. Zgodnie z Kartezjańskim racjonalizmem (później nieco złagodzonym przez Kanta i praktykę naukową) tradycja, obyczaj, skumulowane doświadczenie — jako słabo lub w ogóle nieuzasadnione rozumowo — tracą swój sens. Zasadność „wiedzy praktycznej” czy „osobistej” została zakwestionowana, ponieważ jej prawdziwości, a dokładniej, prawdziwości logicznych przesłanek działania, nie potrafiono udowodnić.

Co więcej, „wiek rozumu” przyniósł ważne rozstrzygnięcia w sferze filozofii nauki: od tej pory jedyne słuszne i akceptowane w środowisku naukowym odpowiedzi na pytania: „W jaki sposób należy poszukiwać takiej wiedzy?” oraz „Jak odróżnić prawdę od fałszu?” odnajdywano w systemie wypracowanym przez fizyków i matematyków. Coś, co w jakiś istotny sposób nie przypominało systemu Newtonowskiej mechaniki lub z niej nie wynikało, nie tylko nie zasługiwało na miano wiedzy lub nauki, ale w ogóle nie było przedmiotem uwagi:

(…) system mechaniki zyskał, w powszechnej opinii, status wzorcowej teorii naukowej: jeśli odtąd jakakolwiek teoria miała pretendować do miana naukowej, to musiała pod pewnymi istotnymi (choć nie zidentyfikowanymi wyraźnie) względami przypominać Newtonowską mechanikę (Sady 2008, s. 7).

To, że powszechnie i mocno wierzono w fizykę oraz w wypracowane przez fizyków narzędzia i metody poznawania rzeczywistości, nie wzięło się stąd, że owi reprezentanci nauk przyrodniczych byli wyjątkowo porywającymi osobowościami i mieli dar perswazyjnej retoryki, ani nie było rezultatem rzeczowej i spójnej pod względem logicznym argumentacji filozofów nauki oraz samych naukowców[12].

Metody te stały się tak atrakcyjne, gdyż dowiodły swojej — wręcz niebywałej i bezprecedensowej w historii ludzkiego poznania — przydatności praktycznej w wyjaśnianiu rzeczywistości materialnej. W rezultacie ich stosowania naukowcy świętowali nieprzerwane pasmo sukcesów w objaśnianiu i prognozowaniu zjawisk przyrodniczych (określane niekiedy mianem „wielkiej rewolucji naukowej”). W przeciągu zaledwie jednego stulecia ukształtowało się oblicze nowożytnej nauki. O jej wyrazie zdecydowały wnikliwe obserwacje nieba prowadzone przez Tychona Brahe i Galileusza oraz nowatorskie, antyanimistyczne, fizyczne koncepcje Keplera, odkrycia Bernoulliego, Laplace’a, Huygensa, Boyle’a czy Hooke’a, a także najprawdopodobniej najważniejsze dokonanie — sformułowanie prawa ruchu i powszechnego ciążenia przez Newtona.

Nawet w dobie romantyzmu, który za sprawą literatury tamtego okresu kojarzy się raczej z porywami serca niż afirmacją nauki, jak przekonuje Kochanowska (1998):

Intelektualiście angielskiemu i niemieckiemu (…) nie wypadało pozostawać obojętnym na najnowsze osiągnięcia fizyki, biologii czy geografii. Nawet ci, którzy nie mogli się poszczycić odpowiednim dyplomem, czynili starania, by zaznajomić się bliżej z naukami matematyczno-przyrodniczymi.

Wielu z nich, np. Schlegel czy Goethe, słynęło z bardzo rozległych zainteresowań naukowych[13].

Artystów romantycznych oczarowała nauka. Znalazłszy się pod wpływem jej oszałamiających sukcesów, uważali, że wykorzystując niektóre z nich, zdołają przeniknąć zagadkę życia czy zrozumieć przeznaczenie świata. O ile tę ich fascynację moglibyśmy uznać za „poetyckie mrzonki”, całkiem nieistotne dla toku naszego wywodu, o tyle podobne w swym charakterze (a niekiedy także co do treści) rozważania naukowców nie mogą ujść naszej uwagi.

Jak wspomniano, sukcesy mechanistycznego sposobu rozumowania doprowadziły uczonych i filozofów do przekonania, że mechanika klasyczna stanowi podstawę nie tylko fizyki, ale też nauki w ogóle. Co więcej, we wszechświecie poddanym prawom Newtona nie było miejsca na przypadek, a przynajmniej nie w takim sensie, w jakim za przypadek uznaje się wynik rzutu symetryczną monetą. Laplace twierdził z pełnym przekonaniem, że gdyby idealnemu rachmistrzowi dostarczyć parametry określające położenie wszystkich cząstek uniwersum, mógłby bezbłędnie przewidzieć jego przyszłość oraz poznać przeszłość. Liczne interpretacje oraz analizy doktryny Laplace’a czy też systemu Newtona (niekiedy zbyt daleko idące i nie zawsze zgodne z intencjami samych twórców)[14] istotnie wsparły koncepcję „kompletności nauki”, stanowiącą wyraz wiary w to, że nauka zbliża się do rozwiązania swoich zadań i że wkrótce poznamy wszystkie odpowiedzi (Shattuck 1999, s. 63).

Artyści, przedstawiciele nauk przyrodniczych i społecznych — poza nielicznymi wyjątkami — ulegli urokowi Newtona. Kolejne dziedziny uzyskiwały status nauki: wystarczyło je upodobnić do dyscypliny twórców technicznego sukcesu.

Urok Newtona oznaczał zatem fascynację uczonych oraz intelektualistów systemem mechaniki. W świetle triumfu ludzkiej myśli nad przyrodą — fascynację naturalną i zrozumiałą. Często jednak dzieje się tak, jak to trafnie zaobserwował Hayek (2002b, s. 101):

Nigdy człowiek głębiej nie pogrąży się w błędzie niż wtedy, gdy dalej podąża drogą, która doprowadziła go do wielkiego sukcesu. Nigdy też duma z osiągnięć nauk przyrodniczych (…) nie mogła być bardziej uzasadniona niż na przełomie XVIII i XIX wieku.

W przeciągu stu lat urokowi Newtona ulegli również przedstawiciele nauk społecznych (w szczególności ekonomiści) i wstąpili na drogę wytyczoną przez fizyków, wierząc zapewne w to, że tym sposobem będą mieli choćby niewielki udział w sukcesie swoich kolegów przyrodników. W rezultacie zaczęto niemal bezkrytycznie stosować w analizie ludzkich działań „fizyczne” schematy oraz sposoby opisu przyrody.

Najważniejsze pytanie — z perspektywy poruszanych tu zagadnień — nadal jednak pozostaje bez odpowiedzi: Dlaczego, jak twierdzimy, fizykalistyczny sposób uprawiania ekonomii oznacza, de facto, odsunięcie problematyki wiedzy na dalszy plan? Podejmiemy teraz próbę rozstrzygnięcia tej kwestii.

Wydaje się, że dokładnie to, co stało za sukcesem fizyki i spektakularnymi osiągnięciami rewolucji naukowej, w sporej mierze przyczyniło się do zastoju w naukach społecznych, który — nie będzie to stwierdzenie szczególnie ryzykowne — trwa nadal. W tendencji do ignorowania problematyki wiedzy w ekonomii upatrujemy ważną przyczynę i jeden z syndromów tego zastoju.

Nie chodzi nam o to, że nauki społeczne zostały nagle przyćmione blaskiem fizyki i przestały cieszyć się zainteresowaniem oraz poważaniem naukowców, gdyż stało się dokładnie na odwrót: ów blask spłynął na ekonomię, dzięki czemu uzyskała ona status „prawdziwej nauki”. Nie mamy też na myśli spowolnienia pojawiania się nowych koncepcji ekonomicznych, przeciwnie — nastąpił wówczas ich prawdziwy wysyp. Nowe idee, czerpane wprost z fizyki i tworzone per analogiam doprowadziły do wybuchu „rewolucji marginalistycznej” i intensywnego rozwoju szkoły neoklasycznej (por. Kwaśnicki 2005), której piętno ekonomia — przynajmniej w swym głównym nurcie — nosi do dziś (por. Blaug 1994, s. 589; Leszek 2009b). Zastój w ekonomii należy rozumieć w tym sensie, że nasza wiedza o funkcjonowaniu systemu społeczno-gospodarczego nie powiększyła się istotnie od czasów Richarda Cantillona i Adama Smitha, a już na pewno nie tak, jak moglibyśmy tego oczekiwać, przyglądając się z zazdrością osiągnięciom przyrodników. Jak zauważył Mayer (1996, s. 12–15), z każdym rokiem badaniom ekonomicznym poświęcamy więcej godzin niż przez całe stulecie 1776–1876, a przy tym dysponujemy nieporównywalnie lepiej rozwiniętym aparatem matematycznym i większą ilością danych. „Czy nasza wiedza wzrosła współmiernie do tego?” — pyta Mayer, by natychmiast samemu sobie odpowiedzieć: „zapewne nie!” (Mayer 1996, s. 12).

Zanim fizyka odniosła swoje największe sukcesy i zanim, za sprawą tych osiągnięć, metody fizyki wyniesiono na epistemologiczny piedestał, naukowcy musieli odrzucić — co dokonywało się stopniowo — niektóre idee stanowiące istotną przeszkodę w jej rozwoju. Hayek twierdził, iż

Nauka[15] musiała wywalczyć ten swój sposób myślenia w starciu z obrazem świata, zbudowanym w większości z pojęć powstałych na tle naszych stosunków z innymi ludźmi i w interpretacji ich działań (Hayek 2002b, s. 15).

Stąd też, mając na uwadze, że nauki społeczne — zgodnie z tym, co sugeruje ich nazwa — badają społeczeństwo, czyli właśnie sieć wzajemnych stosunków między ludźmi, w pełni zgadzamy się z Hayekiem, iż w walce, o której pisał,

nauka mogła się tak rozpędzić, iż wykroczyła poza początkowy cel, i powstała sytuacja, w której niebezpieczeństwo jest wprost przeciwne — dominacja scjentyzmu zagraża postępowi w rozumieniu społeczeństwa (Hayek 2002b, s. 15)[16].

Do największych przeszkód, które badacze odrzucili — co bezpośrednio poprzedziło rewolucję naukową — należały:

  1. a) zwyczaj kierowania większości wysiłków badawczych na analizę idei innych ludzi (zazwyczaj starożytnych filozofów), tak jak gdyby ich sądy i opinie od początku miały zawierać w sobie całą prawdę o rzeczywistości;
  2. b) kultywowany od najdawniejszych czasów i wszechobecny w myśli ludzkiej antropomorfizm oraz animizm (anima mundi).

Pierwsza z powyższych kwestii nie wymaga obszerniejszych wyjaśnień, skoncentrujemy się więc na drugiej. Antropomorfizm stanowił integralną część ówczesnego światopoglądu, natomiast w kontekście epistemologii oznaczał, że człowiek rozpoczynał analizę zjawisk poprzez interpretację ich na swoje podobieństwo, tzn. jako ożywione przez jakiś umysł, z konieczności podobny do jego własnego umysłu[17]. Innymi słowy, tłumaczono zjawiska przyrodnicze, stosując analogię do funkcjonowania ludzkiego umysłu, co zwykle oznaczało, że dopatrywano się w nich skutków celowego działania jakiejś świadomości. Najbardziej oczywiste przykłady antropomorfizmu odnajdujemy w przednaukowych systemach kosmologicznych: od starożytności po późne średniowiecze ciałom niebieskim (bądź „poruszycielom” tych ciał) przypisywano świadomość, wolę, wiedzę, a nawet organy zmysłów. Dopiero w czasach Keplera i Kartezjusza dusza poruszająca, anima motrix, stopniowo poczęła przeradzać się w siłę poruszającą, vis motrix (por. Koestler 2002, s. 19–25, 255, 337–340;Hayek 2002b, s. 15–16). Jeżeli współczesnym niełatwo jest pojąć istotę „rozumnej materii”, to dzieje się tak właśnie dlatego, że już dawno odrzuciliśmy taki sposób postrzegania świata i przyjęliśmy całkiem odmienny, ten zaproponowany parę wieków temu przez nauki przyrodnicze. Zauważmy, że pionierzy nowożytnej fizyki musieli uporać się z niemal dokładnie tym samym problemem: z jego lustrzanym odbiciem. Samo wyobrażenie sobie stosunków fizycznych — w kategoriach pozbawionych celu, bezosobowych sił — dla nas tak oczywiste, dla nich było wielkim intelektualnym wyzwaniem. W jednym z listów napisanych przez Keplera odnajdujemy taką deklarację:

Za cel stawiam sobie pokazanie, że machina niebieska nie jest rodzajem boskiej, żywej istoty, lecz rodzajem mechanizmu zegarowego (a ten, kto wierzy, że zegar ma duszę, przypisuje dziełu chwałę twórcy), z tym, że niemal wszystkie spośród rozmaitych ruchów są spowodowane działaniem niezwykle prostej, magnetycznej i materialnej siły, tak samo jak ruchy zegara są spowodowane działaniem zwykłego ciężarka. Pokazuję również, w jaki sposób należy wyrazić te siły liczbowo i geometrycznie (list Keplera do Herwarta z lutego 1605, cyt. za: Koestler 2002, s. 337–338).

Zgadzamy się z Koestlerem (2002, s. 338), iż w powyższym fragmencie została wyrażona istota rewolucji naukowej.

Rozbrat umysłu z materią, wraz z jednoczesną negacją starożytnych idei jako nośników transcendentalnych i ponadczasowych prawd, oznaczał, po pierwsze, odrzucenie wszelkich koncepcji, które zawierały wyjaśnienie takiego a nie innego zachowania pewnych elementów rzeczywistości materialnej w kategoriach ich celowego działania, opartego na ludzkiej percepcji świata. Po drugie, wyznaczył on nowy cel nauce: badanie (obserwacja) „martwych” obiektów i bezosobowych relacji pomiędzy nimi przez poznawanie jedynie ich „zewnętrznych” przejawów, czyli „obiektywnych” właściwości fizycznych, a następnie ich klasyfikacja ze względu na te właściwości. Doprowadziło to do tego, czego już w XVI wieku domagał się Francis Bacon, a mianowicie do dalszej eliminacji z rozważań o przyrodzie „pierwiastka ludzkiego” i przezwyciężenia słabości ludzkiego umysłu, ulegającego różnym złudzeniom.

Mówiąc krótko, celem nauki stało się poznawanie rzeczywistości takiej, jaka ona jest, nie zaś takiej, jaka myślimy, że jest — a co więcej — nie takiej, jakiej ogląd pierwotnie dostarczają nam nasze zmysły w doświadczeniu. Jak zauważył Hayek:

świat, którym interesuje się Nauka, nie jest światem naszych ustalonych pojęć czy nawet wrażeń zmysłowych. Jej zadaniem jest wytworzenie nowej organizacji całego naszego doświadczenia świata zewnętrznego i w tym celu musi ona nie tylko przemodelować nasze pojęcia, lecz także odejść od jakości zmysłowych oraz zastąpić je odmienną klasyfikacją zdarzeń. Obraz świata, który człowiek sobie faktycznie ukształtował i którym się dość dobrze kieruje w codziennym życiu, oraz ludzkie postrzeżenia i pojęcia nie są dla Nauki przedmiotem badań, lecz niedoskonałym narzędziem, które trzeba poprawić (Hayek 2002b, s. 21).[18]

Większość wysiłków podejmowanych przez naukowców przynajmniej od XVIII wieku podporządkowano osiągnięciu celu, o którym pisał Hayek. Podobnie rzecz się ma ze wszystkimi narzędziami, schematami myślowymi i koncepcjami, wykorzystywanymi przez badaczy przyrody z tak wielkim powodzeniem. Do ich sukcesu przyczyniło się to, że w toku rozwoju nauki zostały one odpowiednio dobrane (w sposób świadomy lub nie) pod kątem ich przydatności we wspieraniu owych wysiłków.

Skutki ich bezkrytycznego rozciągnięcia na nauki społeczne, zwłaszcza na ekonomię, są dzisiaj łatwo dostrzegalne. Podążanie ekonomii śladami fizyki oznacza, między innymi, prymat myślenia, „jak jest rzeczywiście”, i wynikających stąd konsekwencji nad tym, „jak myślimy, że jest”, i wniosków płynących z takiego ujęcia. Problem polega na tym, że w naukach zajmujących się badaniem elementów przyrody materialnej takie rozróżnienie nie istnieje — w tym sensie, iż ze względu na ustalony w czasie „rewolucji naukowej” charakter przedmiotu badań jest ono tak oczywiste i naturalne, że nikt się nawet nad nim nie zastanawia. Tymczasem w ekonomii, podobnie jak w fizyce, w zasadzie również ono nie istnieje, chociaż obiekt badań, jakim jest jednostka ludzka, istotnie różni się od planety czy atomu (por. Mises 2007, s. 1–60). Podstawowe różnice sprowadzają się do tego, że podmioty rynku posiadają umysły podobne do umysłu badacza oraz — co tutaj interesuje nas nawet bardziej — działają na podstawie swojej wiedzy i potrafią się uczyć. Wprawdzie nawet Kepler — jeden z ojców rewolucji naukowej — przypisywał planetom posiadanie wiedzy dotyczącej ich położenia w przestrzeni (Koestler 2002, s. 339), jednak od czasów Newtona taki pogląd uznawany jest za anachronizm[19]. Nowoczesne sposoby rozumowania po prostu nie biorą pod uwagę takiej ewentualności: badaniu podlega sam obiekt, taki, jakim jest, natomiast — co oczywiste — badaniu nie podlega wrażenie tego obiektu o sobie samym lub o innych obiektach. Fizycy mogą odkrywać prawa przyrody i formułować je według następującego schematu: „Jeżeli wystąpią takie czy inne obiektywne i obserwowalne fakty (okoliczności), badane zjawisko (lub obiekt) zachowa się w taki czy inny sposób”. W takim sensie układ faktów determinuje określone zjawisko. Jeśli badacz tylko rozpozna ten układ (odkryje te „obiektywne” fakty) oraz ich powiązanie z badanym zjawiskiem, będzie mógł, z ogromnym prawdopodobieństwem, przewidzieć jego rozwój.

Tymczasem w naukach społecznych badaczowi w celu wytłumaczenia określonego zachowania podmiotów rynku nie wystarczy znajomość „obiektywnych” czy „stylizowanych” faktów (typu: wielkość PKB, cena produktu, jakość produktu czy treść rozporządzenia ministra finansów itp.). Niekiedy takie „obiektywne” fakty nie wpływają na zachowanie jednostki na rynku. Jeżeli w ogóle możemy mówić o tym, że zachowanie człowieka jest jakoś „zdeterminowane”, to czynnikiem determinującym nie będą „obiektywne” fakty, ale to, co ten człowiek o nich wie i jak — zgodnie z tą wiedzą — je interpretuje. Zatem w naukach społecznych fakty, od których wychodzi badacz w swej analizie, obejmują (a raczej winny obejmować) także opinie i poglądy podmiotów rynku. Zasadniczo, ważniejsze są atrybuty, jakie ludzie przypisują danym obiektom i sytuacjom, niż „prawdziwe”, tj. obiektywne, cechy i właściwości tych obiektów i sytuacji (por.: Hayek 1998, s. 42–88; idem 2002b, s. 15–48).

Podsumujmy nasz dotychczasowy wywód. Jak wspomnieliśmy we wstępie, współczesna ekonomia głównego nurtu ignoruje bądź niepoprawnie określa problematykę wiedzy, co ma negatywny wpływ na jakość teorii formułowanych przez ekonomistów. Za przyczynę takiego stanu rzeczy uznaliśmy przede wszystkim specyficzne „fizykalistyczne” stanowisko epistemologiczne i metodologiczne badacza-ekonomisty. Sukcesy mechanistycznego sposobu wyjaśniania rzeczywistości materialnej doprowadziły uczonych do przekonania, że jest to jedyne słuszne podejście do problemu badawczego, i to bez względu na przedmiot badań. Ponadto wskazaliśmy źródło tendencji do „obiektywizowania” wiedzy, tj. utożsamiania jej z poglądami naukowców, co z kolei znalazło wyraz w różnych próbach „ucieleśnienia” wiedzy, na przykład pod postacią parametru opisującego postęp technologiczny w modelu wzrostu gospodarczego. Uważamy, że takie „makroekonomiczne” ujęcie może być bardzo przydatne[20]. Jest jednak możliwe, że tendencja, o której tu mowa, dodatkowo odwróciła uwagę ekonomistów od odmiennej w swym charakterze „wiedzy osobistej”, którą jednostki kierują się w swoich decyzjach.

Krótko mówiąc, w pierwszej części staraliśmy się zidentyfikować ułomność teorii ekonomicznej głównego nurtu na poziomie fundamentalnym, tj. na poziomie idei mówiącej o niemal bezgranicznych możliwościach stosowania schematów mechanistycznych w naukach społecznych. Gdy się przyjrzeć w tym świetle wysiłkom zmierzającym do usprawnienia teorii, które polegają na wprowadzaniu do fizykalistycznych modeli kosmetycznych zmian (np. ustanawiania zależności probabilistycznych w miejsce funkcyjnych czy dodawania parametrów określających „wiedzę niedoskonałą”), można mieć uzasadnione wątpliwości, czy są one właściwie ukierunkowane.

W drugiej części rozdziału polemizujemy z konkretnymi rozwiązaniami, jakie oferuje nam współczesna teoria ekonomii głównego nurtu.

Bunt przeciwko wiedzy doskonałej: wiedza rozproszona i niepewność

W rzeczywistym świecie dysponowanie pewnymi informacjami (lub ich brak) przesądza o ekonomicznych wyborach dokonywanych przez podmioty rynku (co w konsekwencji może określać sposób funkcjonowania całych rynków). Niezależnie od tego — jak by się mogło wydawać — banalnego spostrzeżenia kwestie związane z problematyką wiedzy nie stanowią ważnego przedmiotu rozważań teoretycznych. Od czasów tzw. rewolucji marginalistycznej w XIX wieku, kiedy ekonomia uległa wpływowi nauk przyrodniczych, były one zbywane założeniem o wiedzy doskonałej. W powszechnej interpretacji postulat ten oznacza, że badacz przyjmuje, iż ludzie podejmują decyzje ekonomiczne w taki sposób, jak gdyby znali wszystkie fakty, które w rzeczywistości mogłyby mieć wpływ na te decyzje[21].

Dopiero w XX wieku Hayek — podczas zapoczątkowanej przez Misesa debaty nad sprawnością gospodarki socjalistycznej — poruszył problem wiedzy, nadając mu fundamentalne znaczenie (por. Kostro 2001, s. 117–163; Godłów-Legiędź 1992, s. 209–241).

„Debata kalkulacyjna” była jednym z najważniejszych epizodów w historii myśli ekonomicznej (por. Kirzner 1988). Ludwig von Mises rzucił w jej trakcie wyzwanie teoretykom socjalizmu: bez własności prywatnej nie ma rynku dóbr kapitałowych, bez rynku nie ma cen. Nie jest zatem możliwa kalkulacja ekonomiczna, która z kolei stanowi podstawę racjonalnej (efektywnej) alokacji kapitału (Mises 1990). Teoretycy socjalizmu, niejako w odpowiedzi na ten argument, adaptowali do własnych celów neoklasyczne narzędzie, pozwalające im imitować bodźce rynkowe: mechanistyczny model równowagi ogólnej. Zaczęło ono służyć do opisu funkcjonowania kolektywnej gospodarki planowej. Z jego pomocą można było ustalić ceny równoważące popyt i podaż w skali całego „rynku”, i to bez konieczności odwoływania się do określonych transakcji rynkowych. Uczestnikom debaty umknęła ważna sprawa, że pojęcia ceny w rozumieniu neoklasycznym oraz ceny rynkowej, poza samym określającym je terminem, nie mają ze sobą wiele wspólnego (por. Machaj 2009), co sprawiło, że szala zwycięstwa w sporze przechyliła się na korzyść socjalistów. Wykazali oni (przynajmniej w mniemaniu opinii publicznej, na gruncie „obowiązującego” wówczas, neoklasycznego paradygmatu), że jednak istnieje aparat teoretyczny umożliwiający optymalną alokację zasobów w gospodarce planowej.

W sukurs Misesowi przyszedł Hayek. Swoje stanowisko w debacie zawarł w kilku artykułach[22], wskazując w nich na istnienie dotychczas pomijanego, a przy tym bardzo ważnego aspektu analizy ekonomicznej: problemu wiedzy. Nawet gdyby teoria neoklasyczna wskutek nadmiernego uproszczenia, nie fałszowała natury rynku, to i tak planista do skonstruowania modelu naśladującego gospodarkę musiałby dysponować wiedzą, której nie zdołałby posiąść. Musiałby mianowicie poznać wszystkie parametry określające poprawnie stan systemu społeczno-gospodarczego w określonym czasie. Podobnie jak fizycy nie są w stanie (przynajmniej dziś) pozyskać informacji dotyczących położenia wszystkich cząsteczek materii, nie jest też możliwe, by jakikolwiek człowiek (w tym planista) poznał całość współczynników charakteryzujących system społeczno-ekonomiczny. W szczególności nie będą dla niego dostępne takie parametry, które by wiernie pokazywały gusty, preferencje, wiedzę oraz działania poszczególnych ludzi. Nie będzie także mógł zgromadzić wielu innych informacji, które decydują na przykład o indywidualnym charakterze każdego urządzenia wykorzystywanego w produkcji dóbr (choćby o stopniu zużycia poszczególnych maszyn w gospodarce, por. Hayek 1998, s. 173–176). Wiedza jest bowiem rozproszona i nie poddaje się agregacji:

Suma wiedzy wszelkich jednostek nigdzie nie istnieje jako integralna całość. Wielki problem polega na tym, w jaki sposób możemy wszyscy korzystać z tej wiedzy, która występuje tylko w rozproszeniu jako oddzielne, cząstkowe i niekiedy sprzeczne przekonania wszystkich ludzi. (Hayek 2007, s. 38)

Nawet jeśli się przyjmie całkowicie nierealistyczne założenie, że wymagane dane zostałyby w jakiś sposób zgromadzone, jest to niewystarczające, aby móc skutecznie zarządzać gospodarką. Pozostawałyby jeszcze problemy związane z ich opracowaniem i podejmowaniem decyzji na podstawie tych danych. Z matematycznego punktu widzenia znalezienie warunków równowagi modelu równowagi ogólnej nie stanowiłoby żadnego problemu. W praktyce rozwiązanie układu liczącego miliardy lub nawet biliony równań byłoby barierą nie do pokonania. Hayek był zdania, że algorytmy, które wskazano jako rozwiązanie problemu alokacji, nie mają sensu, gdyż ich złożoność pozbawia je obliczalności praktycznej (Hayek 1998, s. 171, 175).

Teorie ekonomiczne oraz ilustrujące je modele są konstruowane na podstawie określonych zespołów danych. Hayek zwrócił uwagę na to, że słowo „dane” było nader często (choć zwykle nieświadomie) nadużywane przez ekonomistów. Dane to pewne elementarne, niekiedy szczątkowe sygnały, których znamienną cechą jest to, że są one dane, czyli dostępne i przedstawione w postaci umożliwiającej ich dalszą analizę. Hayek jako pierwszy zadał pytanie: „Komu te fakty mają być dane?” (Hayek 1998, s. 48). Zauważył ponadto, że kwestia ta zawsze budziła podświadomy niepokój ekonomistów. Świadczyć o tym może stosowanie przez nich pleonazmów typu given data, jako rodzaju zabezpieczenia przed trapiącymi ich wątpliwościami. Samo podkreślanie tego, że dane są dane, nie rozstrzyga przecież zasadniczej kwestii, o której pisaliśmy w pierwszej części rozdziału: czy są to „obiektywne” fakty dane ekonomiście obserwatorowi, czy może osobom, których działanie chce on wyjaśnić? Czy te same zespoły danych są znane wszystkim? Czy fakty składające się na wiedzę poszczególnych jednostek są zależne od percepcji tych osób, a wiec mają charakter subiektywny, czy też nie?

Samo przedstawienie problematyki wiedzy ekonomicznej z takiej perspektywy natychmiast demaskuje absurd idealizacyjnych założeń leżących u podstaw wielu współczesnych teorii ekonomicznych. Należy bowiem podkreślić, że choć nasza krytyka bezpośrednio wymierzona jest w mechanistyczną teorię neoklasyczną, to rykoszetem godzi w główny nurt współczesnej ekonomii. Jak zauważył M. Blaug (1994, s. 589):

Kiedy użalamy się nad formalizmem Walrasa, musimy również pamiętać, że cała prawie dzisiejsza teoria ekonomii jest teorią Walrasowską. Niewątpliwie, współczesne teorie pieniądza, handlu międzynarodowego, zatrudnienia i wzrostu są teoriami równowagi ogólnej w uproszczonej postaci (…) Na całą współczesną teorię mikro- i makroekonomiczną można patrzeć jako na rozmaite sposoby wyposażania analizy równowagi ogólnej w przydatność operacyjną (…).

Jak wspomniano, istnieje bardzo wiele przeszkód, jakie ekonomista musiałby pokonać na drodze do stworzenia takiego modelu rynku, który dawałaby mu możliwość poprawnej ilościowej predykcji zdarzeń (lub takiej jego imitacji, na której planista mógłby oprzeć swój plan). Trudność związana z koniecznością posiadania wiedzy niemożliwej do zdobycia to jedna z nich.

Wiedzy, którą posiłkują się jednostki w procesach rynkowych, nie da się bowiem połączyć w jeden zwarty zbiór. Posługując się terminami „wiedza społeczeństwa” czy „wiedza społeczna”, zawsze należy pamiętać, że mają one znaczenie metaforyczne, tzn. że wiedza, o której mowa, w rzeczywistości nigdy nie występuje w postaci skoncentrowanej, lecz jako fragmenty niepełnych i często sprzecznych ze sobą informacji. Wiedza, którą ekonomiści często przyjmują za daną, jest w istocie rozproszona pomiędzy podmioty gospodarujące, toteż jej agregacja okazuje się niemożliwa. Nie stanowi ona ponadto z góry określonego i zamkniętego zespołu informacji potrzebnych do prowadzenia działalności gospodarczej i podejmowania decyzji ekonomicznych, ale dzięki konkurencji jest ona dopiero odkrywana i przyswajana w trakcie procesu gospodarczego przez poszczególne jednostki (Hayek 2002a). Nie chodzi więc jedynie o absurdalny wymóg zgromadzenia niewyobrażalnie wielkiego zasobu wiedzy w pojedynczych umysłach. Zauważmy, że lepsze rozwiązania techniczne często powstają jako rezultat zetknięcia się przedsiębiorcy z nowymi okolicznościami, których nie da się określić z góry. Zatem uwzględnienie wiedzy technicznej i jej rozwoju przez neoklasycznego ekonomistę nie sprowadza się tylko do kwestii jej zgromadzenia, przyswojenia i zmaterializowania w postaci równań i parametrów modelu. Musiałby on być zdolny do samodzielnego odkrywania wiedzy tego rodzaju (ewentualnie zainstalować w swoim modelu jakiś cudowny mechanizm jej odkrywania).

Tradycja intelektualna w filozofii i nauce dominująca w XVIII i XIX wieku znalazła swój wyraz między innymi w głębokiej i niepodważalnej wierze w naukę i racjonalny umysł. Nawet ci spośród badaczy społecznych, którzy dostrzegali problem wiedzy, przywiązywali wagę jedynie do wiedzy naukowej lub technicznej wiedzy ekspertów oraz — co stanowiło tego konsekwencję — do skutków jej posiadania bądź braku. Zaledwie pół wieku temu Hayek poczynił następujące spostrzeżenie: „w dzisiejszych czasach sugestia, że wiedza naukowa nie jest sumą wszelkiej wiedzy, brzmi niemal jak herezja” (Hayek 1998, s. 92).

W chwili gdy Austriak pisał te słowa, wybitny węgierski uczony i filozof Michael Polanyi wnikliwie analizował przyczyny oraz konsekwencje tego, że poza wieloma innymi swoimi ograniczeniami nasz umysł funkcjonuje w sposób, który wyklucza możliwość zamiany w słowa, w tekst czy w jakąkolwiek inną wyartykułowaną formę większości posiadanej przez nas wiedzy. Jak twierdził Polanyi, „całkowicie wyartykułowana wiedza jest nie do pomyślenia” (1969, s. 144), co w innym miejscu wyraził w słowach: we can know more than we can tell (Polanyi 1983, s. 4).

Co więcej, wiedza ukryta (tacit knowledge) ma charakter podstawowy w stosunku do wiedzy zwerbalizowanej. Zarówno z punktu widzenia genezy wiedzy, jak i jej funkcjonowania, wiedza zwerbalizowana jest uzależniona od reguł, które są znane określonemu podmiotowi działania w formie czynnościowej, a reguły te nie muszą lub nie mogą być ujęte w formie pojęciowej. Znaczna część naszej wiedzy pozostaje zatem z konieczności subiektywna i nieuświadomiona (np. Polanyi 1969, s. 144). To oczywiste, że ekonomista lub planista nie może jej w żaden sposób wykorzystać.

W naturze człowieka leży chęć odkrywania prawidłowości otaczającego go świata oraz — co prawdopodobnie się z tym łączy — instynktowna obawa przed tym, co nieznane i nieprzewidywalne. Chociaż starożytne mitologiczne kosmologie często wywodziły świat z chaosu, to on sam był już opisywany jako stabilny i przewidywalny, zaprojektowany z rozmysłem i celowo. Przez tysiąclecia panował pogląd, że świat funkcjonuje według pewnych ścisłych, deterministycznych reguł, a zadaniem nauki winno być ich odkrywanie. W niektórych epokach lęk przed nieznanym okazywał się tak silny (albo pycha tak wielka), że naukowcy i filozofowie zamiast odkrywać owe prawa, często je „wynajdywali” (na przykład: doskonały i niezmienny Platoński świat idei, dogmat koła i ruchu jednostajnego, antropomorfizm, wiara w opatrzność i przeznaczenie czy nieubłagane prawa historycznego rozwoju oraz wiele innych).

Świat po rewolucji naukowej był pod tym względem miejscem bardzo atrakcyjnym: pozwalał intelektualistom zapomnieć o niepewności i nakarmić pychę rozumu. We wszechświecie poddanym prawom Newtona nie ma miejsca na czysty przypadek. Laplace twierdził z pełnym przekonaniem, że gdyby doskonałemu rachmistrzowi dostarczyć dane określające położenie wszystkich cząstek uniwersum, to — wykorzystując sformułowane przez Newtona prawa ruchu i ciążenia — mógłby bezbłędnie przewidzieć przyszłość świata oraz poznać jego przeszłość:

rozpatrzmy inteligencję, która znałaby, w danej chwili, wszystkie działające w przyrodzie siły i wzajemne położenie wszystkich elementów przyrody (…) i wystarczająco rozległą, aby te dane poddać analizie. (…) Dla takiej inteligencji nic nie byłoby nieznane, przyszłość, podobnie jak przeszłość, jawiłaby się jej oczom (…) Odkrycia [ludzkiego umysłu] w mechanice i geometrii, w połączeniu z odkryciem prawa powszechnego ciążenia, umożliwiły mu poznanie w takich samych kategoriach analitycznych przeszłych i przyszłych stanów świata (Laplace 1995, s. 2).

Wprawdzie Laplace dodał, iż osiągnięcie takiego absolutu jest niemożliwe, ale równocześnie przekonywał, że podejmowane przez człowieka wysiłki poznawcze (w obrębie systemu mechaniki) wiodą go konsekwentnie ku opisanej przez niego „inteligencji” (Laplace 1995, s. 2, 3 i passim)[23].

Owego rachmistrza czy też „inteligencję” — hipotetyczną postać posiadająca doskonałą wiedzę — nazwano później „demonem Laplace’a” oraz uczyniono zeń symbol filozofii fatalizmu i determinizmu. Świat widziany przez pryzmat neoklasycznej teorii ekonomii podobny jest do deterministycznego świata Newtonowskiego, a zamieszkujący go ludzie — dysponując całą „doskonałą” wiedzą — przypominają demony Laplace’a. O ile jednak fizyczna doktryna Newtona–Laplace’a dowiodła swej ogromnej użyteczności w praktyce, to jej ekonomiczny odpowiednik jest po prostu zbiorem formalizmów pozbawionych głębszej treści i przydatności do opisu rzeczywistości gospodarczej.

Nawet pobieżny przegląd XX-wiecznej literatury ekonomicznej pokazuje, że w pierwszej połowie stulecia nastąpiła wyraźna — choć, jak uważamy, niewiele wnosząca do naszego rozumienia rynku — zmiana w badawczej perspektywie głównego nurtu. Część ekonomistów podjęła wysiłek teoretycznego ujęcia niepewności i ignorancji, które towarzyszą gospodarczej aktywności człowieka. Zapoczątkowane wówczas próby trwają do dziś.

Zmianę tę możemy wytłumaczyć, wskazując na zjawisko, które opisaliśmy w pierwszej części artykułu: znowu chodzi o wpływ, jaki nauki przyrodnicze wywierają na kształt i charakter nauk społecznych.

Na początku XX wieku fizykę dotknął kryzys. Fizycy coraz śmielej zaczęli naruszać fundament swojej nauki — system mechaniki. Już pod koniec XIX wieku mnożyły się odkrycia, z którymi nie umiano sobie poradzić za pomocą koncepcji klasycznych. Wobec zaskakujących wyników doświadczeń i eksperymentów zaczęto podważać podstawy teoretyczne oraz metodologiczne, na jakich dotychczas opierała się nowożytna fizyka. Mamy tu przede wszystkim na myśli tezy Bohra o indeterminizmie w przyrodzie mikrofizycznej (atomowej), a także epistemologiczne rozważania Heisenberga (zasada nieoznaczoności), które, jak twierdzą niektórzy, były zdecydowanie sprzeczne z wizją Laplace’a[24] (por. Jakubowski 1997, s. 123–125; Tatarkiewicz 2009, t. 3, rozdz. Zagadnienia filozoficzne w fizyce, s. 271–280). Do fizyki włączono rachunek prawdopodobieństwa i procesy stochastyczne, a za jej przykładem podobnie działo się w ekonomii.

Różnice pomiędzy deterministycznym modelem neoklasycznym a „niedeterministycznym” modelem współczesnym sprowadzają się zazwyczaj do tego, że w tych pierwszych zależności pomiędzy zmiennymi objaśniającymi i objaśnianymi są stałe i zdeterminowane funkcyjnie, natomiast te drugie dopuszczają zmiany (parametrów lub formuły funkcyjnej) i zawierają składniki losowe. Przykładowo, w modelach makroekonomicznych takie zmienne jak zasób pieniądza, wielkości dochodu, stóp procentowych czy poziom cen często określane są przez błądzenie losowe ze stałym dryfem (Frydman, Goldberg 2008, s. 31).

Ponieważ jednak, za przykładem fizyki, od „prawdziwych” i w pełni „naukowych” modeli wymaga się, żeby dostarczały ścisłych prognoz ilościowych, najlepiej takich, które nadają się do weryfikacji na podstawie kryteriów statystycznych, to modele te — jeśli chodzi o uwzględnienie w nich ignorancji i niepewności — tylko pozornie różnią się od swoich neoklasycznych odpowiedników.

Ekonomiści, chcąc uzyskać opisane tu właściwości modelu, muszą bowiem z góry dokładnie określić, jak uczestnicy rynku zmieniają swoje decyzje i jak będące rezultatem tych decyzji zagregowane wyniki zmieniają się w czasie. A więc, zarówno harmonogram zmian, jak też rozkład prawdopodobieństwa czynników losowych musi być z góry precyzyjnie określony. Na paradoks ten zwrócili ostatnio uwagę Frydman i Goldberg, zauważając, że:

Ścisłe, probabilistyczne przewidywania zmiany oznaczają po prostu losowe odstępstwa od przewidywania deterministycznego. Wnioskujemy, że jakkolwiek mogą wydawać się odmienne, współczesne probabilistyczne modele są tak samo restrykcyjne jak ich deterministyczne odpowiedniki liniowe bądź nieliniowe: zakładają, że ekonomista może całkowicie określić, w jaki sposób zmiany indywidualnego zachowania i zagregowanych wyników zależą od specyfikacji modelu w punkcie początkowym (Frydman, Goldberg 2009, s. 58).

Oznacza to, że nawet jeśli w mikroekonomicznych podstawach teorii — które posłużyły do zbudowania takiego modelu — nie założono wiedzy doskonałej podmiotów rynku, to implicite wynika z nich, że badacz-ekonomista sam jest demonem Laplace’a i pod tym względem nie brakuje mu absolutnie niczego do bycia — krytykowanym przez Hayeka — wszystkowiedzącym planistą. Innymi słowy, albo taka teoria musi zakładać, że w rzeczywistym świecie w ogóle nie ma kreatywności i ludzie nigdy się nie uczą, albo że ekonomista jest wszechwiedzący niczym Laplace’owska „inteligencja”.

We współczesnej ekonomii coraz większą popularnością cieszy się teoria gier. Nie wdając się w szczegóły, przypomnijmy jedynie, że opisuje ona proces podejmowania decyzji, na przykład przez podmioty rynku, w warunkach niedoskonałej wiedzy o otoczeniu rynkowym. Sytuacja określonego podmiotu determinowana jest nie tylko przez decyzje, jakie on podejmie, ale również przyszłym stanem otoczenia, w którym podmiot ten funkcjonuje. Natomiast stan otoczenia, w zależności od rodzaju gry, albo jest wynikiem realizacji pewnego zdarzenia losowego, co dokonuje się niezależnie od działań podmiotu (gra z naturą), albo jego kształt jest rezultatem decyzji podejmowanych przez wszystkie podmioty (por. Forlicz 2001, s. 38–44).

Sama koncepcja mówiąca o tym, że podmioty rynku wywierają wpływ na swoje otoczenie rynkowe oraz pozostają ze sobą we wzajemnej interakcji, czy też że otoczenie podlega zmianom, idzie o krok dalej w stosunku do teorii neoklasycznej. Jednak gdy zrobimy ten krok, natychmiast cofamy się do pozycji początkowej, ponieważ, jak się okazuje, zmiany te są z góry określone. Każdy gracz posługuje się bowiem pewną strategią. W teorii gier strategia to rodzaj planu, który opisuje działania gracza w każdej sytuacji. Krótko rzecz ujmując, strategia stanowi zbiór instrukcji typu: „Zrób A1, jeśli zajdzie B1, zrób A2, jeśli zajdzie B2 itd.”. Oznacza to, że podmiotom przyznaje się znajomość wszystkich możliwych B1, B2, B3 itd. (niekiedy również znajomość prawdopodobieństwa realizacji każdego scenariusza).

Użyteczność modeli opartych na teorii gier czy modeli dopuszczających zmienność jedynie w zakresie z góry ustalonego harmonogramu lub zawierających składnik losowy, którego rozkład jest z góry określony, jest ograniczona do prognozowania zdarzeń w krótkich okresach i specyficznych sytuacjach. Teoria, na której się opierają, wyklucza rozwiązania o charakterze kreatywnym, gdyż kreatywność ze swojej natury nie daje się z góry określić. Kreatywne rozwiązania nie mogą wcielać w życie istniejących wcześniej reguł dlatego, że nie byłyby wówczas rozwiązaniami kreatywnymi. Jest to wyraźnie widoczne w świetle koncepcji wiedzy rozproszonej czy koncepcji niepewności Knighta.

W 1921 roku wydano książkę Risk, Uncertainty and Profit autorstwa Franka Knighta. Amerykański ekonomista pokazał w niej różnicę pomiędzy niepewnością (uncertainty) oraz ryzykiem (risk). W przeciwieństwie do niepewności ryzyko można mierzyć, nadaje się ono do ubezpieczenia. Ryzyko to sytuacja, w której rozkład prawdopodobieństwa jest znany i kompletny. Chodzi o to, że większości zdarzeń i sytuacji na rynku nie sposób objąć w kategoriach rachunku prawdopodobieństwa i statystyki, ponieważ są to sytuacje jakościowo nowe (np. oryginalne projekty powstałe jako rezultat innowacyjnej działalności przedsiębiorców czy nawet zwykłe decyzje biznesowe, być może z wyjątkiem niektórych najbardziej rutynowych).

Wciąż podejmowane przez ekonomistów próby prognozowania takich zdarzeń na podstawie danych historycznych „dotyczą sytuacji, które są zdecydowanie zbyt wyjątkowe (…) by tabele statystyczne mogły dostarczyć użytecznych wskazówek” (Knight 1921, s. 231). Knightowska niepewność nie jest jakąś radykalną i rzadką odmianą niepewności, ale jest po prostu niepewnością rynkową. Rachunek prawdopodobieństwa można stosować wtedy, gdy z góry znane są wszystkie warianty rozwoju nowej sytuacji, a często nikt takiej wiedzy nie ma i nie może jej posiąść. Prognozowanie statystyczne ma sens tylko pod warunkiem, że wiemy, jak antycypowana zmienna zachowywała się w przeszłości. Skoro jednak znaczna część zdarzeń ma unikatowy charakter, to nie możemy nic powiedzieć na temat tego, jak rozwiną się one w przyszłości. Na przykład ludzkie decyzje dotyczące przyszłości nie mogą zależeć od ścisłych „matematycznych oczekiwań”, ponieważ brak jest podstaw do odpowiednich wyliczeń.

Zakres stosowania rachunku prawdopodobieństwa jest ograniczony do zdarzeń, które są wielokrotnie powtarzane. Interpretacja częstościowa (lub klasowa) prawdopodobieństwa (class probability) — na której mógłby się opierać rachunek — wymaga bowiem, aby sąd probabilistyczny traktować jako wypowiedź o ilościowym stosunku między wyodrębnionymi grupami (klasami) określonych zdarzeń. Jeśli jednak każde zdarzenie ma charakter unikatowy, to wtedy brak obiektywnego kryterium, na podstawie którego poszczególne zdarzenia mogłyby zostać przydzielone do jednej lub drugiej grupy. Wobec tego nie jest możliwe ustalenie względnej częstości — czyli prawdopodobieństwa — występowania zdarzeń jednej grupy wśród zdarzeń drugiej grupy (po prostu dlatego, że nie istnieją same grupy albo zawierają tylko jeden element). Dane dotyczące przeszłości, choćby były bardzo bogate i precyzyjne, mogą nie zawierać żadnej informacji o przyszłości, podobnie jak zapisane wyniki tysiąca rzutów kostkami, z których każda ma inną liczbę ścian, nie ujawnią żadnych informacji na temat szansy wystąpienia „jedynki” w tysiąc pierwszym rzucie. W takim wypadku mamy do czynienia z prawdopodobieństwem zdarzeń jednostkowych (case probability), którego nie da się wyrazić liczbowo (por. także Mises 2007, s. 90–101).

Spostrzeżenia Knighta dotyczące tego, że rynkowa rzeczywistość często nie spełnia założeń teorii prawdopodobieństwa, przez dłuższy czas nie cieszyły się popularnością i były ignorowane przez ekonomistów. Naukowcy niechętnie akceptowali sytuację, w której wyjaśnieniem rządzą mechanizmy niemożliwe do ujęcia w postaci liczbowej, starali się więc odnaleźć ścisły i uniwersalny model perfekcyjnie przewidujący zmiany gospodarcze.

Kończąc zaprezentowany tu przegląd, chcielibyśmy zwrócić uwagę na to, że wiedza, o której była mowa, to nie tylko znajomość zdarzeń historycznych oraz aktualnych okoliczności i warunków panujących na rynku. Bardzo ważną rolę odgrywają oczekiwania podmiotów dotyczące przyszłego rozwoju sytuacji. Jednostki formułują plany uwzględniające ich oczekiwania dotyczące przyszłości, na podstawie których później podejmują decyzje. Dlatego problem wiedzy dotyczy również zagadnień predykcji zdarzeń przez podmioty rynku. W tym kontekście chcielibyśmy zwrócić uwagę na hipotezę racjonalnych oczekiwań, jako na powszechnie stosowaną regułę tworzenia prognoz ekonomicznych.

W 1961 roku John Muth, uznany później za ojca teorii racjonalnych oczekiwań, wysunął następującą hipotezę:

skoro oczekiwania są opartymi na informacjach prognozami przyszłych wydarzeń, to są one w zasadzie tym samym, co przewidywania dostarczone przez odpowiednią teorię ekonomiczną (Muth 1961, s. 316).

W swoim bardziej aktualnym brzmieniu — sformułowanym przez Roberta Lucasa i tzw. nowych klasyków — głosi ona, że subiektywne oczekiwania podmiotów gospodarczych w odniesieniu do zmiennych ekonomicznych są zbieżne z rzeczywistymi, obiektywnymi oczekiwaniami co do tych zmiennych (por. Snowdon i in. 1998, s. 201). Innymi słowy, jednostki zachowują się tak, jakby znały „właściwy” model, dlatego w ich prognozach mogą wystąpić jedynie błędy losowe, niezależne od zbioru informacji dostępnych w czasie, kiedy te oczekiwania kształtowano. Przeciętnie rzecz biorąc, prognoza będzie trafna, a więc błędy będą się „znosić”, tzn. ich wartość oczekiwana będzie wynosiła zero. Ponadto oczekiwania formułowane przez podmioty nie mogą być wciąż mylne — to ważna implikacja hipotezy racjonalnych oczekiwań — gdyby tak było, to podmioty wyciągnęłyby wnioski ze swoich pomyłek i zmieniły sposób kształtowania oczekiwań, tak by wyeliminować błąd systematyczny.

Mając w pamięci rozważania Misesa, Hayeka, Knighta czy Polanyi’ego trudno oprzeć się pokusie, i nie nazwać hipotezy racjonalnych oczekiwań (HRO) empiryczną próżnią. Twierdzenie, że ludzie zachowują się tak, jakby znali „prawdziwy” model gospodarki, jest oczywiście nie do przyjęcia, skoro poszczególne jednostki dysponują niepełnymi, różnymi, jedynymi w swoim rodzaju, a niekiedy niemożliwymi do zakomunikowania „okruchami” wiedzy. A więc z punktu widzenia człowieka taki model po prostu nie istnieje. Ponadto w warunkach prawdziwej niepewności, o jakiej pisali Keynes i Knight, brak jest podłoża do kształtowania się subiektywnych „racjonalnych” oczekiwań, a tym bardziej brak podstaw, by twierdzić, iż owe oczekiwania miałyby być zbieżne z jakimiś oczekiwaniami obiektywnymi, które można wyrazić za pomocą matematyki i rachunku prawdopodobieństwa. Innymi słowy, hipoteza ta wychodzi z błędnego założenia, że w systemie społeczno-gospodarczym wszystkie przyszłe zdarzenia mogą być rozpatrywane w kategoriach prawdopodobieństwa klas, które to kategorie dają się modelować i „nakładać” na subiektywne oczekiwania podmiotów rynku.

Ciekawe, że HRO jest tak poważnie traktowana, podczas gdy nawet część przedstawicieli ekonomii ortodoksyjnej, na przykład noblista Edmund Phelps, wyraża na jej temat krytyczną opinię:

W teorii szoków makroekonomicznych (…), do których często stosowano hipotezę racjonalnych oczekiwań, trudno jest uzasadnić założenie, że każdy działający podmiot uważa swoje przewidywanie za uniwersalne — tak jakby istniała jakaś Jungowska nieświadomość zbiorowa eliminująca rozbieżność oczekiwań. Nie istnieją ogólnokrajowe oczekiwania co do skutków polityki Reagana, której istnienie jest elementem wspólnej wiedzy (Phelps 1983, s. 32).

O zawodności hipotezy racjonalnych oczekiwań przekonani są również Frydman i Goldberg (por. Frydman, Goldberg 2008, 2009; zob. Leszek 2009a). W swoich pracach dowodzą, że modele deterministyczne, w których wszystkie zmiany są z góry ustalone (czy to funkcyjnie, czy probabilistycznie, tj. z wykorzystaniem zmiennych losowych o ustalonych rozkładach), w szczególności zaś modele oparte na hipotezie racjonalnych oczekiwań, okazują się wewnętrznie niespójne, jeśli dopuścimy możliwość, że jednostki żyją w świecie wiedzy niedoskonałej.

Zamiast podsumowania

Udając, że podmioty rynku wiedzą więcej, aniżeli wiedzą w istocie, tworzymy tylko fałszywe teorie. Postulując, że my, ekonomiści, wiemy więcej, niż wiemy w istocie, wytwarzamy w sobie oraz w innych przekonanie, że manipulacja gospodarką, zgodnie z naszymi intencjami, leży w naszym zasięgu. Taka postawa z kolei prowadzi do katastrofalnych rezultatów nie tylko w teorii, lecz także przede wszystkim w praktyce gospodarczej. Dlatego kończąc ten rozdział, chcielibyśmy podzielić się refleksją, którą Hayek zawarł w następującym zdaniu:

Przedkładam prawdziwą i niepełną wiedzę, nawet jeśli pozostawia ona wiele zjawisk nieokreślonymi i nieprzewidywalnymi, nad pretensję do wiedzy ścisłej, która jest prawdopodobnie fałszywa (Hayek 1978, s. 29).

 

Bibliografia

Akerlof George A., 1970, The Market for „Lemons”: Quality Uncertainty and the Market Mechanism, „The Quarterly Journal of Economics”, vol. 84, no. 3, s. 488–500.

Akerlof George A., 1984, Gift Exchange and Efficiency-Wage Theory: Four Views, „The American Economic Review”, vol. 74, no. 2, s. 79–83.

Akerlof George A., 2003, Makroekonomia behawioralna a funkcjonowanie gospodarki, „Gospodarka Narodowa”, nr 10.

Amsterdamski Stefan, Augustynek Zdzisław, Mejbaum Wacław, 1964, Prawo. Konieczność. Prawdopodobieństwo, Książka i Wiedza, Warszawa.

Arystoteles, 1953, Polityka, Zakład Narodowy im. Ossolińskich, Wrocław.

Blaug Mark, 1994, Teoria ekonomii. Ujęcie retrospektywne, Wydawnictwo Naukowe PWN, Warszawa.

Branett William II, 2004, Dimensions and Economics: Some Problems, „The Quarterly Journal of Austrian Economics”, vol. 7, no. 2, s. 95–104.

Forlicz Stefan, 2001, Niedoskonała wiedza podmiotów rynkowych, Wydawnictwo Naukowe PWN, Warszawa.

Friedman Milton, 1953, Essays In Positive Economics, The University of Chicago Press, Chicago.

Frydman Roman, Goldberg Michael D., 2008,Macroeconomic Theory for a World of Imperfect Knowledge, „Capitalism and Society”, vol. 3.

Frydman Roman, Goldberg Michael D., 2009, Ekonomia wiedzy niedoskonałej. Kurs walutowy i ryzyko, Wydawnictwo Krytyki Politycznej, Warszawa.

Godłów-Legiędź Janina, 1992, Doktryna społeczno-ekonomiczna Friedricha von Hayeka, Wydawnictwo Naukowe PWN.

Greenwald Bruce C. N., Stiglitz Joseph E., Weiss Andrew, 1984, Informational Imperfections in the Capital Market and Macroeconomic Fluctuations, „The American Economic Review”, vol. 74, no. 2, s. 194–199.

Hayek Friedrich A. von, 1978, New Studies in Philosophy, Politics, Economics and the History of Ideas, Routledge & Kegan Paul, London.

Hayek Friedrich A. von, 1998, Indywidualizm i porządek ekonomiczny, Znak, Kraków.

Hayek Friedrich A. von, 2002a, Competition as a Discovery Procedure, „The Quarterly Journal of Austrian Economics”, vol. 5, no. 3.

Hayek Friedrich A. von, 2002b, Nadużycie rozumu, Oficyna Wydawnicza Volumen, Warszawa.

Hayek Friedrich A. von, 2004, Zgubna pycha rozumu. O błędach socjalizmu, Arcana, Kraków.

Hayek Friedrich A. von, 2007, Konstytucja wolności, Wydawnictwo Naukowe PWN, Warszawa.

Jakubowski Rafał, 1997, Teoria Ryzyka. Stosunek do ryzyka a zachowania ludzi, w: Współzależność między wiedzą ekonomiczną a funkcjonowaniem gospodarki w skalach mikro i makro, red. Forlicz Stefan, Wydawnictwo Akademii Ekonomicznej im. Oskara Langego, Wrocław.

Kirzner Israel M., 1988, The Economic Calculation Debate: Lessons for Austrians, „The Review of Austrian Economics”, vol. 2, no 1.

Knight Frank H., 1921, Risk, Uncertainty and Profit, Houghton Mifflin, Boston.

Kochanowska Ewa, 1998, Szkiełko i oko, czyli romantyczny poeta i nauka: http://archiwum.wiz.pl/1998/98104500.asp (pierwotnie: „Wiedza i Życie”, nr 10).

Koestler Arthur, 2002, Lunatycy, Zysk i S-ka, Poznań.

Kostro Krzysztof, 2001, Hayek kontra socjalizm. Debata socjalistyczna a rozwój teorii społeczno-ekonomicznych Friedricha Augusta von Hayeka, DiG, Warszawa.

Kwaśnicki Witold, 2001, Zasady ekonomii rynkowej, Wydawnictwo Uniwersytetu Wrocławskiego, Wrocław.

Kwaśnicki Witold, 2005, Analogie fizykalistyczne jako źródła inspiracji w analizie ekonomicznej; http://kwasnicki.prawo.uni.wroc.pl/todownload/Analogie%20fizykalistyczne.pdf (pierwotnie w: Fizyka dla ekonomii, „Wrocławski Biuletyn Gospodarczy”, nr 34).

Laplace Pierre Simon, 1995, Philosophical essay on probabilities, Springer Verlag, New York.

Leszek Przemysław, 2009a, Imperfect Knowledge Economics: zapowiedź nowego paradygmatu w ekonomii?, w: Nowe idee początku XXI wieku, red. Winiarski Marcin, Cyfrowa Biblioteka Prawnicza Uniwersytetu Wrocławskiego, Wrocław.

Leszek Przemysław, 2009b, Koncepcje zawodności rynku: teoria a rzeczywistość (w przygotowaniu).

Levinson Marc, 1992, Nie tylko wolny rynek. Odrodzenie aktywnej polityki gospodarczej, PWE, Warszawa.

Machaj Mateusz, 2009, Prawa własności w systemie kapitalistycznym i socjalistycznym — studium porównawcze (w przygotowaniu).

Mankiw Gregory N., Romer David, Weil David N., 1992, A Contribution to the Empirics of Economic Growth, „The Quarterly Journal of Economics”, vol. 107, no. 2, s. 407–437.

Markiewicz Henryk, 1998, Literatura pozytywizmu, Wydawnictwo Naukowe PWN, Warszawa.

Mayer Thomas, 1996, Prawda kontra precyzja w ekonomii, Wydawnictwo Naukowe PWN, Warszawa.

Mises Ludwig von, 1990, Economic Calculation In The Socialist Commonwealth, Ludwig von Mises Institute, Auburn.

Mises Ludwig von, 2007, Ludzkie działanie. Traktat o ekonomii, Instytut Ludwiga von Misesa, Warszawa.

Muth John F., 1961, Rational Expectations and the Theory of Price Movements, „Econometrica”, vol. 29, no. 3.

Phelps Edmund S., 1983, The Trouble with ‘Rational Expectations’, and the Problem of Inflation Stabilization, w: Individual Forecasting and Aggregate Outcomes: Rational Expectations Examined, red. Frydman Roman, Phelps Edmund S., Cambridge University Press, New York.

Polanyi Michael, 1969, Knowing and Being. Esseys by Michael Polanyi, red. Grene M., The University of Chicago Press, Chicago.

Polanyi Michael, 1983, The Tacit Dimension, Anchor Books, New York.

Romer David, 2000, Makroekonomia dla zaawansowanych, Wydawnictwo Naukowe PWN, Warszawa.

Romer Paul M., 1990, Endogenous Technological Change,„The Journal of Political Economy”, vol. 98, no. 5, cz. 2, s. 71–102.

Sady Wojciech, 2008, Spór o racjonalność naukową. Od Poincarégo do Laudana, http://www.scribd.com (pierwotnie: FUNNA, Wrocław 2000).

Schumpeter Joseph A., 1960, Teoria wzrostu gospodarczego, PWN, Warszawa.

Shattuck Roger, 1999, Wiedza zakazana. Od Prometeusza do pornografii, TAiWPN Universitas, Kraków.

Snowdon Brian, Vane Howard, Wynarczyk Peter, 1998,Współczesne nurty teorii makroekonomii, Wydawnictwo Naukowe PWN, Warszawa.

Solow Robert M., 1956, A Contribution to the Theory of Economic Growth, „The Quarterly Journal of Economics”, vol. 70, no. 1, s. 65–94.

Stiglitz Joseph E., 2004, Informacja i zmiana paradygmatu w ekonomii, cz. I, „Gospodarka Narodowa”, nr 3.

Tatarkiewicz Władysław, 2009, Historia filozofii, Wydawnictwo Naukowe PWN, Warszawa.

Wojtyna Andrzej, 2000, Ewolucja keynesizmu a główny nurt ekonomii, Wydawnictwo Naukowe PWN, Warszawa.

Yeager Leland B., 2005, Why Distinguish Between Information and Knowledge?, „Econ Journal Watch”, vol. 2, no. 1, s. 82–87.

 

[1] Na przykład Arystoteles, analizując stosunki społeczne panujące w greckich miastach, za główną przeszkodę w ich rozwoju uznał ograniczenia poznawcze przywódców. Uzasadniał, że przetrwanie państwa większego niż polis jest w dłuższej perspektywie niemożliwe, gdyż wymagałoby to od jego władców posiadania „boskiej” wiedzy, daleko wykraczającej poza ludzkie możliwości. Możemy zatem przyjąć, że to Arystoteles jako pierwszy analizował temat związku pomiędzy wiedzą ludzi i koordynacją ich działań w obrębie systemu społeczno-gospodarczego. Doszedł do wniosku, że „(…) nadmiernie wielka liczba nie może pomieścić się w ramach pewnego porządku” (Arystoteles 1953, s. 238). Pamiętajmy, iż „porządek” oznacza tu rezultat sprawowania kontroli nad członkami społeczeństwa i zasadniczo jest to jedyna forma zorganizowania społeczeństwa, jaką filozof rozważał — zob. komentarz Hayeka (2004, s. 19). Ciekawe, że to, co spostrzegł Arystoteles, w XIX i XX wieku całkowicie umknęło teoretykom socjalizmu.

[2] Nie będziemy zagłębiać się w rozważania na temat tego, czym jest i „jak istnieje” wiedza, gdyż oznaczałoby to zbyt dalekie odejście od głównego przedmiotu naszej analizy. Z tego samego powodu nie podejmiemy próby sytuowania „wiedzy” na tle terminów bliskoznacznych, takich jak „dane”, „informacja”, „inteligencja”, „mądrość” itp. Przedstawiony tu ogólny pogląd w razie potrzeby rozwiniemy w kolejnych częściach tego rozdziału. Słownikowe definicje rzeczonego pojęcia w odniesieniu do ekonomii przedstawił i opatrzył krótkim komentarzem np. Yeager (2005).

[3] Schumpeter spopularyzował również charakterystyczny schemat rozwoju gospodarczego, oparty na kolejno następujących po sobie „falach”, które nazwał — od nazwiska ich odkrywcy — falami Kondratiewa. Każda z takich fal została zapoczątkowana serią wynalazków, które prowadziły do transformacji systemu społecznego. (Austriak argumentował również, że obserwowane fluktuacje gospodarcze stanowią „wypadkową” fal Kondratiewa oraz cykli o mniejszych okresach, na przykład, Juglara i Kitchina).

[4] Wcześniejsze teorie ukazywały zazwyczaj cykle koniunkturalne jako odchylenia PKB od pewnej krzywej trendu. Trend ten nie miał jedynie charakteru statystycznego: starano się zidentyfikować mechanizmy odpowiedzialne za powrót do „normalnej” wartości. Nelson i Plosser uznali jednak, że wstrząsy wywołują zazwyczaj trwałe zmiany — produkcja nigdy nie wraca do pierwotnego poziomu. Dlatego PKB będzie dowolnie dryfował, bez tendencji do automatycznego podążania w kierunku wyznaczonym przez trend. Nie oznacza to, że PKB nigdy nie będzie oscylował między pewnymi wartościami. Gdy się jednak tak zdarzy, będzie to kwestia przypadku, a nie działania jakiegoś mechanizmu (por. Snowdon i in. 1998, s. 248–300).

[5] Kwestię doskonałej „wiedzy niedoskonałej” szerzej omawiamy w drugiej części rozdziału.

[6] Dotyczące na przykład fluktuacji produkcji i zatrudnienia, „niesprawiedliwej” dystrybucji dóbr w gospodarce rynkowej czy niekompletności rynków — ta ostatnia jest rezultatem negatywnej selekcji i w szczególności dotyczy rynku pracy (np. Akerlof 1984), kredytów (np. Greenwald i in. 1984), ubezpieczeń (np. Levinson 1992).

[7] Niedobory informacyjne zdarzają się wtedy, gdy rynek dostarcza zbyt mało informacji, by na ich podstawie dało się podejmować „racjonalne decyzje”. Asymetria informacji to taka sytuacja, kiedy jakieś podmioty, konkurenci bądź kooperanci, stojąc przed koniecznością rozstrzygnięcia określonej kwestii, nie dysponują jednakowo pełnymi informacjami, które by to umożliwiły. Badania prowadzone wokół tych zagadnień doprowadziły niektórych przedstawicieli nowego keynesizmu do radykalnych wniosków: „idee te podważyły teorię Smitha i wypływający z niej pogląd na rolę państwa. Z idei tych wynika, że ręka, o której pisał Smith, jest niewidzialna po prostu dlatego, że nie istnieje, a jeśli nawet istnieje, to jest sparaliżowana” (Stiglitz 2004, s. 78).

[8] Więcej o teorii gier, hipotezie racjonalnych oczekiwań oraz o rozróżnieniu niepewności i ryzyka (czyli prawdopodobieństwa niemierzalnego od prawdopodobieństwa mierzalnego) powiemy dalej.

[9] Wiedza bywa utożsamiana np. z informacją, danymi, technologią, kapitałem ludzkim, innowacjami, wiedzą naukową, wiedzą osobistą podmiotów rynku. Natomiast pojęcia: asymetria informacji, niedobory informacyjne, ignorancja, niepewność, ryzyko itp. często używane są jako synonimy „wiedzy niedoskonałej”. „Wiedza niedoskonała” to z kolei przeciwieństwo „wiedzy doskonałej”, co samo w sobie stanowi kiepskie objaśnienie terminu, gdyż tak naprawdę nie wiadomo, co to jest „wiedza doskonała”.

[10] Uważamy, że systemowi mechaniki klasycznej przypisywano (i nadal tak się czyni) nadmierną uniwersalność w kwestii zastosowania jego elementów jako analogonów we wszystkich innych obszarach nauki. Szerzej myśl tą rozwiniemy w dalszej części rozdziału. W tym miejscu chcielibyśmy jedynie wspomnieć, że zwolennicy szkoły austriackiej za przykład poważnego nadużycia w tym względzie wskazują nawet zasadę malejącej użyteczności krańcowej, sformułowaną niezależnie przez S.W. Jevonsa oraz L. Walrasa na wzór koncepcji szybkości w fizyce. Niekiedy analogie pomiędzy zjawiskami społecznymi i przyrodniczymi sięgały jeszcze dalej — do granic absurdu. Na przykład Heryng przedstawił (1896) „zasadnicze pojęcia ekonomiczne ze stanowiska nauki o energii”. W książce o takim właśnie tytule odnajdujemy definicje w rodzaju: „Energią zatem społeczną nazywać będziemy tę część ogólnej energii kosmicznej, która się przejawia w procesach indywidualnego i społecznego życia jednostek, tworzących pewien społeczny układ, i dzięki której żywotność całego układu społecznego oraz oddzielnych jego składników podtrzymuje się i wzmaga” (Heryng 1896, s. 52, za: Kwaśnicki 2005), czy: „Siła robocza — to potencjalna energia biologiczna jednostek, wchodząca w skład układów społecznych. Praca — to przejaw kinetycznej energii biologicznej tych jednostek” (Heryng 1896, s. 243, za: Kwaśnicki 2005).

[11] Np. naturalizm francuski, pod którego wpływem była część pozytywistycznych twórców, proponował upodobnienie powieści literackiej do studium naukowego (Markiewicz 1998, s. 70).

[12] Właściwie rzecz miała się zgoła na odwrót: wykorzystywanie do analizy otaczającej nas rzeczywistości — której obrazu pierwotnie dostarczają nam zmysły i doświadczenie — koncepcji o charakterze wybitnie abstrakcyjnym i nieempirycznym (np. idea siły czy pojęcie nieskończoności) zaowocowało licznymi sprzecznościami i wątpliwościami (por. Sady 2008, s. 7–12). Część trudności wiązała się również z porzuceniem antropomorficznej interpretacji zjawisk przyrodniczych (o czym piszemy dalej).

[13] Ten ostatni toczył nawet zacięty spór dotyczący teorii rozszczepialności światła z samym Newtonem (Kochanowska 1998).

[14] Por. przypis 25.

[15] W części swoich studiów filozoficznych Hayek pisze wyraz „Nauka” wielką literą, by odróżnić te dyscypliny, które tradycyjnie zaliczamy do nauk przyrodniczych, od nauki rozumianej w szerszym znaczeniu. Takie rozróżnienie nabiera sensu w świetle tego, o czym już wcześniej pisaliśmy, a mianowicie, że wyraz „nauka” często bywał odnoszony jedynie do dziedzin przyrodniczych.

[16] Hayek uzasadnia owo „prawo wahadła”, czy raczej „prawo bezwładności”, kilkakrotnie, a gdy wspomina o nim po raz pierwszy, powołuje się na prace L. Misesa, H. Münsterberga i E. Bernheima (Hayek 2002b, s. 15 w przypisie).

[17] Konieczność ta wynika z oczywistego faktu, że żaden człowiek nie potrafi sobie wyobrazić sposobu funkcjonowania jakiegoś innego umysłu (również zwierzęcego), przynajmniej w takiej mierze, w jakiej umysł ten jest nie-ludzki.

[18] Nie możemy tutaj przytoczyć całej argumentacji, która prowadzi do takich wniosków. W dużym skrócie chodzi o to, że w toku rozwoju nauki zastępujemy te pierwotne obrazy i klasyfikacje, które są obciążone „ułomnością” (charakterystyką) naszych zmysłów, przez następne, w coraz większym stopniu pozbawione tej cechy. Rozpatrzmy prosty przykład. Łatwo możemy sobie wyobrazić mieszkańców odosobnionej wyspy, którzy — w myśl powszechnie akceptowanego na wyspie naukowego poglądu — będą postrzegali wodę i lód jako dwie różne substancje, natomiast lód i szkło, jako takie same. Pierwotne kryterium takiego podziału, które niejako „narzuca” się ich zmysłom, to stan skupienia. Tak ustalone relacje pomiędzy wodą, lodem oraz szkłem będą stanowiły obiektywne fakty: punkt wyjścia ewentualnych dalszych dociekań i jednocześnie „niedoskonałe narzędzie”, o którym pisał Hayek. Jednakże w toku dalszych badań mieszkańcy wyspy mogą dojść do wniosku, że w zdecydowanej większości przypadków i w okolicznościach, których wcześniej nie znali, lód ujawnia większe podobieństwo z wodą niż ze szkłem. „Punkt wyjścia” zmieni się i będzie teraz w mniejszym stopniu odpowiadał klasyfikacji dostarczonej przez zmysły w wydaniu pierwotnym (zob. też Hayek 2002b, s. 17–22).

[19] Należy jednak dodać, że M. Friedman w The Methodology of Positive Economics (1953, s. 3–43) dopuszcza w zasadzie stosowanie każdego modelu, nawet najbardziej absurdalnego, pod warunkiem, że jest potwierdzony serią skutecznych predykcji. Przekonującą krytykę takiego stanowiska przedstawił Hayek.

[20] Rodzi ono jednak niekiedy poważne problemy „pomiarowo-wymiarowe”. W fizyce zwraca się szczególną uwagę na to, by po obu stronach równania stały te same „wymiary” (powierzchnia, waga, odległość, siła itp.), gdyż jest to warunek konieczny poprawności wszelkich obliczeń. Ekonomiści natomiast — jak zauważył W. Branett II (2004) — przejąwszy od fizyków ich metody, wyliczają wartości „agregatów” makroekonomicznych, często nie zwracając uwagi na zgodność wymiarów i jednostek. Okazuje się, że uwzględnienie ich w rachunkach często powoduje trudności z odniesieniem tak uzyskanych wyników do rzeczywistości gospodarczej.

[21] Nie próbujemy analizować znaczenia praktycznego tego postulatu, tj. wyobrażać sobie takiej sytuacji w rzeczywistości. Nie mamy jednak wątpliwości co do tego, że wiązałoby się to z koniecznością brnięcia coraz głębiej w absurd.

[22] Są to: Socialist Calculation: The Nature and History of the Problem (1935), Socialist Calculation: T e State of the Debate (1935), Socialist Calculation: The Competitive Solution (1940). Z naszego punktu widzenia ważniejsze są jednak Economics and Knowledge (1937) oraz The Use of Knowledge in Society (1945), a także późniejsze. Wymienione w tym przypisie artykuły zostały ponownie wydane jako rozdziały w książce Indywidualizm i porządek ekonomiczny (1998).

[23] W literaturze naukowej i filozoficznej często powraca pewien krytyczny pogląd, godzący w Laplace’a i jego doktrynę. Zgodnie z nim wizjonerski projekt Laplace’a nadmiernie upraszcza rzeczywistość, co daje uczonym fałszywe poczucie „pewności” i stanowi naukowe wsparcie dla idei konstruktywizmu oraz determinizmu (wszystko, co się wydarza, jest nie do uniknięcia i z góry wiadome). Należy jednak zaznaczyć, że sam Laplace nie postawił znaku równości pomiędzy swoją hipotetyczną wizją i światem realnym, lecz określił pewne warunki, których spełnienie — jak sam podkreślał — jest praktycznie niemożliwe (na przykład założenie o doskonałej wiedzy i nadludzkich możliwościach analitycznych podmiotu poznawczego). Oczywiście pomylił się, utożsamiając prawidłowości rządzące zjawiskami z zasadami ruchu i dynamiki Newtona. Pomimo to, tak kategoryczne potępianie go za samą ideę głoszącą, iż przyrodą rządzą pewne uniwersalne i precyzyjne prawa, wydaje się niesłuszne, gdyż kwestia ta nadal jest otwarta i do dzisiaj stanowi przedmiot sporów naukowców i filozofów (por. Amsterdamski i in. 1964). Bardziej niż sam Laplace na krytykę zasługują natomiast ci uczeni, którzy usilnie starają się odnieść jego hipotetyczny twór bezpośrednio do rzeczywistości. O ile w obrębie fizyki takie działanie można w jakimś stopniu uzasadnić (w warunkach laboratoryjnego eksperymentu zdarza się, że analizowany układ jest stosunkowo prosty i odizolowany, więc dla celów praktycznych można często przyjąć, iż fizyk istotnie wie o nim wszystko), o tyle nie znajdujemy usprawiedliwienia dla analogicznej postawy reprezentowanej przez część ekonomistów.

[24] Systemowi Newtona nie przysłużyły się również nieudane próby wykrycia spodziewanego wpływu ruchu Ziemi względem hipotetycznego eteru na przebieg zjawisk optycznych i elektromagnetycznych na jej powierzchni, a także wyniki dotyczące widma promieniowania ciał czarnych, efektu fotoelektrycznego i zmian ciepła właściwego ciał stałych w niskich temperaturach oraz wiele innych (por. Sady 2008, s. 14–16).

 

Ilustracja: Pixabay.com, CC0 Public Domain, posąg przedstawiający Herodota z Halikarnasu, zwanego Ojcem historii

Kategorie
Metaekonomia Metodologia ekonomii głównego nurtu Teksty

Czytaj również

Machaj_Kontrfaktycznie-wszyscy-jesteśmy-martwi.jpg

Metaekonomia

Machaj: Kontrfaktycznie wszyscy jesteśmy martwi

Koniec "ceteris paribus"?

Carl-Menger.jpg

Historia szkoły austriackiej

Kwaśnicki: Carl Menger i analiza ekonomiczna bez matematyki

Dlaczego Menger był niechętny stosowaniu matematyki w analizie ekonomicznej?

Shostak_Czy_powinnismy_korzystac_z_rachunku_prawdopodobienstwa_w_ekonomii

Metodologia szkoły austriackiej

Shostak: Czy powinniśmy korzystać z rachunku prawdopodobieństwa w ekonomii?

Wbrew powszechnemu przekonaniu, prawdopodobieństwo liczbowe nie ma zastosowania w ekonomii.

Megger_Nowe-szaty-historyzmu.-Austriacy-i-ich-niekończący-się-spór-o-metodę.jpg

Metaekonomia

Megger: Nowe szaty historyzmu. Austriacy i ich niekończący się spór o metodę

Zdrowa ekonomia potrzebuje zdrowej metodologii.


Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.

Komentarze 1
Leon Orlikowski

Czy nauka ekonomii powinna zajmować się faktami czy też mitami?

1.Przemysław Leszek w tekście pt.: „Problematyka wiedzy w naukach społecznych” (w: Mateusz Machaj (red.): „Pod prąd głównego nurtu ekonomii”, Instytut Ludwiga von Misesa, Warszawa 2010) stwierdza, że „Zanim fizyka odniosła swoje największe sukcesy i zanim, za sprawą tych osiągnięć, metody fizyki wyniesiono na epistemologiczny piedestał, naukowcy musieli odrzucić – co dokonywało się stopniowo – niektóre idee stanowiące istotną przeszkodę w jej rozwoju”. „Do największych przeszkód, które badacze odrzucili – co bezpośrednio poprzedziło rewolucję naukową – należały:” a) zwyczaj przywoływania i analizowania idei wcześniej uznanych autorytetów (starożytnych filozofów), którym przypisywano, że posiedli już „całą prawdę o rzeczywistości” oraz b) „kultywowany od najdawniejszych czasów i wszechobecny w myśli ludzkiej antropomorfizm oraz animizm (anima mundi)”. Autor uważa, że na szczególną uwagę zasługuje ta druga przeszkoda, albowiem „Antropomorfizm stanowił integralną część ówczesnego światopoglądu, natomiast w kontekście epistemologii oznaczał, że człowiek rozpoczynał analizę zjawisk poprzez interpretację ich na swoje podobieństwo, tzn. jako ożywione przez jakiś umysł, z konieczności podobny do jego własnego umysłu. Innymi słowy, tłumaczono zjawiska przyrodnicze, stosując analogię do funkcjonowania ludzkiego umysłu, co zwykle oznaczało, że dopatrywano się w nich skutków celowego działania jakiejś świadomości. Najbardziej oczywiste przykłady antropomorfizmu odnajdujemy w przednaukowych systemach kosmologicznych: od starożytności po późne średniowiecze ciałom niebieskim (bądź „poruszycielom” tych ciał) przypisywano świadomość, wolę, wiedzę, a nawet organy zmysłów. Dopiero w czasach Keplera i Kartezjusza dusza poruszająca, anima motrix, stopniowo poczęła przeradzać się w siłę poruszającą, vis motrix.” (Tamże, str. 9 – 11). Niewątpliwie powyżej zacytowany passus stanowi bardziej skonkretyzowane rozwinięcie wcześniej przywołanego przez autora cytatu z dzieła Hayeka: „Nauka musiała wywalczyć ten swój sposób myślenia w starciu z obrazem świata, zbudowanym w większości z pojęć powstałych na tle naszych stosunków z innymi ludźmi i w interpretacji ich działań” (Fridrich A. von Hayek: „Nadużycie rozumu”, Oficyna Wydawnicza Volumen, Warszawa 2002, str. 15).

W rezultacie odrzucenia przez nowoczesną naukę antropomorfizmu oznaczało: „po pierwsze odrzucenie wszelkich koncepcji, które zawierały wyjaśnienie takiego a nie innego zachowania pewnych elementów rzeczywistości materialnej w kategoriach ich celowego działania opartego na ludzkiej percepcji świata. Po drugie, wyznaczył on nowy cel nauce: badanie (obserwacja) „martwych” obiektów i bezosobowych relacji pomiędzy nimi przez poznanie jedynie ich „zewnętrznych” przejawów, czyli „obiektywnych” właściwości fizycznych, a następnie ich klasyfikacja ze względu na te właściwości. Doprowadziło to do … dalszej eliminacji z rozważań o przyrodzie „pierwiastka ludzkiego” i przezwyciężenia słabości ludzkiego umysłu, ulegającego różnym złudzeniom. Mówiąc krótko, celem nauki stało się poznawanie rzeczywistości takiej, jaka ona jest, nie zaś takiej, jaka myślimy, że jest – a co więcej – nie takiej, jakiej ogląd pierwotnie dostarczają nam nasze zmysły w doświadczeniu” (str. 11 – 12).

Dlatego we współczesnej nauce ukształtowało się takie podejście, że „badaniu podlega sam obiekt, taki, jakim jest, natomiast – co oczywiste – badaniu nie podlega wrażenie tego obiektu o sobie samym lub o innych obiektach. (…) Tymczasem w naukach społecznych badaczowi w celu wytłumaczenia określonego zachowania podmiotów rynku nie wystarczy znajomość „obiektywnych” czy „stylizowanych” faktów (typu: wielkość PKB, cena produktu, jakość produktu, czy treść rozporządzenia ministra finansów itp.). Niekiedy takie „obiektywne” fakty nie wpływają na zachowanie jednostki na rynku. Jeżeli w ogóle możemy mówić o tym, że zachowanie człowieka jest jakość „zdeterminowane”, to czynnikiem determinującym nie będą „obiektywne” fakty, ale to, co ten człowiek o nich wie i jak – zgodnie z tą wiedzą – je interpretuje. Zatem w naukach społecznych fakty, od których wychodzi badacz w swej analizie, obejmują (a raczej winny obejmować) także opinie i poglądy podmiotów rynku. Zasadniczo, ważne są atrybuty, jakie ludzie przypisują danym obiektom i sytuacjom, niż „prawdziwe”, tj. „obiektywne” cechy i właściwości tych obiektów i sytuacji.” W rezultacie „współczesna ekonomia głównego nurtu ignoruje bądź niepoprawnie określa problematykę wiedzy, co ma negatywny wpływ na jakość teorii formułowanych przez ekonomistów. Za przyczynę takiego stanu rzeczy uznaliśmy przede wszystkim specyficzne „fizykalistyczne” stanowisko epistemologiczne i metodologiczne badacza ekonomisty” (str. 13 - 14).

Przeprowadzając powyższe rozumowanie, Przemysław Leszek uważa, że pozwoliło mu ono „zidentyfikować ułomność teorii ekonomicznej głównego nurtu na poziomie fundamentalnym, tj. na poziomie idei mówiącej o niemal bezgranicznych możliwościach stosowania schematów mechanistycznych w naukach społecznych” (str. 14).

Odpowiedz

Strona korzysta z plików cookie w celu realizacji usług zgodnie z Polityką Prywatności. Możesz samodzielnie określić warunki przechowywania lub dostępu plików cookie w Twojej przeglądarce.