Autor: Wojciech Czarniecki
Wersja PDF, EPUB, MOBI

wiedzyNauka stara się opisać świat widzialny za pomocą hipotetycznego świata niewidzialnego. Wydawało się, że relatywizm pogrzebał pojęcie prawdy rozumiane tak, jak ujął to już Arystoteles.

Mimo iż Gödel wykazał, że w każdym systemie formalnym mocniejszym od arytmetyki Peana istnieją zdania, które nie da się udowodnić z przyjętej skończonej ilości aksjomatów (są nierozstrzygalne) — i odwrotnie, jeśli w takim systemie każde zdanie jest rozstrzygalne, to system ten jest wewnętrznie sprzeczny (np. teoria Z. Freuda oraz K. Marksa) — to K.R. Popper idąc za A. Tarskim (wykwit polskiej szkoły matematyczno-logicznej), wykazał, że falsyfikacja jest wystarczającą metodą weryfikacji systemów wiedzy, które budujemy jako hipotetycznie prawdziwe.

Hipotezę tak długo uznajemy za „prawdziwą”, jak długo nie znajdziemy przykładu z nią sprzecznego, co staje się bodźcem do jej modyfikacji bądź poszukiwania zamiennika.

Taki obraz wiedzy składającej się z hipotez będących kolejnymi przybliżeniami do prawdy nie satysfakcjonuje zwolenników determinizmu, traktujących rzeczywistość jak wielki mechanizm napędzany związkami przyczynowymi. Wychodzą oni z założenia, że uogólnienie powtarzalnych sytuacji na drodze rozumowania indukcyjnego jest wystarczającym potwierdzeniem prawdziwości tak budowanych twierdzeń. Ale indukcja jest prawomocna jedynie w językach formalnych, natomiast w świecie fizycznym prawa formułowane są w ściśle określonych warunkach, a więc w innych warunkach mogą nie obowiązywać (polecam „Logikę pragmatyczną” K. Ajdukiewicza). Jeszcze gorzej jest w tzw. naukach humanistycznych, w których nagminnie korzysta się ze statystyki i rachunku prawdopodobieństwa, które prowadzą do częstokroć nieuprawnionych uogólnień. Popper wykazał zasadniczą różnicę między prawdopodobieństwem matematycznym (analogia do indukcji) a prawdopodobieństwem zdarzeń fizycznych. Prawdopodobieństwo pewnego zdarzenia to liczba możliwych zajść tego zdarzenia podzielona przez ilość wszystkich równych możliwości. Ale jeśli rozłożymy nierówno ciężar w monecie, to prawdopodobieństwo uzyskania orła nie będzie wynosić ½ tylko albo 0<p<1/2 albo 1/2<p<1 w zależności od tego, która strona jest bardziej obciążona. A więc prawdopodobieństwo realnych zdarzeń obejmuje nieznane czynniki powodujące odchylenia od prawdopodobieństwa matematycznego i te nieznane, ujawniające się w trakcie „dziania się”, nazwał Popper skłonnością. Dlatego możemy oceniać, iż w pewnych warunkach prawdopodobieństwo wystąpienia A jest większe niż wystąpienie B. Jak podkreśla Popper, te skłonności nie zawierają się w jakimś przedmiocie (pewna zbieżność z istotą wartości) lecz w sytuacji, w jakiej się on znalazł. Ale sytuacja zmienia możliwości a tym samym i skłonności np.: wynalezienie nowego lekarstwa zmienia sytuację na rynku lekarstw a więc i szanse (prawdopodobieństwo) wyleczenia konkretnego pacjenta.

Wsparciem dla koncepcji Poppera okazały się badania nad chaosem — rozpoczęte przez Lorenza rozważaniami na cyklicznością pogody. Jak wiemy, do dziś, mimo potężnych mocy obliczeniowych, rozsianych po całym globie gęstej sieci przyrządów, nie udaje się przewidzieć trafnie pogodę na więcej niż trzy dni. Zachowanie układów autonomicznych ze sprzężeniem zwrotnym można modelować prostym cyklicznym odwzorowaniem x → kx(1-x) tj. wynik działania wchodzi jako dana wejściowa następnego cyklu (można je badać w zwykłym arkuszu kalkulacyjnym). Dla wartości 0< k<3 otrzymujemy stany zbieżne do punktu zwanego atraktorem. Gdy k=3 układ jest na krawędzi stabilności i dla k>3 dane zaczynają być rozbieżne, pojawia się chaos, przy czym pojawią się też niewielkie ciągi regularnego ruchu (tak jak w prognozach pogody).

To oznacza, że cykliczne, nieliniowe procesy gospodarcze mają ograniczoną przewidywalność.

By nie być gołosłownym, przeanalizuję konsekwencję warunku, który wyprowadziłem w artykule http://mises.pl/blog/2011/11/26/czarniecki-determinanty-wymiany/ na opłacalność inwestycji w urządzenie k (produkowane z wydajnością ak ) w cenie ck i o zdolności produkcji l jednostek dobra ai w całym okresie eksploatacji:

gdzie:

— koszt pracy koniecznej do wyprodukowania jednostki i, przy cenie pracy ci i wydajności

— koszt amortyzacji wyposażenia k przypadający na jednostkę i,

Powyższe wyrażenie możemy zapisać, oznaczając  K=lak/ck , w postaci:

ci ai(1- ai/Kci) > ci aio

Ale jest to wydajność w jednostce czasu, która w zależności od wymaganej wielkości produkcji, będzie zwielokrotniona przez ilość t pracujących robotników[1].

ci ai(1- ai/Kci)t = ai+1 > ci aiot

Jeśli zbadamy jakie wartości otrzymamy w wyniku kolejnych inwestycji (wystarczy do tego arkusz kalkulacyjny), to okaże się, że jest to specyficzna forma odwzorowania logistycznego.

I rzeczywiście, gdy podstawimy dodatkowo: N = ai/Kci, otrzymamy równanie logistyczne

Nicit(1-N) = Ni+1

Wartość pracy cwłożonej w produkt musi być większa lub co najmniej równa wartości samej pracy, czyli (1), poza tym ciągi kolejnych wartości tego wyrażenia, jak przystało na odwzorowanie logistyczne, zależą głównie od zmienności cit; przy czym chaos pojawia się wraz z wartościami ujemnymi po przekroczeniu liczby cit=4. Ze wzrostem kosztów amortyzacji K, rosną też kolejne wartości wyrażenia, bowiem świadczy to o rosnących wartościach nakładów inwestycyjnych. Pojawiają się jeszcze inne efekty nie występujące w odwzorowaniu logistycznym, ale pominę je gdyż prowadzą do bardziej obszernych rozważań. Dodatkowo obraz inwestowania komplikuje się gdy zauważymy, że zmiany wydajności w podprocesach nie są prostą ich sumą.

Jeśli t3 = t2 +t1  jest sumą czasów trwania podprocesów to a3 = a1a2/(a1+a2), dlatego opracowując technologię, posługujemy się równymi odcinkami czasu trwania grupowanych operacji, dzięki czemu otrzymujemy uproszczoną formułę:

an+1 = a1/n

Dla nas istotne jest ustalenie, że zachowanie się ciągów nie zależy od wydajności początkowej, a gdy ceną jest wartość jednostki czasu, to dodatnie efekty kolejnych inwestycji — zadane powyższą aprioryczną formułą — zależą od proporcjonalnego do wzrostu wielkości produkcji spadku cen. Reasumując, inwestycje w odleglejszym horyzoncie czasowym — a w szczególności rozwój gospodarczy — bywają nieprzewidywalne niezależnie od towarzyszących im okoliczności, tym bardziej że materialnym odpowiednikiem parametru K bywa, za każdym razem, inne wyposażenie o różnej wartości i okresie eksploatacji. Dlatego matematyczne modele zagadnień ekonomicznych tworzone w ramach głównego nurtu mają ograniczoną zdolność prognozowania zjawisk gospodarczych — o wiele słabszą od wniosków dających się wyprowadzić z austriackiej prakseologii.

Ubocznym, aczkolwiek bardzo interesującym efektem badań nad chaosem, jest geometria fraktalna, w zadziwiający sposób naśladująca naturę.

Wnioski:

  • aksjomatyzacja nauki jest niemożliwa i to nie tylko ze względu na nierozstrzygalność,
  • choć naturą rządzą związki przyczynowe, to nie jest ona zdeterminowana w rozwoju,
  • na początku ewolucji istniały nieskończone możliwości, ale ponieważ większość z nich była rozłączna, to każdy wybór wykluczał wiele innych istniejących możliwości stwarzając w ich miejsce na nowe,
  • z deterministycznego chaosu wynika, że może istnieć wolna wola (człowiek nie jest bezwolnym bydlęciem nakręcanym przez bezrozumne procesy elementarne ,),
  • prawda jest obiektywna i polega na korespondencji z faktami,
  • poczucie pewności rzadko ma podstawy obiektywne i jest przekonaniem opartym na ufności.

Tylko w tak wyobrażonym świecie jest miejsce na wolność, prawdziwą twórczości i tolerancję dla odmiennych opinii, o ile prawdopodobieństwo ich prawdziwości jest większe od zera. Tolerancja dla ewidentnej głupoty nie jest wskazana, gdyż prowadzi do informacyjnego chaosu (z akceptowanych zdań sprzecznych wynika dowolne zdanie).

Można pokusić się o hipotezę, że zadaniem chaosu (zdarzeń przypadkowych) jest przykrycie dyskretnej ingerencji Pana Boga korygującej, znaczące dla dalszej ewolucji, błędy naszych wyborów.

 

Rzeszów 22.06.2015

Copyright © Wojciech Czarniecki

Pozwalam drukować, kopiować i rozpowszechniać w inny sposób pod warunkiem wskazania źródła.

Teksty publikowane jako working papers wyrażają poglądy ich Autorów – nie są oficjalnym stanowiskiem Instytutu Misesa.

[1] Uzasadnienie podałem w http://mises.pl/blog/2011/04/08/czarniecki-model-bohm-bawerka/

29 odpowiedzi na „Czarniecki: Prawomocność wiedzy”

  • „K.R. Popper idąc za A. Tarskim (wykwit polskiej szkoły matematyczno-logicznej), wykazał, że falsyfikacja jest wystarczającą metodą weryfikacji systemów wiedzy, które budujemy jako hipotetycznie prawdziwe.”

    W pełni się z autorem zgadzam. W tej materii polecam także doskonała krytykę „austriackiego” justyfikacjonizmu pióra Gerarda Radnitzky’ego:
    http://againstpolitics.com/pdfs/Gerard%20Radnitzky%20-%20Hoppe.pdf

    Poza Hayekiem i Radnitkzy’m popperowską tradycję w obozie austriackim podtrzymują Anthony de Jasay, Hartmut Kliemt, Hardy Bouillon. Filozofii de Jasaya została poświęcony obecny numer The Independent Review:
    http://www.independent.org/publications/tir/article.asp?a=1060

    Polecam! 🙂

      • Popper to taki Bob Dylan filozofii XX-wiecznej. Każdy coś z niego bierze, choć momentami dziwnie skrzeczy.

        • Jakie są Pana zdaniem najlepsze książki wprowadzające do metodologii w ekonomii?

          • Z pozycji austriackiej najbardziej mi się podobają opracowania Barrego Smitha. A poza tym nie przepadam za metodologią 🙂

        • To prawda, zwłaszcza jeśli chodzi o popperowski „liberalizm”. Dla przykładu Jasay i Radnitzky akceptują popperowską filozofię nauki, ale odrzucają jego socjaldemokratyczną filozofię polityczną (zresztą podobny był ich stosunek do Hayeka). Jedno z pytań w wywiadzie Aschwina De Wolfa z de Jasayem dotyczyło właśnie filozofii nauki:

          „In the Jasay festschrift Ordered Anarchy, Nobel laureate James Buchanan writes that some of your work might even be classified as philosophy of science. Does this remark resonate with you, and do you feel an affinity with a particular tradition in the philosophy of science?

          James Buchanan is overrating my range in suggesting that it reaches to the philosophy of science. My only brush with the philosophy of science is my use of the asymmetry between verification and falsification to place the burden of proof in adversarial situations and hence to show the solid epistemological foundation that supports the great and indeed decisive presumptions of a sane, liberal society: the presumption of freedom, of innocence, and of good title to possessions.
          If I could pretend to affinity based on acquaintance with a school of epistemological thought, it would probably be to [Karl] Popper’s critical rationalism. However, I would hold out for induction and subjective probability when setting out the conditions that would render rational an action involving unknown future consequences. The criterion of critical rationality—that a hypothesis be used that has best resisted criticism in the past—is of little help in maximizing an action’s expected “utility.”
          (Źródło: https://www.independent.org/pdf/tir/tir_16_02_7_dewolf.pdf)

          Ale najwięcej z jego epistemologii nauczyłem się z tego, jak on jej używał – zwłaszcza z tego genialnego tekstu:
          http://www.dejasay.org/bib_journals_detail.asp?id=55

          • Myślałem, że metodologia to akurat konik każdego Austriaka. Szczególnie, że tak biegunowo różnią się w tym od głównego nurtu 😛

          • Trochę uściślając – moim zdaniem różnica tkwi nie tyle w METODOLOGII, ale w METODZIE. Dobrym tego dowodem może być konflikt na linii Rothbard-Mises (Arystoteles vs. Kant). Na gruncie filozoficznym istnieje spora przepaść między tymi podejściami metodologicznymi. W praktyce te dwie inne metodologie skończyły się tą samą metodą.
            Na podobnej zasadzie można wykorzystać elementy Popperyzmu do pokazania przewrotnie, że Popperyzm nie musi prowadzić do Friedmowskiej metody eksperymentalnej.

    • Ja z kolei polecam artykuł Hoppego, w którym krytykuje Radnitzky’ego: https://mises.org/library/does-state-resolve-or-create-conflict. Hoppe w tym artykule przemawia do mnie znacznie bardziej, niż Radnitzky w tamtym (choć komentarz Radnitzky’ego czytałem dawno temu). W każdym razie nawet krytyczni racjonaliści uznają tak zwane zdania protokolarne, które wyciągają poza nawias swojej kluczowej teorii, więc goły falsyfikacjonizm zdaje się nie mieć racji nomen omen bytu.

  • Jeszcze dwa pytania z innej beczki mam. 1) W debacie https://www.youtube.com/watch?v=GvZbde9QZdA powiedział Pan, że w przypadku państwa kalkulacja ekonomiczna w ogóle nie zachodzi, decyzje są dekretowane. Ten wniosek dotyczy również działalności państwa w ramach rynku?
    Oczywiście przyjąć można każdy projekt, nawet o wartości większej od całorocznego PKB kraju, tylko późnej państwo dysponuje tylko środkami, które zebrało i chyba prowadzi jakąś kalkulację – licytując się z sektorem prywatnym o zasób pracy i kapitału. Nie mogą zaproponować dowolnej kwoty, bo nie będą wstanie jej sfinansować. Jak jeszcze później spółki państwowe sprzedają swoje produkty na rynku, to wiemy czy generują zyski czy straty – np. KGHM czy Cargo.
    2) Zastanawiam się, na ile faktycznie niskie wydatki państwa sprzyjają wzrostowi gospodarczemu. Wiele jest przykładów państw, które z rozrośniętym aparatem państwowym (np. państwa Skandynawskie, Finlandia, Niemcy czy kraje Beneluksu) nie odstają w tempie wzrostu PKB krajom słynącym z niskiego udziału wydatków państwa. Bardzo słabą przyczynowość wskazują badania (chyba Barro?). Są za to kraje z jedno cyfrowym poziomem wydatków państwa w PKB, w których wzrostu znaczącego nie było, nie ma i nie widać na horyzoncie. Czy nie jest więc tak, że jeżeli wydatki państwa mają miejsce w ramach rynku, to ich produktywność -w przeciwieństwie do tych z realnego socjalizmu – nie odbiega znacząco albo wcale od wydatków prywatnych podmiotów?

    • W sumie jeszcze jedno pytanie: 3) większość ekonomistów zgadza się, że płaca minimalna powoduje bezrobocie (spierają się o zakres), ale jakie są argumenty przeciw w sytuacji, w której w kraju przez lata bezrobocie utrzymuje się na poziomie NAIRU. Czy wtedy nie jest to dobre narzędzie zmniejszające nierówności? Tu ciekawy wykres https://pbs.twimg.com/media/CMDs1_CUAAQteQD.jpg ‚Higher income inequality correlates to higher rates of obesity, imprisonment, addiction, infant mortality… ‚

      • W miarę proste wyjaśnienie szkodliwości płacy minimalnej można wyprowadzić z faktu iż płaca jest pochodną wydajności. Ponieważ na rynku funkcjonują podmioty o różnej wydajności ustalenie płacy minimalne wyeliminuje znaczną część istniejących i zablokuję możliwość startu nowym. Wydaje się że model funkcjonujący w Niemczech jest w miarę bezpieczny bo rozsądni przedstawiciele związków zawodowych potrafią wynegocjować wzrost, płac który nie obciąża nadmiernie kosztami przedsiębiorstwa.

        • W Niemczech chyba do niedawana 70% (branż/wszystkich pracujących?) w ogóle nie była objęta płacą minimalną. Jak ten w miarę bezpieczny wariant wygląda dzisiaj po wprowadzeniu płacy minalnej?

          • Nie zawsze rzeczy są tym na co wyglądają. Niemcy znani z pragmatyzmu odkryli, że wprowadzając płacę minimalną (w miejsce niedozwolonych ceł ) nie zaszkodzą własnym firmom a wyeliminują z własnego rynku, konkurencję z krajów byłych demoludów, gdzie płace są wielokrotnie niższe.

          • Szczególnie interesuje mnie pytanie 1 dotyczące kalkulacji ekonomicznej, mógłby ktoś na nie odpowiedzieć? Dodatkowo dopiszę jeszcze pytanie dotyczące historii gospodarczej, 4) Jak to możliwe, że w latach 50 i 60 XX w. wzrost gospodarczy per capita był szybszy niż w najlepszych pod tym względem dekadach w XIX, pomimo wyższego poziomu rozwoju na starcie i co za tym idzie niższym zwrotom z kapitału? Salerno w jednym z wywiadów dla Obserwatora Finansowego zbył podobne pytanie, odpowiadając krótko, że to właściwie w całości zasługa globalizacji. Czy rzeczywiście wyjaśnienie jest takie proste?

      • 1. Ma Pan rację – jest element kalkulacyjny, lecz tylko po jednej stronie, stronie kosztowej, czyli odciągania zasobów od sektora prywatnego (aby zatrudnić je w sektorze publicznym). Nie ma natomiast konkurencyjnej wyceny po stronie: przyciągania kapitału, zdobywania przychodów, a także ex post, ponieważ brak funduszy nie oznacza bankructwa, tylko konieczność kolejnego zadekretowania budżetu. To jest bardziej sponsorowanie niż kalkulowanie.
        Część z tych rzeczy, jak Pan zauważa, nie stosuje się do końca do przypadku KGHM, aczkolwiek tu są inne problemy, bo mówimy o branży mało rynkowej.

        2. Wzrost PKB oczywiście zależy od wielu czynników. Najważniejszym z nich jest potencjał innowacyjny i produktywność pracy. W niejednym kraju na świecie, gdzie udział wydatków publicznych jest wysoki, potencjał innowacyjny i produktywność pracy biją na głowę inne kraje, gdzie zakres państwa jest dużo mniejszy.
        Nota bene kolejność zdarzeń jest raczej odwrotna – państwo wsiada na sektor prywatny i się rozrasta w sytuacji, gdy ten staje się produktywny. Wtedy jest co przejadać i co konsumować. Widać to niemal w każdej rozwiniętej gospodarce kapitalistycznej od ich początków. Wszak przed wiekiem XIX udział rządu w gospodarce był (formalnie) bardzo niewielki.

        3. Wykres ciekawy, aczkolwiek proszę zobaczyć, że całą korelację robią w zasadzie UK i USA. Po ich wykluczeniu korelacja praktycznie nie istnieje, dlatego różnicę można wytłumaczyć lokalnie – coś jest specyficznego w tych dwóch krajach, co powoduje wzrost wskaźnika. I raczej nie może to być Top:Bottom, skoro ta zmienna działa tylko w tych 2 przypadkach, a pozostałych jest miękka.
        Pomijam już, że nie wiem, co to za „index of health and social problems”, bo takie zmienne są zawsze podejrzane.
        No i do tego selektywny stosunek Top:Bottom. Dlaczego nie Gini? Jestem trochę zdziwiony, że Japonia jest tak wyrównana – przecież index Gini jest u nich na tle pozostałych krajów dosyć wysoki.

        pozdrowienia

        PS W Niemczech nie było globalnej płacy minimalnej, ale de facto była sektorowa wynikającą z negocjacji. Rozwiązanie i tak lepsze od ogólnonarodowej płacy minimalnej.

        • Pytanie czy w Polsce by to było mniejsze zło w stosunku do obecnego rozwiązania. Uzwiązkowienie w kraju niskie, ale liderzy związkowi rodem z głębokiej komuny. Mam wrażenie, że zdecydowanie gorzej wykształceni i bardziej oderwani od rzeczywistości od ich zachodnich kolegów.

          Jeszcze byłbym wdzięczny za odpowiedź do pytania 4 z powyższej wiadomości oraz o opinię dotyczącą przyczynowości między I i O. Czy w dzisiejszym systemie monetarnym rzeczywiście możemy jeszcze mówić o O->I? Ostatnio dość popularna jest nawet teza G->I->O.

          • Nie znam się na ekonometrii i nie widzę potrzeby by zgłębiać jej wątpliwe założenia. Bo tak naprawdę nie wiadomo co jest liczone gdy porównujemy gospodarki z różnych okresów i z różnych krajów. Już Pareto wykazał, że (za wiki ) ” Dla danego zbioru gustów konsumentów, zasobów produkcyjnych i techniki alokacja jest efektywna w sensie Pareta, jeśli nie możliwe jest przejście do innej alokacji, która polepszyłaby położenie niektórych ludzi bez szkody dla innych”. Termin „polepszenie” i „szkoda” z założenia jest subiektywny i ma niewiele wspólnego z liczoną wartością rynkową wyprodukowanych dóbr i usług, w szczególności gdy wliczamy w to dodatkowo udział wydatków państwa. Jeśli na to nałożymy jeszcze całe kulturowe spektrum nadające różnym rzeczom różną wartość, to nie sposób się w tym z sensem znaleźć. Na mój gust lat 50-60 to odbudowa zrujnowanej po wojnie światowej gospodarki więc tempo wzrostu gospodarczego powinno być szybsze ( dlatego Chiny wchodząc z ruiny komunistycznej rozwijały się w dwucyfrowym tempie).

  • Tylko Chiny wychodząc z komunistycznej ruiny zaczynały od żenującej bazy (PKB per capita), dlatego dwucyfrowy wzrost przez lata był możliwy. Z Kubą czy Koreą Północną mogłoby by być podobnie. Polska na początku transformacji też otarła się w pojedynczych latach o wynik dwucyfrowy. Dzisiaj to jest niemożliwe. Po drugiej wojnie światowej natomiastUSA były dużo bogatsze niż u zarania kapitalizmu na ich terenach, a jednak rozwijały się szybciej.

    • Owszem i sensowna odpowiedź wydaje się taka, że gospodarka USA po drugiej wojnie miała większy potencjał do wzrostu produktywności i innowacji niż w wieku XIX (swoją drogą dużo w sumie zależy od tego, które dokładnie lata weźmiemy). Pytanie dlaczego? Umiędzynarodowienie rynków (wstępna „globalizacja”), implementacja masowo nowych technologii, postęp w edukacji, a także włączenie do produkcji ogromnego dotychczas marnowanego potencjału, czyli kobiet na rynek pracy.

      Potem od lat siedemdziesiątych interesujące zjawisko, Great Stagnation, czyli nagły spadek w produktywności. Spore znaczenie miała zmiana porządku pieniężnego, choć mało kto zwraca na to uwagę. Jest dużo ciekawej literatury, dlaczego taki zastój się pojawił (w tym, czy rzeczywiście się pojawił). Przy jego okazji nieuniknione są próby spekulowania, dlaczego po II wojnie był wysoki wzrost.

      Sprawa jest trochę skomplikowana, bo dużo zależy od rozmaitych warunków. Proszę na przykład popatrzeć na rolnictwo – największy wzrost to wcale nie początek przemian, ale dopiero po nawozach, traktorach itd. widać wyraźny skok we wzroście. Dlatego twierdzenie o tym, że z niższego poziomu zawsze się idzie szybciej jest niepoprawne.

      pozdrowienia

      • Jeśli wyjdziemy od realnych czynników wzrostu to dr Machaj ma całkowitą racją, Ale istnieją sytuacje w których dla postronnego obserwatora, pojawienie się następcy w gospodarstwie rolnym doprowadzonym do ruiny przez niedołężnego ojca, objawi się jako niebywały postęp w gospodarowaniu. Moją intencją było wykazanie, że opracowywane wskaźniki gospodarcze nie mogą być podstawą do wyciągania wniosków teoretycznych. ZSRR we wskaźnikach produkcji stali, węgla itd wyprzedził tak dalece USA, że w końcu zbankrutował.
        Jak mawiał Mises działanie jednostki jest zawsze celowe ale nie potrafimy ustalić co jest trwałym celem zbiorowości, dlatego nie ma pewności, że to co mierzymy jako wzrost gospodarczy jest tym do czego (mimo werbalnych deklaracji) społeczeństwo dąży.

      • Ma Pan rację, że nie zawsze z niższego poziomu idzie się szybciej, ale przy ogromnych różnicach raczej tak. Trudno dzisiaj oczekiwać, żeby gospodarki wysokorozwinięte rosły w tempie przeszło 10 % jak np. Etiopia czy Turkmenistan w 2014 r. Zna Pan dokładne dane dotyczące udział kobiet w rynku pracy w ujęciu historycznym powiedzmy od końca XVIII w. w USA?

        • Nie znam, ale pamiętam, że to jako jedną z przyczyn wymieniało się w tłumaczeniu szybkości wzrostu. Asymilacja rusza na dobre od lat 40: http://cdn.theatlantic.com/static/mt/assets/hua_hsu/cohen_marriagegender2.png

          Generalnie zgadzam się z „hipotezą konwergencji” i tym, że nadganianie jest łatwiejsze. Proszę też pamiętać, że te kraje korzystają z konwergencji, bo są trochę „gapowiczami” na osiągnięciach innych. Najmocniejsze gospodarki XIX-wieczne nie miały takich liderów do nadganiania.

          • Tylko czy USA w XIX w. właśnie nie korzystało z tego efektu gapowicza? Taka Argentyna i chyba UK były bogatsze, lepiej rozwinięte. Z kolei po wojnie to już USA ciągnęło światową gospodarkę a mimo tego względem wielu państw zwiększało dystans.

          • Pewnie też, ale dużo też zależy od tego, co zgapiamy. Zgapianie pierwszych kombajnów w XIX wieku daje mniejsze efekty niż na przykład zgapienie kombajnu dzisiaj przez Afrykę.
            Swoją drogą nie do końca trafiam z przykładem, bo to Amerykanie wymyślili kombajn 🙂

        • Na temat kobiet na rynku pracy jest trochę ciekawy informacji w książkach prof. Sowella np. rozdział „Fakty i mity na temat kobiet i mężczyzn” w „Fakty i mity w ekonomii”.

  • Między innymi. Było też kilka innych wątków. Troche u kobietach rynku pracy jest również w rozdziale 10 „Logiki ekonomii” Skousena, właściwie podobne ujęcie co u T.S.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

  • google
  • facebook
  • twitter
  • youtube
Zapisz się na newsletter:

Wybierz listę(y):

Cytat:
  • Nie istnieje coś takiego jak darmowe obiady. Milton Friedman
Mecenasi
Wspieraj Nas>>
We wrześniu wsparli nas:
Pan Wojciech Bielecki
Pan Rafał Boniecki
Pani Dominika Buczek
Pani Julia Bula
Pan Marcin Dabkus
Pan Michał Dębowski
Pan Paweł Drożniak
Pan Dariusz Dziadkowski
Pan Maciej Gorzelak
Pan Marek Górecki
Pan Stanisław Gruszka
Pan Jarosław Grycz
Pan Adrian Grzemski
Pan Maciej Grzymkowski
Państwo Paulina i Przemysław Hys
Pan Miłosz Janas
Pan Łukasz Jasiński
Pan Dominik Jaskulski
Pan Paweł Jegor
Pan Tomasz Jetka
Pan Gustaw Jokiel
Pan Dominik Jureczko
Pan Paweł Jurewicz
Pan Jan Kłosiński
Pan Jan Kochman
Pan Wojciech Kukla
Pan Stanisław Kwiatkowski
Pan Tomasz Malinowski
Pan Miłosz Mazurkiewicz
Pani Magdalena Moroń
Pan Marcin Moroń
Pan Piotr Musielak
Pan Maksym Mydłowski
Pan Tomasz Netczuk
Pan Łukasz Nieroda
Pan Filip Nowicki
Pani Karolina Olszańska
Pan Zbigniew Ostrowski
Pan Rafał Parol
Pan Paweł Pasternak
Pan Mikołaj Pisarski
Pani Agnieszka Płonka
Pan Dominik Pobereszko
Pan Bartłomiej Podolski
Pan Paweł Pokrywka
Pan Michał Puszkarczuk
Pan Adam Skrodzki
Pan Michał Sobczak
Pan Radosław Sobieś
Pan Piotr Sowiński
Pan Adam Staszyński
Pan Łukasz Szostak
Pan Michał Szymanek
Pan Jan Tyszkiewicz
Pan Adam Wasielewski
Pan Waldemar Wilczyński
Pan Jakub Wołoszyn
Pan Tomasz Wyszogrodzki
Pan Karol Zdybel
Pan Marek Zemsta
Pani Mariola Zabielska-Romaszewska
Pan Piotr Żółkiewicz, Zolkiewicz & Partners
Pracownik Santander Bank
Łącznie otrzymaliśmy 6 307,21 zł . Dziękujemy wszystkim Darczyńcom!
Znajdź się na liście>>
Lista mecenasów>>