poniedziałek, 7 listopada 2016

Rząd podnosi wynagrodzenie minimalne do 2000 zł brutto - oznacza to wzrost bezrobocia w 2018

Nasz dobry rząd ma podnieść wynagrodzenie minimalne od stycznia 2017 r. o 8,1% w stos. do 2016, czyli do 2000 zł brutto. Bo przecież najłatwiej kazać innym podnieść koszty. Co więcej, E. Rafalska komentuje:
 - Dzięki temu zmniejszy się różnica między wynagrodzeniem średnim, a minimalnym. Zbliżymy się do pożądanych 50 proc. Dobra sytuacja na rynku pracy powinna przekładać się także na wzrost wynagrodzeń.

Reszta na stronie: http://www.regiopraca.pl/portal/rynek-pracy/wiadomosci/placa-minimalna-2017-2000-zlotych-od-pierwszego-stycznia

Dobrze, że dodano komentarz dr Małgorzaty Starczewskiej-Krzysztoszek, głównej ekonomistki Konfederacji Lewiatan:

"Tak wysoki wzrost płacy minimalnej z 1850 zł do 2000 zł może być bardzo niekorzystny dla mikrofirm, które są zwykle mniej efektywne, a średnie wynagrodzenie w nich niewiele przekracza 50 proc. płacy w dużych firmach, a jednocześnie jest tylko trochę wyższe niż płaca minimalna. Dla 96 proc. mikrofirm wysoka podwyżka płacy minimalnej będzie problemem i skłoni przynajmniej część z nich do przejścia do szarej strefy."

Na http://demotywatory.pl/4589316/WIG-20-a-PIS pojawił się swego czasu taki obrazek:
 


Choć od tego czasu giełda się poprawiła, to nadal jest poniżej punktu, od którego PIS przejął władzę.

Wzrost pensji minimalnej najprawdopodobniej spowoduje, że giełda polska będzie spadać jeszcze co najmniej przez 2 lata. Dlaczego tyle? Nie chodzi tu o kolejne wybory parlamentarne, ale właśnie o wynagrodzenie minimalne. Nieco rozświetlę ten temat.

Bardzo przyjemne (bo krótkie) podsumowanie poglądów o płacy minimalnej w ekonomii przedłożył Szarfenberg [1] w 2014 r. Zaczyna od motta:

„... płaca minimalna jest przede wszystkim sprawą polityczną, a koncentrowanie uwagi na modelach ekonomicznych, jakby to one miały kierować procesem politycznym jest całkowicie chybione” Oren M. Levin-Waldman

Nie wiem kto to jest Levin-Waldman, choć google stwierdza, że to spec od ekonomii politycznej. Może i coś w tym jest.

Szarfenberg podaje cały szereg argumentów zwolenników jak i przeciwników płacy minimalnej. Nie będę tu ich przytaczał, bo artykuł Szarfenberga jest dostępny w internecie (link podałem w przypisach).
Ogólnie można powiedzieć, że obrońcy płacy minimalnej albo nie rozumieją jak funkcjonują mechanizmy rynkowe (i w ogóle świat) albo wydaje im się, że wszyscy pracodawcy żyją w zmowie, maksymalizując zyski poprzez maksymalne obniżanie kosztów, czyli wynagrodzeń. Zatem pracodawcy nie konkurują między sobą jak to mówi pre-klasyczna ekonomia, tylko się wzajemnie wspierają. Idąc tym tropem, można byłoby rozszerzyć tę spiskową teorię i powiedzieć, że na rynku jest tylko jeden pracodawca - i oczywiście nie-Polak, tylko Żyd albo Niemiec.

Jasne - są duże sieci monopolistyczne, które rzeczywiście wykorzystują swoją siłę i na przykład dzięki tzw. korzyściom skali ceny ich produktów są niższe niż w sklepach detalicznych, które niewątpliwie na tym cierpią. Ale jakoś obrońcy wynagrodzenia minimalnego nie mają z tym problemu. W końcu im niższa cena tym lepiej! Czysta hipokryzja albo po prostu krótkowzroczność.

A jeżeli nawet pracodawcy nie są w zmowie, to - według socjalistycznych orędowników płacy minimalnej - ludzie są za słabi by sami wymagać godziwego wynagrodzenia, dlatego państwo ma ich za to wyręczać. Jakie to przyjemne - nowi na rynku pracy podczas rozmowy kwalifikacyjnej nie muszą się głowić nad własną wartością rynkową, bo państwo już ich wyceniło.

Szarfenberg waży te dwa przeciwstawne stanowiska, przywołując przykładowe badania statystyczne - będące głosami zarówno za jak i przeciw. Do tego drugiego nurtu zaliczymy wnioski S. Borkowskiej [6]:

„Ogólnie rzecz biorąc, wzrost płacy minimalnej najsilniej oddziałuje na spadek zatrudnienia młodzieży (do 24 roku życia), a w szczególności młodocianych (do 18–19 roku życia)”

Szarfenberg chcąc zachować obiektywizm wskazuje na jedną pozycję w literaturze ekonomicznej, w której autorka pozytywnie ocenia wpływ płacy minimalnej. Cytuje tutaj C. Saget [2]:

„Analiza danych daje silne wsparcie twierdzeniu, że płaca minimalna może mieć pozytywne rezultaty w łagodzeniu ubóstwa poprzez poprawę warunków życia pracowników i ich rodzin, nie mając negatywnego wpływu na zatrudnienie”

Zajrzałem do tej pracy. Saget bada jedynie kraje rozwijające się z Afryki, Ameryki Łacińskiej i Azji. Te z Azji, jakby ktoś pytał, to: Azerbejdżan, Turcja, Filipiny, Tajlandia i Syria. Nie wiem jak inni, ale dla mnie wszelkie dane dot. aktywności ekonomicznej z tych krajów powinny być traktowane z założenia jako podejrzane. Ale nawet pomijając te podejrzenia jedna rzecz dyskwalifikuje ten artykuł. W wersji, która jest darmowa w internecie (i jak sądzę aktualna) autorka pokazuje tabelę z wynikami relacji między biedą a minimalnym wynagrodzeniem:



Częściowy komentarz Saget do tej tabeli:

"The relationship between the minimum wage and poverty remains when the level of development, as approximated by GDP/capita and location are introduced as explanatory variables.5 This can be seen from the bottom of Table 5 (second column), which relates the share of population in poverty to GDP per capita in dollars GDPCAP, minimum wage in dollars MINWDOL, average wage in
dollars AWAGEDOL and four regional dummies."


Zaznaczyłem pogrubioną czcionką "four", bo Saget odnosi się tu do 4 regionów: Afryki Północnej, Afryki Południowej, Ameryki Łacińskiej i Azji. Są to zmienne sztuczne w modelu regresji, tzw. dummy variables albo dummies, które przybierają wartość 0 (fałsz) lub 1 (prawda), wskazując tym samym istotność wpływu danego regionu. Jednak w rzeczonej dolnej części tablicy są tylko 3 z tych regionów, tak jakby 4-ta gdzieś się zgubiła (brakuje Azji). W dodatku analiza zawiera bardzo małą liczbę obserwacji. To wszystko sprawia, że analizy Saget nie można brać na poważnie.

Ludzie przeczytają takie prace niezbyt dokładnie, a potem się nimi posługują jako argumentami na poparcie swojej tezy. Problem naszych czasów polega na tym, że od dziecka ludzie uczeni są, że każdy może wypowiadać się w kwestii ekonomii tak samo jak polityki. Ekonomię traktuje się prawie na równi z polityką. Mamy przecież "ekonomię polityczną". Tak więc premier czy inny polityk nie wie o czym mówi, a ludzie tego słuchają. Ale nie chodzi tylko o polityków, ale też samych ekonomistów. Są różne poziomy ekonomistów. Nie mając przygotowania ani wiedzy, ludzie nie odróżnią eksperta od pseudo-eksperta. Dobrym przykładem jest następujące ćwiczenie: wpisałem w google frazę "wplyw placy minimalnej w polsce". Na drugim miejscu pojawił się artykuł Wielki mit płacy minimalnej. Jej podniesienie nie zwiększa bezrobocia. Czytanie tego to strata czasu, ale przytoczę jeden fragment:

"– Amerykanie potrafili dostrzec pozytywny wpływ racjonalnej polityki płacowej na rozwój gospodarczy. Henry Ford już w 1914 r. wprowadził w swojej firmie minimalną płacę dzienną w wysokości 5 dol. Była to wysoka kwota, bo np. samochód, który wówczas był towarem luksusowym, kosztował 450 dol. Początkowo wszyscy twierdzili, że Ford zbankrutuje, ale dzięki temu wyraźnie wzrosła wydajność pracy w firmie."

Szok, żenada, jak to nazwać? Nie wiem czy cytowany "profesor" czy po prostu autor tego artykułu nie rozumie czym jest płaca minimalna. Gdyby przedsiębiorca mógł sam ustalać wynagrodzenie dla swojego pracownika, to zaprzeczałoby to właśnie idei płacy minimalnej, którą socjalistyczny autor próbuje nam narzucić. Takie artykuły, które pojawiają się nie tylko na pierwszych stronach, ale na pierwszych miejscach wyszukiwarki, stanowią właśnie przyczynę zacofania społeczeństwa w zakresie wiedzy ekonomicznej.

Co w takim razie mówią poważni ekonomiści na zadany temat? Analizując to zagadnienie dla USA, Sabia i Burkhauser w 2010 [3] stwierdzają, że "stanowe i federalne minimalne płace zwiększane pomiędzy 2003 a 2007 nie miały żadnego wpływu na poziom stopy biedy". Dodatkowo również zanotowali negatywny wpływ spadku zatrudnienia. Ich konkluzja brzmi:

"Nasze wyniki sugerują, że wzrost minimalnej płacy stanowi nieodpowiedni sposób do pomocy ubogim pracującym".

Przyglądając się innym badaniom ci sami autorzy zdradzają:

"Ostatnio przeprowadzano wiele badań na temat wpływu wzrostu minimum płacy na dochody i biedę (zob. np. Card i Krueger 1995; Addison i Blackburn 1999; Neumark i Wascher 2002; Gundersen i Ziliak 2004; Neumark, Schewitzer i Wascher 2004, 2005; Burkhauser i Sabia 2007; Sabia 2008) i wszystkie poza jedną zauważały, że podwyżki minimalnych płac nie miały w przeszłości żadnego efektu."

Tym wyjątkiem był artykuł Addisona i Blackburna z 1999 [4]. Przejrzałem go. Mimo że faktycznie ogólne rezultaty przemawiały za ujemną korelacją pomiędzy wzrostem minimalnego wynagrodzenia a stopą biedy, to gdy bliżej się im przyjrzymy, przestają być już tak oczywiste. Najbardziej uderzające jest to, że gdy autorzy podzielili badanie na 2 okresy 1983-1989 oraz 1989-1996, to tylko w drugim okresie minimalne wynagrodzenie miało istotny statystycznie wpływ. Cały efekt wynikał więc z drugiego okresu. Trochę pachnie przypadkiem.

Wszystkie powyższe artykuły skupiały się na szukaniu związku między zmianami min. płacy a poziomem biedy, najczęściej liczonej w dochodach rodziny. Prostszym sposobem jest zmierzenie po prostu poziomu bezrobocia wśród młodych grup zawodowych, których głównie dotyczy ta kwestia. Artykułów zagranicznych o tym jest cała masa. Można też znaleźć artykuły dotyczące Polski; np. jest artykuł B. Dańskiej-Borsiak z 2014 r. , dostępny w internecie [5]. Autorka dochodzi do następującego wniosku:

"Wykazano, że zarówno poziom płacy minimalnej, jak i jej stosunek do wynagrodzenia przeciętnego są przyczynami w sensie Grangera liczby pracujących w wieku 15-29 lat w Polsce w okresie 1990-2013. Stwierdzono również, ceteris paribus, negatywny wpływ obu wymienionych zmiennych na liczbę młodych pracujących, przy czym w przypadku płacy minimalnej ten efekt jest opóźniony o jeden rok. Prognozy wariantowe do roku 2020 wskazują największą liczbę pracujących, jeśli płaca minimalna nie przekroczy 40% wynagrodzenia przeciętnego przy jednoczesnym utrzymaniu obecnego tempa wzrostu płacy minimalnej."

Ostatnie dane GUS wskazują, że przeciętne wynagrodzenie brutto wyniosło w 2 kw. 2016 ponad 4000 zł. Oznacza to, że minimalna płaca obecnie jest za wysoka i nie powinna przekroczyć 1600 zł brutto.

Równie ważne jest ostatnie zdanie w cytowanej wyżej pracy:

"Uzyskane rezultaty mogą stanowić głos w powracającej co roku dyskusji na temat podnoszenia płacy minimalnej. Postulowane przez związki zawodowe ustalenie jej na poziomie 50% wynagrodzenia przeciętnego wydaje się bardzo niekorzystne z punktu widzenia poziomu zatrudnienia."

Od 2017 będziemy mieć już poziom 50%. Od 2018 r. należy się więc spodziewać wzrostu bezrobocia. Ktoś mógłby spytać, że skoro obecnie min płaca > 40% przeciętnej płacy, to dlaczego bezrobocie jest obecnie tak niskie? Tylko że jej skok nastąpił w 2009 r., a potem ją jeszcze w latach 2012-2013 podnoszono:


 Źródło: wikipedia. Link: https://pl.wikipedia.org/wiki/P%C5%82aca_minimalna#/media/File:Minimalne_wynagrodzenie_jako_odsetek_przecietnego_wynagrodzenia_w_gospodarce_narodowej.png

Po roku 2013 też nastąpił wzrost stosunku minimalnej do przeciętnej płacy, ale spowolnił. Wg założeń PIS wzrost ten znów przyspieszy od 2017.

Dla porównania bezrobocie wśród młodych:


Źródło: http://rynekpracy.org/x/946883


Znając giełdę dyskontującą PKB (które jest ujemnie skorelowane z bezrobociem), spadki zaczną się wcześniej.




Literatura:

[1] R. Szarfenberg, Kontrowersje wokół podniesienia płacy minimalnej, Instytut Polityki Społecznej Uniwersytet Warszawski, 2014, link: rszarf.ips.uw.edu.pl/pdf/placmin.pdf

[2] C. Saget, Is the Minimum Wage an Effective Tool to Promote Decent Work and Reduce Poverty? The Experience of Selected Developing Countries, International Labour Office, 2001, link: http://www.ilo.org/employment/Whatwedo/Publications/WCMS_142310/lang--en/index.htm

[3]  J. J. Sabia, R. Burkhauser, Minimum Wages and Poverty: Will a $9.50 Federal Minimum Wage Really Help theWorking Poor?, Jan. 2010;

[4] J. T. Addison, M. L. Blackburn, Minimum Wages and Poverty, Apr. 1999;

[5] B. Dańska-Borsiak, Płaca Minimalna A Liczba Młodych Pracujących. Związki Przyczynowe I Prognozy Wariantowe, Uniwersytet Łódzki, 2014, link: http://cejsh.icm.edu.pl/cejsh/element/bwmeta1.element.desklight-4feddeec-395b-4ec8-9f3b-aada3ae4e2fd

[6] S. Borkowska, Minimum Wages and Reducing Poverty, University of Łódź, 2001, link1:  http://unpan1.un.org/intradoc/groups/public/documents/nispacee/unpan004913.pdf , link2: http://unpan1.un.org/intradoc/groups/public/documents/nispacee/unpan004779.pdf

czwartek, 3 listopada 2016

"Metody najmniejszych kwadratów i niektóre alternatywy" - książka Hartera

Chyba najlepszym sposobem na zwiększenie pokory wobec nauki jest zobaczenie jak ogromny postęp dokonał się w danej dziedzinie w określonym przedziale czasu. Na przykład w ekonometrii osobną poddziedziną można nazwać metodę najmniejszych kwadratów (MNK), której historia zaczyna się mniej więcej od XVIII w. (choć pre-historia od Galileusza, od 1632 r.). Harter opisał ją bardzo, bardzo szczegółowo w książce "The Method of Least Squares and Some Alternatives". Wersję z 1972 r. można pobrać w słabej jakości z poniższego linku:

www.dtic.mil/dtic/tr/fulltext/u2/752211.pdf

Dowiadujemy się, że przed narodzinami MNK narodziła się metoda najmniejszych błędów absolutnych opisana przez Boscovicha w 1757, a także metoda największej wiarygodności, którą zaproponował Bernoulli w 1778. Mimo iż MNK kojarzy się dziś tylko z funkcją regresji, a więc ze zmienną warunkową, jej historia zaczęła się od pytania o właściwe określenie średniej dla zmiennej niewarunkowej. Duży wkład w tym temacie miał Laplace, który w 1781 najpierw przedstawił 4 kryteria, którymi można się kierować przy wyborze miary centralnej tendencji:
1) można wymagać takiej średniej, aby suma dodatnich błędów równała się sumie ujemnych błędów (średnia arytmetyczna);
2) można wymagać, aby suma dodatnich błędów przemnożonych przez ich odpowiednie prawdopodobieństwa równała się sumie ujemnych błędów przemnożonych przez ich odpowiednie prawdopodobieństwa (średnia ważona);
3) można wymagać, aby średnia była najbardziej prawdopodobną prawdziwą wartością (kryterium największej wiarygodności Bernoulliego);
4) można wymagać, aby błąd był minimalny; tzn. aby suma iloczynów błędów i ich prawdopodobieństw była najmniejsza.

Laplace pokazał, że kryterium (4), które uważał za podstawowe, jest równoważne kryterium (2). Pokazał też, że (4) prowadzi do średniej arytmetycznej i w ten sposób zgadza się z (1) pod warunkiem, że:
1. rozkład prawdopodobieństwa jest taki sam dla wszystkich obserwacji;
2. rozkład jest symetryczny;
3. błąd może dążyć do nieskończoności, ale wtedy jego prawdopodobieństwo dąży do zera.

Później w 1805 r. Legendre jako pierwszy opublikował MNK. Gauss również jej używał, jeszcze przed swoimi publikacjami. W 1809 r. Gauss publikuje twierdzenie, że w symetrycznym i jednomodalnym (czyli z jedną dominantą) rozkładzie istnieje tylko jedno prawo - tzw. normalne prawo błędów - dla którego najbardziej prawdopodobną wartością jest średnia arytmetyczna. Prawdopodobieństwo odchylenia jest proporcjonalne do exp(-h x^2), gdzie h = 1/(2s^2), s - odch standardowe, x - zmienna losowa będąca odchyleniem (błędem) od wartości oczekiwanej. Zatem Gauss powiązał kryterium (1) z (3) Laplace'a (pamiętajmy, że mówimy tu ciągle jeszcze o zmiennej niewarunkowej). Jednocześnie dowiódł, że MNK, którą zaprezentował Legendre, stanowi konsekwencję prawa błędów. W 1810 Laplace dowiódł, że przy ogólnych warunkach rozkład średnich w próbie dąży do normalnego. W 1816 r. Gauss zauważył, że nie jest potrzebna precyzja h, aby zastosować MNK. Prawo błędów dostarcza informacji o prawdopodobieństwie odchylenia od średniej, natomiast MNK dostarcza średnią wartość estymatora. W 1818 Laplace porównał MNK z metodą najmniejszych błędów absolutnych zaproponowaną przez Boscovicha i doszedł wniosku, że pierwsza z nich prowadzi do średniej arytmetycznej, natomiast druga do mediany. W końcu w 1823 Gauss uzasadnił użycie MNK bez założenia normalności rozkładu odchyleń.

W 1830 r. Hauber rozszerzył  pracę Gaussa na estymację, gdy obserwacje pochodzą z (możliwie) różnych populacji - o różnych wariancjach, a więc zmienna x przestaje być IID.

W ten sposób rozpoczęła się era teoretycznych odkryć MNK wraz z jego alternatywami. Im dalej, tym modele coraz bardziej złożone, ale i dokładniejsze. Dziś Uogólniona MNK, nieliniowa MNK czy nawet nieparametryczne MNK stały się standardem w specjalistycznych programach do ekonometrii.

Darmowa wersja z 1972 r. kończy się na roku 1972. Harter napisał drugą wersję w 1974. Mimo iż różnica to tylko 2 lata, Autor dodał i opisał dodatkowo jeszcze 118 pozycji. Większość z nich ma zastosowanie do modeli ekonomicznych i finansowych. Myślę, że dzisiaj byłoby to dziesiątki tysięcy.

niedziela, 30 października 2016

Średnia warunkowa czy niewarunkowa?

Finansiści, stosując od czasu do czasu regresję liniową, np. model trendu, rzadko myślą o zmiennej losowej warunkowej. Ale to właśnie pojęcie warunkowości tworzy różnicę pomiędzy zwykłą średnią arytmetyczną a stopą w modelu trendu. Ostatnio pokazałem to za pomocą "Smarującego estymatora" (SE) Duana. SE posłużył mi jako oczekiwana stopa zwrotu w dwóch przypadkach:
1) gdy cena rośnie wykładniczo w czasie, tzn. prawdziwy jest model P(t) = e^(bt + składnik losowy), przy czym składnik losowy może pochodzić z dowolnego rozkładu;
2) gdy cena nie zależy od czasu, tzn. średnio znajduje się ciągle na tym samym poziomie. Np. WIG od końca 10.2006 do końca 10.2016 to praktycznie linia płaska:



Okazało się, że w tym drugim przypadku SE sprowadza się do niewarunkowej średniej arytmetycznej stopy zwrotu. Natomiast gdy istnieje wykładnicza zależność od czasu, to SE jest warunkową średnią równą e^b*D, gdzie D to korekta Duana liczona jako średnia arytmetyczna z wykładniczych składników losowych e^(składnik losowy). Zatem, jeżeli czas staje się warunkiem dla zmian kapitału, to średnia niewarunkowa przekształca się w średnią warunkową.

Jednak inwestor przyzwyczajony do pojęcia stopy zwrotu zaczyna się zastanawiać: w jaki sposób czas miałby w ogóle wpływać na stopę zwrotu? Przecież po to właśnie jest pojęcie stopy, czyli procentu, aby uniezależnić zmiany kapitału od kolejnych okresów. Ale gdy spojrzymy na to zagadnienie tak jak na różnicę pomiędzy średnią arytmetyczną a geometryczną, odpowiedź staje się jaśniejsza: gdy obliczamy średnią geometryczną, uwzględniamy fakt, że wartość kapitału zależy od okresu poprzedniego, bo jest jakby oprocentowany. Natomiast gdy wyznaczamy średnią arytmetyczną, każdą zmianę kapitału traktujemy całkowicie niezależnie od poprzednich okresów. To stąd przecież powstaje różnica pomiędzy "długookresową średnią stopą zwrotu" a "krótkookresową średnią stopą zwrotu", wskazując w pierwszym przypadku na czasową zależność zmian kapitału oraz w drugim przypadku na ich niezależność.

A stąd już tylko krok do zrozumienia różnicy pomiędzy warunkową a niewarunkową średnią: ta pierwsza zawiera część stochastyczną D oraz część systematyczną e^b. Część systematyczna jest niczym innym jak średnią geometryczną brutto w rozkładzie ciągłym. Oczywiście jest różnica między rozkładem ciągłym a dyskretnym, ale w modelu ciągłym zakładamy, że pomiędzy dwoma oddalonymi punktami możemy wstawić pewną średnią z tych punktów, ponieważ czas jest ciągły. Nie będzie to średnia arytmetyczna, ale właśnie geometryczna. Jeżeli mamy okres pomiędzy 10 a 11, np. 10,5 i chcemy wyznaczyć teoretycznie ten punkt, to zauważmy, że średnia geometryczna brutto z wartości pomiędzy okresem 10 a 11 równa się (e^10*e^11)^0,5 = e^(21*0,5) = e^10,5. Trzeba jednak zaznaczyć, że przejście od rozkładu dyskretnego do ciągłego w rzeczywistości wszystko zmienia, bo o ile w dyskretnym stopy brutto wewnątrz okresu się redukują, tak że wpływ na średnią ma jedynie pierwsza i ostatnia wartość, o tyle w ciągłym już tego zrobić nie mogą i jest to poniekąd przyczyna, dla której średnia geometryczna brutto w rozkładzie ciągłym staje się równa medianie, co odpowiada temu co napisałem kiedyś w Istota i znaczenie logarytmicznej stopy zwrotu.

Oczywiście trzeba pamiętać, że średnia warunkowa jest znacznie szerszym pojęciem niż tylko w kontekście czasu. Częściej średnia warunkowa traktowana jest w powiązaniu z inną zmienną losową. Np. w dwuwymiarowym rozkładzie normalnym, w którym zmienne losowe X i Y są ze sobą skorelowane, wartość oczekiwana Y pod warunkiem, że X = x jest dana wzorem [2]:


Jeżeli współczynnik korelacji ρ jest równy zero, warunkowa wartość oczekiwana Y sprowadza się do niewarunkowej wartości oczekiwanej m(Y). W przeciwnym razie Y zależy od zachowania X. Na przykład Y może być stopą zwrotu z akcji, a X stopą zwrotu z indeksu giełdowego. Gdyby obie pochodziły z rozkładu normalnego, to przedstawiona relacja byłaby zawsze prawdziwa i zawsze liniowa. Widać więc, jak istotną rolę pełni warunkowość, którą można rozpatrywać zarówno w kontekście przestrzeni jak i czasu.

Literatura:
[1] N. Duan, Smearing Estimate: A Nonparametric Retransformation Method, Sep. 1983,
[2] Z. Hellwig, Elementy rachunku prawdopodobieństwa i statystyki matematycznej, PWN W-wa 1998.

niedziela, 16 października 2016

Smarujący estymator

Poprzednio pokazałem, że gdy przyjmiemy model geometrycznego procesu ruchu Browna (model ceny aktywa):

(1)


oraz wiedząc, że parametr b jest nieznany, tak że możemy jedynie oszacować jego wartość na podstawie próby losowej, to wartość oczekiwana stopy zwrotu (R) może być oszacowana za pomocą modelu:

(2)



gdzie b z falką to estymator MNK z modelu ln(P) = b*T + składnik losowy.

Wyraz k wyraża błąd retransformacji z postaci liniowej do nieliniowej (pierwotna jest postać nieliniowa, która jest transformowana do liniowej przez logarytmowanie, aby zastosować MNK; następnie powracamy do postaci nieliniowej, czyli dokonujemy retransformacji). Jak widać przy nieco większym T, wyraz k ma bardzo mały wpływ.

Geometryczny ruch Browna zakłada jednak rozkład log-normalny. Z tym rozkładem jest ten problem, że jego lewy ogon bardzo szybko zbiega do zera:





W rzeczywistości dobrze wiemy, że na giełdach zdarzają się rzadkie, ale bardzo silne odchylenia, a także asymetria. Kwartalny sWIG80 od 01.1994 do 03.2016 (87 obserwacji) miał minimum na poziomie -40%, a maksimum prawie +54%. Poniżej jest wykres oszacowanego rozkładu sWIG80 (zrobiony w Gretlu za pomocą jądra Gaussa - metoda ta daje zniekształcony obraz, bo sugeruje, że wystąpiły wartości poniżej -40%, co jest nieprawdą):



W tym wypadku lepszy okazuje się rozkład normalny, choć występuje tu pewna prawostronna skośność.

Duan [1] przedstawił metodę retransformacji, która nie zakłada z góry żadnego rozkładu. Duan nazwał swój estymator "smarującym estymatorem" (smearing estimate). Pokazał, że jego estymator daje lepsze rezultaty, tzn. jest bardziej efektywny, gdy rozkład stopy zwrotu nie jest log-normalny, a więc gdy logarytmiczna stopa zwrotu nie posiada rozkładu Gaussa. 

Smarujący estymator (SE) dla oczekiwanej stopy zwrotu można zapisać następująco:

(3)


Wariancja składnika losowego jest tym razem stała w czasie, czyli występuje jednocześnie  homoskedastyczność i stacjonarność składnika losowego. Składnik losowy jest tutaj różnicą pomiędzy sąsiadującymi składnikami losowymi modelu logarytmicznej ceny, dlatego że pierwotny składnik losowy w modelu (1) jest niestacjonarny (porównaj zapis wariancji w obu przypadkach). Oczekiwana stopa zwrotu powstała po prostu przez zapis:



Nic więc dziwnego, że aproksymacją będzie:

(4)

Korekta Duana to zwykła średnia arytmetyczna kolejnych stosunków reszt z regresji liniowej. 
Gdy rozkład log-stopy jest normalny i znamy pełną populację to (4) sprowadza się do:


oraz gdy jest normalny i nie znamy pełnej populacji, to z modelu (2) wynika, że:


Model (3) można więc traktować jako uogólnienie (2). Trzeba jednak zaznaczyć, że oryginalny wzór Duana jest nieco bardziej ogólny niż ten, który podałem w (3): w naszym przypadku rolę zmiennej objaśniającej pełni zmienna czasowa, która się redukuje, natomiast w oryginale jest zastąpiona zmienną x, która może być dowolna (wtedy też w modelu (3) ocena parametru b z falką będzie przemnożona dodatkowo przez x).

Model (3) pozwala też zrozumieć zależności pomiędzy średnią warunkową a niewarunkową. Jeżeli nie istnieje liniowa korelacja między okresem T a logarytmiczną ceną ln(P), czyli gdy ocena b = 0 w modelu (1), to oczekiwana stopa zwrotu w (3) sprowadza się do zwykłej średniej arytmetycznej:



Przykład.
Aby porównać model (2) z (3), użyję tych samych danych co poprzednim razem, tj. dla mbanku - rocznie 1994-2015 (22 obserwacje). Nie będę się wgłębiał w to czy stopy mbanku są normalne, lognormalne czy jeszcze inne. Zaczynamy od zlogarytmowanego modelu (1):


Parametr b wyniósł 11,18%. Korzystając z Gretla uzyskałem reszty powyższej regresji liniowej, które podstawiłem do wzoru (4), czyli korekty SE. Korekta ta wyniosła 1,0699. Podstawmy to do (3):



Dla porównania stosując model (2) uzyskałem wielkość 18.69%, natomiast dla standardowego wzoru na wartość oczekiwaną w rozkładzie lognormalnym (czyli dla k = 0) 18.73%. Dodatkowo przypomnę, że średnia arytmetyczna wyniosła 20,08%, a geometryczna 11,71%. Pamiętać trzeba, że geometryczna średnia dotyczy tylko inwestycji długoterminowej, dlatego SE staje się konkurencyjny głównie w stosunku do średniej arytmetycznej (która będzie poprawna w sytuacji, gdy logarytmiczna cena nie jest liniowo skorelowana z okresem czasu) oraz do estymatora z (2) (który jest poprawny dla próby w rozkładzie log-normalnym).



Literatura:
[1] N. Duan, Smearing Estimate: A Nonparametric Retransformation Method, Sep. 1983

poniedziałek, 19 września 2016

Transformacja lognormalnego modelu z nieznanym parametrem

Problem estymacji parametrów nieliniowych funkcji losowych poprzez przekształcenia liniowe jest znany w statystyce od dawna i ma bogatą historię. Zajmowali się nią Barlett [1], Quenouille [2], Neyman i Scott [3], Box i Cox [4], Hoyle [5], Granger i Newbold [6], Duan et al. [7], Taylor [8] i wielu innych. W szczególności transformacjami rozkładów lognormalnych zajmowali się Finney [9],  Mostafa i Mahmoud [10], Meulenberg [11], Goldberger [12], Bradu i Mundlak [13] , Heien [14], Teekens oraz Koerts [15], Evans i Shaban [16], Duan [17].

Zacznijmy ponownie  od modelu, który opisałem w Czy mediana jest lepsza od średniej?, tj. proces geometrycznego ruchu Browna, jednak dla uproszczenia pomińmy stałą, która nie ma tutaj wpływu na analizę:

(1)

Logarytmując model (1) uzyskujemy funkcję liniową, co pozwala nam na użycie MNK:


Wiemy już, że prosta delogarytmizacja ostatniego równania nie prowadzi do otrzymania wartości oczekiwanej P(t). Aby ją uzyskać, musimy wykorzystać własności rozkładu lognormalnego. Składnik losowy z początkowego założenia ma rozkład normalny, wobec czego exp(składnik losowy) ma rozkład lognormalny. Ale co z parametrem b? Dotychczas dla uproszczenia zakładaliśmy, że b jest znane. W rzeczywistości nie znamy parametru b. Jeżeli nawet b jest nieznane, to ciągle pozostaje stałą, wobec czego wartość oczekiwana zmiennej lognormalnej pozostaje jak w poprzednich rozważaniach:

(2)

W rzeczywistości b jest nieznane, bo operujemy zawsze na pewnej próbie losowej, a więc szacowany parametr będzie się zachowywał jak zmienna losowa (dla danego okresu) o pewnej wartości oczekiwanej i wariancji. Trzeba zauważyć, że w ekonometrii mamy 2 rodzaje wartości oczekiwanych: dla stałej wartości (w populacji) oraz dla zmiennej losowej (w populacji i w próbie). W pierwszym przypadku mamy do czynienia po prostu z prawdziwym parametrem istniejącym de facto dla pełnej populacji. Jednak próbki z tej populacji będą losowe i będą kreować statystyki, jak średnia i wariancja. Dopiero przy bardzo dużej liczebności próbki, wariancja będzie spadać do zera, tak że pozostanie tylko średnia, która zbliży się do prawdziwego parametru i w ten sposób wartość oczekiwana zmiennego parametru z próby będzie się równać prawdziwemu (stałemu) parametrowi. W drugim przypadku wartość oczekiwana dotyczy zmiennej losowej niezależnie czy myślimy o próbie czy populacji. Wtedy próbki losowe będą kreować własne rozkłady, ale wraz z wielkością próby będą zbliżać się do rozkładu z populacji, podobnie jak w pierwszym przypadku. Jednakże  tym razem wariancja nie będzie już spadać do zera wraz z liczebnością próby.

Niezależnie od tego czy mówimy o pierwszym czy o drugim przypadku, zawsze określenie "wartość oczekiwana" będzie się odnosić do średniej z populacji. Wartość oczekiwana parametru b będzie więc równać się prawdziwemu parametrowi.

Przyjmiemy pierwszy przypadek. Chociaż moglibyśmy przyjąć drugą możliwość - z parametrem jako zmienną losową - to czyniłoby to analizę znacznie bardziej skomplikowaną. Dlatego przyjmiemy standardowy punkt widzenia - czyli że istnieje tylko jeden prawdziwy parametr, ale dążymy do jego uzyskania na podstawie prób losowych. Oznacza to, że parametr b jest stały, więc model (2) jest nadal poprawny.

Formalnie rzecz biorąc model (1) stanowi model dla całej populacji. Stąd również model (2) dotyczy całej populacji. Jeżeli więc tworzymy model w oparciu o próbę losową, to nasze parametry zaczynają już się wahać, stają się zmiennymi losowymi, a przez to, aby zachować formalność, musimy te zmienne jakoś inaczej oznaczyć, aby odróżnić je od prawdziwych (stałych) parametrów. Oznaczymy je daszkiem. Uzyskamy więc na podstawie próby losowej cenę z daszkiem, parametr b z daszkiem, a nawet składnik losowy z daszkiem, bo ogólnie rzecz biorąc może on się inaczej zachowywać niż prawdziwy składnik losowy z populacji. Mówiąc krótko, estymujemy model (1) za pomocą:

(3)

Ponieważ składnik losowy ma rozkład normalny, to zmienna b także. Naszym zadaniem jest teraz znaleźć wartość oczekiwaną ceny z daszkiem. Pamiętajmy jednak czym jest cena z daszkiem - to losowa prognoza ceny. Zatem szukamy oczekiwanej prognozy ceny. Zmienna b z daszkiem jest ciągle zmienną losową o rozkładzie normalnym, zatem exp(bt) ma rozkład log-normalny, czyli cena z daszkiem ma rozkład log-normalny. A więc szukamy wartości oczekiwanej zmiennej o takim rozkładzie. Wzór na nią jest znany. Wzór ten zawiera w sobie wartość oczekiwaną b z daszkiem oraz wariancję b z daszkiem. W naszym wypadku zakładamy, że wariancja współczynnika b jest znana, tzn. jest równa wariancji współczynnika b z daszkiem. Z własności wartości oczekiwanej i wariancji wiemy, że


, ponieważ czas t jest oczywiście stałą.
Całkowity model z wartością oczekiwaną to przekształcenie z (3)

(4)

Zwróćmy uwagę, że wariancja składnika losowego jest funkcją czasu, a nie stałą - w każdym kolejnym okresie się zwiększa.

Aby nie mylić jednostek czasowych ze zmienną, t zastąpimy ostatnim okresem T. Ponieważ wariancja składnika losowego sumuje się w czasie, zapiszemy ją jako średnią wariancję przemnożoną przez T:

(5)

Aby uprościć model (5), wykorzystamy dwa znane wzory: na ocenę parametru b z daszkiem oraz wariancję parametru b z daszkiem. (Oba można znaleźć np. w Uriel [18], wzory 2-37 + 2-64). Pierwszy to estymator MNK dla b, który oznaczymy jako b z falką, w sytuacji gdy stała w modelu liniowym jest równa 0:

(6)

Jednak sumę kwadratów liczb naturalnych można wyrazić za pomocą (zob. np. http://www.trans4mind.com/personal_development/mathematics/series/sumNaturalSquares.htm):

(7)

Stąd:

(8)

Drugi wzór - na wariancję współczynnika b pokażemy od razu wykorzystując wzór (7):

(9)

Wariancja ta nie zawiera już falki, bo z początkowego założenia była znana. Ponieważ wariancja składnika losowego jest znana, to podstawiamy (9) do (5):

(10)

Uzyskaliśmy ocenę wartości oczekiwanej ceny. W końcu przypomnijmy, że (2) można zapisać:

(11)
 Co oznacza, że nasz model (10) będzie go przypominał wraz ze wzrostem liczebności próby T:

 Inaczej mówiąc:


Ale tak będzie tylko w przypadku, gdy T jest duże. Trzeba w tym miejscu mocno uświadomić sobie co to oznacza. Model (10) jest wartością oczekiwaną prognozy ceny (prognoza ceny jest zmienną losową). Oczekiwana prognoza ceny jest pewną średnią opartą na obserwacjach historycznych. Tymczasem model (11) jest wartością oczekiwaną samej ceny. Dopiero w długim okresie model (10) zrówna się z modelem (11). Tak nakreślona sytuacja pozwala nam określić kryterium, za pomocą którego wybierzemy jedną z tych dwóch wartości oczekiwanych. Czy chcemy odnaleźć wartość oczekiwaną z próby losowej czy wartość oczekiwaną z populacji. Wcześniej jednak stwierdziłem, że mówiąc o wartości oczekiwanej mam na myśli zawsze średnią w populacji, jeśli więc dotyczy próby, to nie jest to wartość oczekiwana. Wynika z tego, że model (10) jest estymatorem obciążonym wartości oczekiwanej ceny. Nie jest wcale oczywiste, że obciążony estymator należy odrzucić. Ważniejsza jest efektywność estymatora. W tym przypadku mniejszą wariancję posiada jednak estymator nieobciążony wartości oczekiwanej ceny - model (11), który nas interesuje (widać, że w modelu (10) współczynnik f jest dodatni, więc powiększa wariancję, więc jest gorszy). Problem leży w wyłuskaniu jego empirycznej postaci.

Problem ten rozwiązuje Meulenberg [11]. Zauważa on, że model (10) jest modelem empirycznym, a więc to on będzie punktem zaczepienia. Pomiędzy modelem (10) a (11) istnieje pewna relacja. Na początku przecież stwierdziłem, że wartość oczekiwana zmiennej b z daszkiem będzie równa b, czyli:

(12)

Ale wtedy dla dowolnego T można będzie (10) zapisać:

(13)

 A wtedy (13) można przekształcić:


 I w ten sposób dostajemy równanie na poszukiwaną E(P):

(14)

Co wstawić za E(P z daszkiem)? Meulenberg stwierdził, że (10), a więc także (13) jest modelem empirycznym, a więc już zawierającym parametry obliczone MNK. Zauważmy jednak do czego to prowadzi. Jest to najtrudniejszy moment w teorii, więc powtórzmy. Zaczynamy od modelu (3), logarytmujemy i z liniowego modelu wyznaczamy poprzez MNK empiryczne b, które oznaczamy jako b z falką. Ale b z falką jest stałą (w przeciwieństwie do b z daszkiem), a nie zmienną losową. Jeżeli więc teraz podstawimy tę stałą do modelu liniowego, to retransformacja do modelu wykładniczego (3) i wyznaczenie wartości oczekiwanej wykładniczego modelu (3) nie będzie zawierać składnika f, związanego z wahaniami estymacji. Zatem wartość oczekiwana z (3) stanie się prostym modelem:

 (15)

Pomysł Meulenberga polega na zrównaniu modelu (13) z modelem (15). Później przeanalizujemy czy jest on trafny.

(16)
Przekształcając:

Co daje:

(17)


Stąd:

(18)


Czyli:

(19)

Lub w nieco prostszym ujęciu:

(20)

Model (20) jest tym, czego szukaliśmy: zawiera wszystkie składniki gotowe do użycia w regresji liniowej MNK. Pozostaje jeszcze kwestia wariancji. Do jej estymacji może służyć zwykła wariancja logarytmicznej stopy zwrotu, ale formalnie należy użyć tzw. błędu standardowego reszt, będącego pierwiastkiem wariancji składnika resztowego (formalność wynika z ciągłości użytej funkcji).

Podobnie jak to wcześniej analizowaliśmy, gdy T rośnie, błędy związane z przekształceniem funkcji liniowej w wykładniczą tracą coraz bardziej na znaczeniu, tak że w dużej próbie b z falką stanie się bliskie prawdziwemu parametrowi b (a więc k spada do zera).

Teraz przeanalizujemy trochę dokładniej sposób Meulenberga, ponieważ wcale nie jest jasne utożsamienie (13) z (15). Wróćmy jeszcze raz do tej równowagi w (16) i przekształćmy inaczej:

(21)


W końcu, biorąc pod uwagę zapis (20) trzeba zauważyć, że (21) można zapisać:

(22)

Zwróćmy uwagę na (22): odejmuje się tu pewną zawyżoną część wariancji, aby zrównać ocenę parametru z prawdziwym parametrem b.

Warto jeszcze raz odróżnić ocenę wartości oczekiwanej od tej wartości:


Zazwyczaj mniej lub bardziej świadomie popełnia się ten błąd, że prawdziwy parametr b jest równy ocenie tego parametru, czyli b z falką. Formalnie rzecz biorąc nie można więc podstawić b z falką ani do modelu (2) ani (10). Podstawienie b z falką do (16) wynika wyłącznie ze stwierdzenia, że b z falką już zawiera w sobie zawyżoną kapitalizację wskazując tym samym na jej pochodzenie od zmiennej losowej. Prosto mówiąc: wiem, że (13) jest zawyżone oraz wiem, że (15) jest zawyżone, ale też wiem, że obydwa pochodzą od tego samego modelu (3) - wobec tego zakładam, że mogę je ze sobą zrównać. Oto wyjaśnienie zapisu (16), który wydaje się teraz sensowny.

Ostatecznie widać jaki błąd wywołuje retransformacja z modelu liniowego do nieliniowego:
błąd ten bierze się stąd, że ocena parametru b ulega procentowym zmianom w czasie, jest zmienną losową, natomiast prawdziwy parametr jest stały w czasie. Gdyby ocena była stałą liczbą, błąd ten nie wystąpiłby.

Faktycznie, nie jest to prosty temat. Przyda się przykład.



Przykład.
Na podstawie wzoru (20) nie trudno zauważyć, że duża liczebność obserwacji sprawia, że błędy retransformacji nie mają praktycznie żadnego znaczenia. Dlatego najlepszym sprawdzianem będzie niewielka próbka. Weźmy roczne dane mbanku od końca 1994 do końca 2015 r. i są to 22 obserwacje.





Statystyki stopy zwrotu:
średnia = 20,08%
mediana = 12%
średnia geometryczna = 11,71%
odch. standardowe = 45,5%

Tworzymy model (1):





Logarytmujemy:



Uzyskujemy:







Obliczamy parametr regresji b w KMNK. Uzyskałem 11,18%. Błąd standardowy reszt (tj. odchylenie standardowe składnika losowego) wyniósł 34,6%. Następnie stosujemy (20) dla oczekiwanej stopy zwrotu:




gdzie R to stopa zwrotu jako zmienna losowa.
Podstawiamy:



Porównajmy wynik ze standardowym wzorem dla k = 0:



Błąd retransformacji wynosi 0.04%.

Dwie uwagi. Po pierwsze warto zauważyć jak należy używać wariancji. Wariancja składnika losowego liczona jest jako suma kwadratów składnika losowego podzielona przez liczbę obserwacji (22) pomniejszoną o liczbę stopni swobody (2). Nie jest to więc zwykła wariancja, gdyż dotyczy modelu liniowego. Nie jest to też zwykła wariancja logarytmicznych stóp zwrotu.

Po drugie zwróćmy uwagę, że użyłem modelu ze stałą. Model empiryczny tego wymaga, gdyż bez stałej zakładamy, że jest ona równa zero, czyli, że P(0) = 1. To spowodowałoby błędne nachylenie linii regresji. Trzeba jednak pamiętać, że wzór (7) zakładał właśnie brak stałej.  Dlaczego więc można stosować ciągle wzór (20)? Oczywiście dlatego, że interesuje nas stopa zwrotu brutto M, czyli stopa netto R. A ta rzecz jasna nie może zależeć od poziomu stałej.


Literatura:
[1] M. S. Bartlett, The Use of Transformations, Mar 1947
[2] M. H. Quenouille, Notes on Bias in Estimation, Dec 1956
[3] J. Neyman, E. L. Scott, Correction for Bias Introduced by a Transformation of Variables, Sep 1960
[4] G. E. P. Box, D. R. Cox, An Analysis of Transformations, 1964
[5] M. H. Hoyle, Estimating Generating Functions, Nov 1975
[6] C. W. J. Granger, P. Newbold, Forecasting Transformed Series, 1976
[7] N. Duan, W. G. Manning, Jr., C. N. Morris, J. P. Newhouse, A Comparison of Alternative Models for the Demand for Medical Care, Apr 1983
[8] J. M. G. Taylor, The Retransformed Mean After a Fitted Power Transformation, Mar 1986
[9] D. J. Finney, On the Distribution of a Variate Whose Logarithm is Normally Distributed, 1941
[10] M. D. Mostafa, M. W. Mahmoud, On the Problem of Estimation for the Bivariate Lognormal Distribution, Dec 1964
[11] M. T. G. Meulenberg, On the Estimation of an Exponential Function, Oct 1965
[12] A. S. Goldberger, The Interpretation and Estimation of Cobb-Douglas Functions, 1968
[13] D. Bradu and Y. Mundlak, Estimation in Lognormal Linear Models, Mar 1970
[14] D. M. Heien, A Note on Log-Linear Regression, 1968
[15] R. Teekens, J. Koerts, Some Statistical Implications of the Log Transformation of Multiplicative Models, Sep 1972
[16] I. G. Evans, S. A. Shaban, A Note on Estimation in Lognormal Models, Sep 1974
[17] N. Duan, Smearing Estimate: A Nonparametric Retransformation Method, Sep. 1983
[18] E. Uriel, The simple regression model: estimation and properties, 09-2013
 
http://www.trans4mind.com/personal_development/mathematics/series/sumNaturalSquares.htm