wtorek, 16 sierpnia 2016

Czy mediana jest lepsza od średniej?

Chociaż standardowo oczekiwana stopa zwrotu utożsamiana jest z wartością oczekiwaną w sensie matematycznym, to jest to tylko pewne założenie. Już sama wartość oczekiwana nie jest pojęciem absolutnym, bo w zależności od okresu inwestycyjnego jaki przyjmujemy może ona przyjąć postać albo średniej arytmetycznej, albo geometrycznej (wprowadzenie do tematu - patrz Krótkoterminowa vs. długoterminowa średnia stopa zwrotu), albo kombinację tych obydwu (pełna analiza - patrz W poszukiwaniu nieznanej wartości oczekiwanej - część 1W poszukiwaniu nieznanej wartości oczekiwanej - część 2 ). Jeżeli skupiamy się na krótkich okresach, to wartość oczekiwana będzie bliska średniej arytmetycznej. Niestety ze względu na występowanie wielu wartości odstających w szeregach giełdowych stóp zwrotu, średnia ta nie jest dobrym estymatorem wartości oczekiwanej. Stąd często poleca się użycie mediany, która - jako wartość środkowa - oczywiście zmienia się bardzo powoli, a przez to ma niską wariancję. Temat ten rozpocząłem kiedyś w artykule Istota i znaczenie logarytmicznej stopy zwrotu, a teraz go rozszerzę.

Powstaje pytanie czy mediana jest to ten estymator, który ma najmniejszą możliwą wariancję, tzn. czy jest estymatorem najefektywniejszym? Mimo że w zagadnieniach czysto inwestycyjnych, raczej rzadko się używa pojęć efektywność estymatora (pojęcie "efektywność" jest inne w ekonomii), to trzeba zauważyć, że dla inwestora ma to duże znaczenie: dobrze jest posiadać estymator oczekiwanej stopy zwrotu, który prawie nie zmienia się w czasie.

Jak jednak sprawdzić czy mediana jest tak dobra? Najpierw załóżmy dla uproszczenia, że cena akcji jest procesem geometrycznego ruchu Browna. Poniżej przykład tego procesu, którego model zbudowałem w Excelu:



Jak widać proces ten całkiem odpowiada giełdzie. Moglibyśmy go zapisać w ten sposób:

(1)


 Następnie przekształcamy:



 Ponieważ parametr a jest całkowicie wolny, to można oznaczyć a = ln(P(0)) i stąd dostajemy:



Zatem współczynnik nachylenia b stanowi wartość oczekiwaną średniej arytmetycznej z logarytmicznych stóp zwrotu. W ten sposób doszliśmy do logarytmicznych stóp zwrotu.

Stopy zwrotu geometrycznego procesu ruchu Browna mają rozkład lognormalny. Logarytmy geometrycznego procesu ruchu Browna mają z kolei rozkład normalny (logarytm normalizuje zmiany). Zatem parametr b stanowi wartość oczekiwaną w rozkładzie normalnym. Wiadomo jednocześnie, że w rozkładzie normalnym mediana jest równa wartości oczekiwanej, a więc prawidłowa estymacja b automatycznie dostarczy nam medianę.

Model, który skonstruowaliśmy to E(lnP) = a + bt, który spełnia wszystkie warunki potrzebne do zastosowania metody najmniejszych kwadratów (MNK). Zgodnie z twierdzeniem Gaussa-Markowa estymator MNK jest estymatorem nieobciążonym (tzn. jest równy E(b)) i najefektywniejszym spośród innych liniowych estymatorów. Z tego jednak nie wynika, by mediana miała być "lepsza" od wartości oczekiwanej.

Jednakże musimy powrócić do pierwotnego modelu geometrycznego, a więc potrzebna jest detransformacja. Tylko zauważmy, że  powrót do oryginału jest mylący: 




A więc nie dostajemy wartości oczekiwanej ceny. Możemy jednak łatwo wykonać odpowiednią korektę. Zaczynamy od pierwotnego modelu (1):




Składnik losowy z początkowego założenia ma rozkład normalny, wobec czego exp(składnik losowy) ma rozkład lognormalny. A rozkład ten ma znane własności, tak że dostajemy:



Wariancja jest tutaj funkcją rosnącą z każdym okresem. Wiadomo, że wariancja ma własność addytywności, wobec czego całkowita wariancja może zostać podzielona na t okresów. Dlatego wariancja średniej arytmetycznej jest równa wariancji sumarycznego procesu podzielonej przez t okresów. Z tego wynika, że wariancja sumarycznego procesu jest to średnia wariancja razy t okresów. Stąd dla t:

(2)

dla t+1

(3)



Łączymy (2) i (3) dostając średnią stopę zwrotu

(4)


Pamiętamy, że wariancja składnika losowego jest równa wariancji samej stopy zwrotu (por. ostatni wzór w Odchylenie od nieznanej wartości oczekiwanej), w tym przypadku log-stopy zwrotu.

Oczywiście zadamy teraz pytanie jaka w takim razie jest mediana stopy w oryginalnym modelu? Aby ją uzyskać możemy wykorzystać twierdzenie że dla dowolnej funkcji monotonicznej każde przekształcenie mediany z oryginalnego rozkładu staje się medianą przekształconego rozkładu [1]. Wobec tego jeśli me to mediana rozkładu normalnego, to Me = e^me stanowi medianę w rozkładzie lognormalnym. U nas, jak wcześniej zauważyliśmy, me = b, to znaczy, że exp(b) stanowi medianę w rozkładzie lognormalnym. Jeśli nadal mamy wątpliwości, to łatwo znajdziemy, np. na Wikipedii, że mediana w rozkładzie lognormalnym równa się exp(b), dlatego że b - jak wykazałem wyżej - jest wartością oczekiwaną w rozkładzie normalnym.

Wiadomo, że wartość oczekiwana w rozkładzie lognormalnym wyraża się wzorem exp(b + var/2), zatem jest to dokładnie to co uzyskaliśmy w (4). Szerzej możemy oznaczyć średnią arytmetyczną jako wartość oczekiwaną. Jeśli A to średnia arytmetyczna w rozkładzie lognormalnym, a Me - mediana w rozkładzie lognormalnym, to:

(5)

To że log-normalna średnia arytmetyczna jest większa od log-normalnej mediany, staje się oczywiste. Ale dodatkowo można dojść do wniosku, że log-normalna średnia zawsze będzie bardziej zmienna od log-normalnej mediany, ponieważ zawiera dodatkową zmienną - wariancję składnika losowego (albo logarytmicznej stopy zwrotu), która implikuje dodatkową losowość (zmienność). Jeśli uznamy, że wariancja we wzorze (5) zmienia się w czasie, to A także będzie się zmieniać, podczas gdy Me może pozostać stałe.

Gdy zauważamy, że mediana może się wolniej zmieniać od średniej, to twierdzenie Gaussa-Markowa przestaje mieć dla nas znaczenie. Statystycy rozwinęli wiele innych metod, np. metodę najmniejszych wartości bezwzględnych (MNB). Od dawna wiadomo, że rozwiązaniem zadania minimalizacji sumy wartości absolutnych jest właśnie mediana (są różne sposoby na dowód - zob. np. [2, 3]). Basset i Koenker pokazali, że MNB jest bardziej efektywna od MNK w modelach liniowych, w których mediana jest bardziej efektywna (tzn. ma mniejszą wariancję) od średniej. Oznacza to, że dla większości modeli liniowych, pomijając gaussowskie, MNB jest efektywniejsza [4]. Również Dielman [5] empirycznie zademonstrował, że dla rozkładów z długimi ogonami MNB jest efektywniejsza, natomiast dla rozkładów normalnych lepsze rezultaty daje MNK.


Literatura:
[1]. Miller, D. M., Reducing Transformation Bias in Curve Fitting, May, 1984,
[2] Schwertman, N. C., Gilks, A. J., Cameron, J., A Simple Noncalculus Proof That the Median Minimizes the Sum of the Absolute Deviations, Feb 1990,
[3] Lee, Y-S, Graphical Demonstration of an Optimality Property of the Median, Nov 1995,
[4] Bassett, Jr., G., Koenker R., Asymptotic Theory of Least Absolute Error Regression, Sep 1978,
[5] Dielman, T. E., Least Absolute Value vs. Least Squares Estimation and Inference Procedures in Regression Models with Asymmetric Error Distributions, 2009.

piątek, 29 lipca 2016

Głębsze wprowadzenie do ekonometrii - publikacje Uriela

Jak wiadomo Internet stanowi ogromną, ale chaotyczną masę informacji, w tym publikacji naukowych. Znalezienie tego, co nas w danej chwili chwili interesuje to jak znalezienie igły w stogu siana. Czasami igieł jest bardzo dużo, ale większość w nich jest pozakrzywiana, skręcona i trudna do uchwycenia dla kogoś, kto nie jest zawodowcem w danej dziedzinie. Na przykład jest jakaś książka, w której niemal wszystko się znajduje, ale napisana przez matematyka dla matematyków albo przez specjalistę dla specjalistów. Weźmy choćby ekonometrię i analizę regresji. W angielskiej Wikipedii jest taki temat, ale liczba odniesień, które dokładniej wyjaśniają dane metody, jest przytłaczająca i ciężko znaleźć odpowiedź.

Dlaczego podczas regresji najczęściej stosowana jest Metoda Najmniejszych Kwadratów (MNK) i na czym ona polega? Kiedy i dlaczego MNK i Metoda Największej Wiarygodności dają te same wyniki?  Jak można dokonać dekompozycji wariancji zmiennej objaśnianej (analiza wariancji - ANOVA)? Jak obliczyć wariancję składnika losowego? Następnie, chociaż parametry regresji są z założenia stałe, to ich precyzja zależy od wielkości próbki, a przez to wartość współczynników podlega zmianom (wraz z wielkością próby). Jak więc obliczyć wariancję tych parametrów? Dlaczego kwadrat współczynnika korelacji jest równy współczynnikowi determinacji? Jak ocenić dopasowanie modelu regresji? Jak testować różne hipotezy statystyczne (statystyka t, F i ich relacja)? Na te i wiele innych pytań, znajdziemy przejrzystą odpowiedź na stronie internetowej E. Uriela:
http://www.uv.es/uriel/libroin.htm

Uriel opublikował tam 6 rozdziałów/tomów podręcznika wprowadzającego do ekonometrii wraz z ćwiczeniami. Wydaje mi się, że jest to jedna z najlepszych darmowych pozycji w Internecie dla kogoś, kto chciałby sam przestudiować podstawy ekonometrii. Z jednej strony opis nie jest okraszony skomplikowanym nazewnictwem, a nawet wzory wyglądają przyjaźnie. Z drugiej strony nie mamy tutaj ogólników w stylu "wzór jest taki a taki, bo tak", które zniechęcają czytelnika, skoro nie wiadomo co się skąd wzięło. Znajdziemy tu nawet dowód twierdzenia Gaussa-Markova. W porównaniu do Wikipedii, w której pokazany jest dowód na macierzach, tutaj łatwiej jest go zrozumieć, bo został przeprowadzony najpierw na skalarach, a potem macierzach.

Został też poświęcony rozdział przekształceniom regresji z funkcji nieliniowej do liniowej za pomocą logarytmów. Jest to ważne zagadnienie w ekonomii, dlatego można mieć zastrzeżenie co do jednej rzeczy. Autor wskazuje na możliwość przybliżenia stopy zwrotu za pomocą logarytmicznej stopy zwrotu, wykorzystując twierdzenie Taylora. Niestety to przybliżenie jest nie do końca przekonujące. Dużo lepiej i prościej byłoby gdyby Uriel pokazał następujący prosty dowód, że dla małych zmian logarytmiczna stopa będzie równa zwykłej stopie:


Bo jak wiadomo (1+r/n)^n dąży do exp(r).*
Autor mógł też pokazać podobne rozumowanie, które nakreśliłem w art. Istota i znaczenie logarytmicznej stopy zwrotu

Mimo iż Uriel zawarł też tom poświęcony bardziej zaawansowanym kwestiom jak opuszczanie klasycznych założeń MNK, to trzeba pamiętać o tym, co napisałem wcześniej - jest to tylko wprowadzenie do ekonometrii. I to bardzo dobre.


*

niedziela, 26 czerwca 2016

Kiedy oczekiwany zysk z akcji koreluje z ryzykiem?

Zazwyczaj rozpatrujemy średnią (wartość oczekiwaną) i wariancję jako niezależne od siebie parametry rozkładu prawdopodobieństwa. Czasami niektórzy wiążą oba parametry poprzez CAPM, jednak jest to podejście błędne. Jeśli ktoś nie rozumie tego błędu, to krótko wyjaśnię. Dla przypomnienia, CAPM-CML mówił ile można inwestować w aktywa ryzykowne, a w ile bez ryzyka. Poniższy rysunek to ilustruje:





Oczekiwana stopa zwrotu z mojego portfela jest oznaczona na osi pionowej, a ryzyko , czyli odchylenie standardowe na osi poziomej. Tak jak widać oczekiwany zysk jest liniową funkcją ryzyka. Ale w każdym punkcie CML znajduje się inny portfel, tzn. portfel o innym składzie. Jeżeli będziemy utrzymywać ten sam skład portfela, np. 70% indeksu i 30% obligacji skarbowych, to oczekiwany zysk nie będzie korelował z ryzykiem.

Niemal identyczna sytuacja występuje dla CAPM-SML, tylko odchylenie standardowe zostaje zastąpione betą, a punktami na SML nie są już różne udziały indeksu i obligacji skarbowych, ale różne aktywa, np. akcje. Te aktywa nie mają większej średniej stopy zwrotu, gdy jest większe odchylenie standardowe, ale ta stopa jest większa tylko wtedy gdy beta jest większa. Natomiast beta będzie dotyczyła (przede wszystkim) związku pomiędzy tą akcją a indeksem giełdowym.

Pytając o korelację oczekiwanego zysku z akcji a jej ryzykiem miałem na myśli zmiany w czasie. Aby odpowiedzieć na to pytanie, trzeba na początku rozdzielić parametry warunkowe, jak warunkowa wartość oczekiwana i warunkowa wariancja od parametrów niewarunkowych. A więc od razu mówię, że nie zajmuję się w tym artykule warunkowymi parametrami rozkładu.

Przechodząc do rzeczy, zacznę od Lukacsa [1], który w 1942 r. stwierdza:

Potrzebnym i wystarczającym warunkiem dla normalności rozkładu populacji jest to, aby rozkłady z próbki średniej i wariancji były wzajemnie niezależne.

Zhang [2] parafrazuje to zdanie Lukacsa:

Jeżeli wariancja (lub drugi moment) z rozkładu populacji istnieje, wtedy potrzebnym i wystarczającym warunkiem dla normalności rozkładu populacji jest to, aby średnia arytmetyczna dla próby i wariancja dla próby były wzajemnie niezależne.

Z tego twierdzenia wynika, że jeśli stopa zwrotu ma rozkład normalny, to oczekiwana stopa zwrotu i ryzyko (wariancja) są niezależne od siebie.

Powstaje pytanie czy średnia i wariancja są nadal niezależne od siebie, jeżeli rozkład stopy nie jest gaussowski? Odpowiedź brzmi: nie. Oznaczając oczekiwaną stopę zwrotu oraz wariancję dla próby odpowiednio:


gdzie R(t) to stopa zwrotu w okresie t oraz T to zakres próby, Zhang dowodzi, że (dla dowolnego rozkładu prawdopodobieństwa) jeśli trzeci moment centralny z populacji istnieje, który oznaczymy:



to spełniona jest zależność:

(1)

Z tego wzoru wynika, że dla dowolnego rozkładu:
1. zależność pomiędzy średnim zyskiem a ryzykiem zależy od skośności. Rozkład normalny ma zerową skośność (zerowy 3-ci moment centralny)
2. wraz ze wzrostem horyzontu inwestycyjnego, korelacja ryzyka i średniej stopy zwrotu zmniejsza się.

Powyższy problem można skomplikować. Analizując wzór (1) widać, że użyto założenia, że rozkład gęstości średniej i wariancji jest stały w czasie. Jeżeli parametr jest losowany K razy, to powstaje pewien rozkład gęstości (oznacza to K próbek i K*T stóp zwrotu). Można sobie wyobrazić, że po K-tym losowaniu następuje kolejnych K losowań, z których wyłania się inny rozkład parametrów (jeżeli jest N takich losowań, oznacza to N*K*T stóp zwrotu). Czy wtedy nadal będzie spełniona zależność (1) i nadal dla rozkładu normalnego będzie zachowana niezależność? Jeśli np. spółka się nagle zmieniła, czy pod wpływem wzrostu jej zadłużenia, a więc i ryzyka, oczekiwana stopa zwrotu nie powinna też wzrosnąć? Odpowiedź daje Trenkler [3], który podaje ogólniejszą wersję (1). Okazuje się, że że dla tak ogólnej sytuacji postać wzoru się zmienia. Ten nowy wzór jest dużo bardziej skomplikowany, bo operuje na macierzach. Aby oddać jego sens, intuicyjnie można go zapisać:

(2)





Czyli jednak średnia i wariancja mogą stać się zależne w niestacjonarnym rozkładzie normalnym. Jednakże nawet gdyby przyjąć duże parametry, jak średnia = 0,3, odchylenie st = 0,6, to próbując zastosować (2) dostajemy 2*0,3*0,6^2 = 0,216, co po podzieleniu przez T będzie mieć nieduży wpływ. Stąd (1) jest wystarczającym przybliżeniem.


Literatura:
[1] Lukacs, E., A Characterization of the Normal Distribution, 1942,
[2] Zhang, L., Sample Mean and Sample Variance: Their Covariance and Their (In)Dependence, 2007,
[3] Trenkler, G., Zhang, L. (2007), "Sample Mean and Sample Variance: Their Covariance and Their(In)Dependence," "The American Statistician," 61, 159-160: Comment by Trenkler, 2007.

niedziela, 19 czerwca 2016

Jak daleko możesz się odchylić?

Kupując akcje albo inne aktywa, każdy zawsze zastanawia się, jak daleko stopa zwrotu może się odchylić od średniej. Samo odchylenie standardowe nie wystarcza, aby to zmierzyć. Pewną pomocą jest nierówność Czebyszewa-Markowa (Czebyszewa-Bienayme), zgodnie z którą prawdopodobieństwo, że stopa zwrotu odchyli się o co najmniej x odchyleń standardowych, wynosi najwyżej 1/x^2. Np. szansa, że stopa zwrotu odchyli się min. o 2 odchylenia st., wynosi max 25%. Ogólnie nierówność ta jest zapisywana w postaci:



gdzie Pr - prawdopodobieństwo, m - wartość oczekiwana zmiennej X, s - odchylenie standardowe zmiennej X.

Twierdzenie to jednak daje słabą odpowiedź na pytanie na ile dana zmienna może się maksymalnie odchylić. Samuelson [1] w 1968 r. pokazał, że dodatkowa informacja w postaci liczebności populacji danej cechy może zwiększyć precyzję szacunków. Udowodnił on, że jeśli dana populacja zawiera n obserwacji, to żadna z nich nie może odchylić się o więcej niż (n - 1)^0.5 odchyleń standardowych od średniej. Jeśli przyjąć, że populacja na rynku ciągle rośnie, to znaczyłoby to, że możliwe odchylenie też rośnie. Jednak szybko zauważmy, że prawdopodobieństwo tego większego odchylenia spada. Połączmy bowiem tw. Samuelsona z tw. Czebyszewa-Markowa.

(1)



Z twierdzenia Czebyszewa-Markowa wynika, że jeżeli na świecie jest 7 mld ludzi, to prawdopodobieństwo, że wzrost jakiejś osoby przekroczy 7000000000^0,5 (=83666) odchylenia standardowego jest prawie zerowe. Ale twierdzenie Samuelsona mówi, że to prawdopodobieństwo jest dokładnie równe 0.

W artykule Odchylenie od nieznanej wartości oczekiwanej zrobiłem przykład obliczania odchylenia standardowego od nieznanej wartości oczekiwanej dla spółki LPP, gdzie było 10 obserwacji. Gdyby przyjąć, że to cała populacja, to podstawiając do (1), dostałbym informację, że stopa zmian EBIT może się odchylić od średniej o więcej niż 9^1/2 = 3 odchylenia st z szansą mniej niż 1/9. Jednakże dzięki tw. Samuelsona dostaję już informację, że stopa zmian EBIT może się maksymalnie odchylić od średniej o 3 odchylenia st. Wynika z tego, że niezależnie od tego z jakim rozkładem częstości mamy do czynienia (jednak muszą istnieć 2 pierwsze momenty centralne) prawo 3 sigm zadziała przy n = 10.

Niestety przyjęcie założenia, że obserwujemy pełną populację jest sztuczne albo po prostu nieprawdziwe. Wolkowicz i Styan [2], a potem Farnum [3] rozszerzyli twierdzenie Samuelsona na minimalną i maksymalną granicę k-tej obserwacji w populacji n-elementowej.

(2)


gdzie k = 1, 2, ..., n




Dla k = n, wzór (2) sprowadza się do tw. Samuelsona.
Trzeba zwrócić uwagę, że kolejne obserwacje od 1 do n zostały ustawione w kolejności rosnącej, a nie wylosowanej Tak więc, jeśli k = 1/2n , to znaczy, że x = mediana. Wtedy podstawiając do (2) widać, że mediana będzie zawsze większa od średniej pomniejszonej o jedno odchylenie standardowe oraz zawsze mniejsza od średniej powiększonej o prawie jedno odchylenie standardowe. Jeśli natomiast k = 3/4n, to x = trzeci kwartyl. Wtedy ten kwartyl zawsze będzie większy od średniej pomniejszonej o 0,58*odchylenia standardowego oraz zawsze mniejszy od średniej powiększonej o ((3n-4)/(n+1))^0,5 odchylenia standardowego (dla dużego n 1,73 odchylenia st).

Niestety praktyczne zastosowanie wzoru (2) może być nadal ograniczone ze względu na zbyt dużą ogólność rozkładu prawdopodobieństwa oraz fakt, że dostajemy w nich przedział ufności, który rozciąga się na pełen rozkład prawdopodobieństwa (a więc cały możliwy przedział odchylenia, nawet mało prawdopodobny). Pukelsheim [4] wzmocnił tw. Czebyszewa-Markowa pokazując (wcześniej dowiedli to Vysochanskij i Petuni), że dla dowolnego rozkładu jednomodalnego (tzn. zawierającego tylko jedną dominantę - wartość najczęstszą) w uproszczeniu:

(3)


gdzie s może być odchyleniem standardowym pobranym z próby.

Podstawmy do (3) np. d = 2s:

dla każdego d.

Czyli zmienna dowolnego rozkładu z jedną modą może się odchylić na 2 odchylenia standardowe z szansą nie większą niż 1/9. Jest to znaczna poprawa precyzji w stosunku do Czebyszewa, gdzie otrzymano 1/4.

Wzór (3) przedstawiłem w formie uproszczonej. W rzeczywistości jest on bardziej ogólny. Ma to ogromne znaczenie dla rynków. Dotychczasowe rezultaty wymagały nie tylko istnienia wartości oczekiwanej oraz odchylenia standardowego (i wariancji), ale też ich znajomości w populacji generalnej (niektóre rozkłady stabilne nie mają dobrze zdefiniowanych momentów centralnych). Natomiast wzór (3) wcale tego nie wymaga. W (3) użyłem średniej i wariancji, aby zachować spójność z poprzednimi przykładami. Jednak w ogólnym przypadku Pukelsheim podał następującą postać:

(4)

gdzie

v to jakieś centrum (średnia, mediana czy dominanta) zmiennej X,





W praktyce będziemy najczęściej wykorzystywać wzór (4) podstawiając d = cq:

(5)


gdzie c stanowi część q, którą zmienna ma pokonać.

Ogólność (5) pozwala w pewnym stopniu użyć go dla samej ceny. Np. wyobraźmy sobie, że kurs ma lokalną dominantę / medianę / wartość oczekiwaną  v i lokalne q. Wtedy, aby Pr = 0,5, c musi wynieść (8/5)^0,5 = 1,26 (drugi wzór, bo c = 1,26 < 1,63). Z kolei dla Pr = 1, c wynosi 1 (drugi wzór, bo c = 1 < 1,63). Można wyciągnąć wniosek, że najbardziej prawdopodobne c znajdzie się w zakresie od 1 do 1,26. Stąd najbardziej prawdopodobne odchylenie od centrum (v) będzie się mieścić pomiędzy q a 1,26q. Identyczny wniosek będzie oczywiście dla stopy zwrotu: będzie się ona odchylać od mediany, średniej lub dominanty w przedziale 1-1,26q z prawdopodobieństwem co najmniej 0,5.

Ciekawszą jednak implikacją tej formuły będzie chyba użycie jej dla celów analizy technicznej, w której posługujemy się oscylatorami. Poziom 1,26q wyznacza bowiem najbardziej prawdopodobny obszar odchylenia od mediany. Temat ten poruszyłem oddzielnie w artykule
Poziomy wykupienia i wyprzedania w AT mogą być obiektywne.


Literatura:
[1] Samuelson, P. A., How Deviant Can You Be?, Dec. 1968
[2] Wolkowicz, H., Styan, G. P. H., Extensions of Samuelson's Inequality, Aug. 1979
[3] Farnum, N. R., An Alternate Proof of Samuelson's Inequality and Its Extensions, Feb. 1989
[4] Pukelsheim, F., The Three Sigma Rule, May, 1994

sobota, 4 czerwca 2016

Jakie państwo? Jaki kapitalizm?

W internecie pojawiła się bardzo ciekawa lektura autorstwa Leszka Balcerowicza (w formie pytań i odpowiedzi), którą można wysłuchać na stronach załączonych poniżej:

Jakie państwo?

Jaki kapitalizm?

Lekkość tej lektury połączona z wielką wiedzą ekonomiczną autora sprawia, że słucha się jej z przyjemnością, a jednocześnie dostarcza ona klarownych odpowiedzi na wiele ważnych pytań.

niedziela, 22 maja 2016

Cash flow kontra free cash flow - wzajemne zależności

Inwestorzy przed zakupem aktywów dokonują zawsze pewnej analizy fundamentalnej (AF) spółki, mniej lub bardziej szczegółowej (nie mówię tu o spekulantach). Przeglądają bilans, rachunek zysków i strat oraz przepływów pieniężnych. I wtedy zaczyna się kłopot. Chociaż taka analiza daje pojęcie o finansowej kondycji spółki, to nie przedstawia teoretycznego powiązania tych 3 składników z wyceną w jedną całość. Dlatego teoria finansów stworzyła koncepcję wolnych przepływów pieniężnych - free cash flow (FCF). Mimo iż koncepcja ta jest znana od dawna, książki poświęcone wyłącznie analizie fundamentalnej nie zajmują się tym zagadnieniem we właściwy sposób. Przez właściwy sposób rozumiem tu nacisk na powiązanie księgowości z teorią wyceny. Sądzę, że są 2 tego powody, Po pierwsze AF wyraźnie rozdziela sferę wartości kapitału od sfery pieniężnej. Wskazuje się tu na pułapki obliczania zysku, który może być albo sztucznie napompowany, albo jednorazowy. Natomiast przepływy pieniężne (CF) są trudne do manipulacji i dlatego powinny one stać się podstawą porównań z okresami poprzednimi. Niestety analitycy fundamentalni, nie mając dostatecznej wiedzy z teorii wyceny, nie zauważają, że zyski jako elementy memoriałowe zawierają często już informacje o przyszłych przepływach pieniężnych(!), które stanowią tylko elementy kasowe. Potem ci sami analitycy dziwią się, że rynek reaguje bardziej na zysk, a nie na zmiany gotówki, tłumacząc to nieracjonalnością inwestorów. Tak więc zyski odnoszą się często do przyszłości, a CF zawsze do przeszłości. Ponieważ gotówki nie da się oszukać, w AF należy porównywać zarówno zyski, jak i CF.

Po drugie AF ma zastosowanie nie tylko dla inwestorów, ale także dla księgowości zarządczej i zewnętrznych podmiotów wystawiających oceny (ratingi) danej spółce. Podmiotom tym nie są potrzebne do niczego wolne przepływy pieniężne.

W. Petty i J. Rose [1] pokazują zależności pomiędzy przepływami pieniężnymi i wolnymi przepływami pieniężnymi. Najpierw wprowadzają tożsamość:

(1)

Powyższa tożsamość nie jest definicją wolnych przepływów pieniężnych, ale informuje nas, że są one tą zmianą gotówki, którą otrzymują rzeczywiście inwestorzy. Na logikę - free cash flow musi być to ta zmiana gotówki z działalności operacyjnej, która nie jest reinwestowana przez firmę.

Prawą i lewą stronę (1) definiujemy następująco.

(2a) Lewa strona:

Free cash flow to przepływy operacyjne minus zmiana aktywów trwałych brutto minus zmiana kapitału pracującego netto. Zmiana aktywów trwałych brutto odnosi się do wydatków kapitałowych, inwestycyjnych (capital expenditures - CAPEX) i może być zdefiniowana inaczej jako zmiana aktywów trwałych netto + amortyzacja. Z kolei kapitał pracujący netto to aktywa krótkoterminowe minus zobowiązania krótkoterminowe.  Czyli zobaczmy ogólniej, że:

Free cash flow = Operating cash flow - (zmiana aktywów trwałych + amortyzacja + zmiana aktywów krótkoterminowych - zmiana zobowiązań krótkoterminowych).

Lub krócej:

Free cash flow = Operating cash flow - kwota (re)inwestowana.

W tym artykule udowodnimy, że rzeczywiście powyższa tożsamość jest prawdziwa.


2b) Prawa strona

Cash flow to investors, czyli przepływy do inwestorów, dzielą się na przepływy do wierzycieli (cash flow to debtholders) i na przepływy do akcjonariuszy (cash flow to stockholders).


Ok, to teraz połączmy 2a = 2b. To znaczy (1) można rozszerzyć do:

(3)


Niektóre z tych składników także osobno zdefiniujemy:


Jak wiadomo taxes to podatki, depreciation expense to amortyzacja. Zwróćmy uwagę, że operacyjny cash flow to po prostu EBITDA minus podatki, a więc jeśli np. stosujemy dane z portalu bankier.pl, gdzie nie ma podanego przepływu operacyjnego w tablicy okresowych wyników, możemy użyć wzoru EBITDA - (zysk brutto - zysk netto).
Accounts receivable to bieżące (krótkoterminowe) należności, inventories to zapasy, accounts payable to bieżące (krótkoterminowe) zobowiązania.
Przepływy do wierzycieli to interest expense (koszt odsetkowy) minus zmiana długu, ponieważ kredytodawca otrzymuje z jednej strony odsetki, z drugiej strony może dostarczać nowej pożyczki.
Analogicznie sprawa wygląda u akcjonariuszy - dostają dywidendy, ale też firma może emitować dla nich nowe akcje.

Następnie dzięki nowo zdefiniowanym wyrazom rozszerzamy (3):



które może być przedstawione w formie:

(4)


Ponieważ zysk netto (Net income) stanowi EBIT - odsetki - podatki, więc (4) można zapisać w postaci:

(5)

W końcu, trafnym jest spostrzeżenie, że 3 oddzielne składniki przepływów pieniężnych: operacyjne, inwestycyjne i finansowe da się zdefiniować następująco:

(6)

tak jak to jest czynione w sprawozdaniu finansowym. Jednakże wtedy podstawiając je do (5) musielibyśmy odjąć przepływy pieniężne z działalności inwestycyjnej zamiast dodać. Stanie się tak, ponieważ gross fixed assets zdefiniowaliśmy jako wydatki CAPEX a nie zwykłą zmianę z działalności inwestycyjnej. Początkowo w równaniu (2) odejmowaliśmy te wydatki, aby zachować spójność z definicją free cash flow. Jest to jednak kwestia konwencji, wobec czego zamiast odejmować możemy dodać (ujemną) zmianę. A wtedy podstawiając kolejno składniki z (6) do (5) dostaniemy:




 co jest dokładnym formatem w księgowym rachunku przepływów pieniężnych.

-------------------------------------------------------------------------------
Uwaga: Zauważmy, że operating cash flow to nie jest to samo co cash flow z działalności operacyjnej. Czym się różnią? Ten drugi:
- odejmuje koszty odsetek (zysk dla wierzycieli)
- dodaje zmianę zobowiązań krótkoterminowych (account payable)
- odejmuje zmianę należności krótkoterminowych (account receivable) oraz
- odejmuje zmianę zapasów.

To tylko z tego powodu w definicji FCF występuje zmiana kapitału pracującego netto: chodzi o sprowadzenie operacyjnego cash flow do cash flow z działalności operacyjnej (jakkolwiek to dziwnie brzmi).
-------------------------------------------------------------------------------

W ten sposób dowiedliśmy poprawności równania (2). Przeprowadzając taką analizę można całościowo zrozumieć różnicę pomiędzy cash flow a free cash flow: "free" oznacza tylko tyle, że odejmuje się te pieniądze, które firma w danym okresie wygenerowała i dalej je inwestuje, tzn. je reinwestuje. Po odjęciu tej kwoty dostaniemy wszystko to, co inwestor otrzymuje do ręki. A z tego wynika, że sam cash flow stanowi jakby przeciwieństwo free cash flow, bo to gotówka, która zostaje w spółce. Normalnie wtedy ktoś by zapytał, dlaczego FCF nie obliczamy poprzez odjęcie kwoty reinwestycji od CF, tylko od CFO (cash flow operacyjnego). W rzeczywistości tak prawie robimy. Po kolei:
 - Weźmy najpierw CFI (cash flow inwestycyjny). Przecież w FCF już on siedzi, a jego odjęcie, jak już pisałem, to kwestia konwencji. W ogólnym przypadku znak CFI może być dowolny, ale gdy mówimy o wydatkach (CAPEX), to jasne, że musimy je odjąć (bo wydatki są rozumiane jako wartość bezwzględna).
- Weźmy teraz CFF (cash flow finansowy), który odejmuje dywidendę i dodaje emisje papierów. Jest to bardziej skomplikowana sytuacja, na którą można spojrzeć z dwóch perspektyw. Po pierwsze CFF oznacza przekształcenia po stronie pasywów, a nie aktywów. A skoro aktywa = pasywa, to gdzieś te zapisy muszą się odbić  w aktywach. Np. nowe emisje zwiększyłyby CAPEX, który przecież mieliśmy odjąć. Po dodaniu CFF efekt byłby zerowy, tak jak byśmy w ogóle niczego nie odjęli.
Druga perspektywa rozjaśnia ten problem. CFF jest to przeciwieństwo tego co dostaje inwestor. Dywidenda trafia do akcjonariusza, więc po jej odjęciu trzeba byłoby ją z powrotem dodać. Jednocześnie traci gotówkę, gdy spółka emituje dla niego papiery wartościowe. Stąd trzeba by znowu odjąć te emisje. Z tego wynika, że jeśli nie dokonamy odpowiednich korekt, to efekt będzie zerowy, tak samo jak w pierwszej perspektywie. I ten sposób oba spojrzenia pokrywają się.

Od teraz przełączanie się między CF a FCF nie powinno dla nas stanowić większego problemu.


Literatura:
[1] J. W. Petty, J. T. Rose - Free Cash Flow, the Cash Flow Identity, And the Accounting Statement of Cash Flows, Fall 2009.

niedziela, 1 maja 2016

Czy dotacje / zasiłki do opieki nad dzieckiem są efektywne?

Na moment zostawię giełdę i teorię finansów, po to by wypełnić lukę w rzetelnych informacjach na temat skuteczności programów polityki pro-rodzinnej. Jak wiadomo w Polsce temat jest na topie za sprawą programu Rodzina 500 plus, który PIS wprowadza w życie. Program ten wywołuje duże emocje nie tylko wśród polityków, ale i zwykłych obywateli. Wg danych CBOS aż 80% ludzi popiera ten program [3]. Co ciekawe, jest wiele osób w opozycji, które też go wspierają. Wielu jednak twierdzi, że to zwykłe marnowanie pieniędzy i nie przyniesie pozytywnych skutków albo gorzej: że doprowadzi do ruiny finanse publiczne i że staniemy się drugą Grecją. Ten negatywny scenariusz jest szczególnie eksponowany przez ekonomistów. Interesującą wypowiedź usłyszałem w wywiadzie od Balcerowicza: stwierdził on, że efekt tego programu będzie co najwyżej krótkoterminowy, a w długim terminie odwrotny od oczekiwanego, ponieważ koszty spowodują, że wpadniemy w potężne tarapaty zadłużenia państwa, co wymusi "odchudzanie" finansów, a przez to nowe obciążenia dla ludzi, którzy zaczną masowo uciekać z kraju.

Faktem jest, że 500+ będzie kosztował olbrzymie pieniądze, którego skutki mogą być groźne. Ale pytanie brzmi czy są podstawy by twierdzić, że przynajmniej spełni on swoją rolę, tzn. przyczyni się do wzrostu urodzeń (bez względu na konsekwencje w innych sferach)? Jest trochę artykułów naukowych (choć nie tak dużo) które zarówno negują, jak i aprobują skuteczność takiej polityki. Ta niejednoznaczność wynika zarówno ze różnorodności narzędzi tej polityki, jak i metod badawczych, ale możliwe, że także ze zwyczajnej zbyt krótkiej czasowej próbie. Nas interesuje tylko pomoc pieniężna, tj. dotacje, zasiłki, ulgi, zmniejszenie kosztów.

Gauthier [1] przeprowadziła przegląd literatury w tym zagadnieniu. Ogólny wpływ dotacji dla rodziny, zasiłków dla dzieci czy ulgi podatkowe mają pozytywny wpływ na zagregowany wskaźnik urodzeń, jednak wpływ ten zazwyczaj jest niski. Np. w pracy z 1997 r. Gauthier i Hatzius [2], badając oficialne statystyki w 22 krajach OECD w latach 1970-1996, oszacowali, że 25% wzrostu zasiłku w rodzinie, powoduje wzrost całkowitej stopy urodzeń o 4,24%, tj. 0,07 dziecka na kobietę.

Z kolei Kalwij [3] opracował model, w którym zbadał wpływ różnych czynników na urodzenia w 16 krajach Europy Zachodniej (Szwecja, Norwegia, Finlandia, Dania, Niemcy, Austria, Belgia, Holandia, Szwajcaria, Wielka Brytania, Irlandia, Francja, Portugalia, Hiszpania, Włochy, Grecja) w latach 1980-2003. Poniższa tabela przedstawia oszacowane prawdopodobieństwa urodzenia dziecka pod warunkiem określonych zmiennych:


Po pierwsze należy odróżnić część z kontrolą od części bez kontroli. Wyniki z kontrolą można porównać do wyników badań laboratoryjnych, w których są dwie grupy; jedna grupa jest leczona lekiem, a druga placebo. Druga grupa jest grupą kontrolną. W opisywanym przykładzie Autor nie zastosował kraju porównawczego, ale skorygował estymacje o niektóre czynniki, takie jak np. PKB per capita czy stopa bezrobocia (ze względu na cykliczność gospodarczą zaburzają obraz).

Po drugie Autor podzielił model na dwie części: wpływ na urodzenie pierwszego dziecka oraz na wpływ na kolejne urodzenia.

Po trzecie istotność statystyczną możemy ocenić na podstawie z Value - jeżeli statystyka z wynosi co najmniej +2 lub co najwyżej -2, wtedy mamy prawo sądzić, że wynik jest istotny statystycznie (dokładniej, dla -1,96 i +1,96 p value = 0,05).

Możemy zauważyć, że PKB per capita ma istotny wpływ tylko w grupie bez kontroli. Następnie zasiłek na dziecko (allowance per child) okazuje się również nie mieć istotnego wpływu na urodzenia w grupie z kontrolą. Dotacje na opiekę nad dziećmi są bardziej problematyczne. O ile nie dają efektu na urodzenie pierwszego dziecka, o tyle stają się istotne stat. dla kolejnych urodzeń (z = 3,85), zarówno w grupie kontrolnej jak i bezkontrolnej. Jednakże program 500+ nie jest dotacją (na konkretne cele), ale zasiłkiem. Gdyby natomiast uznać go za dotację, to wtedy statystyki potwierdzałyby, że program, który dotyczy głównie drugiego i następnego dziecka, jest sensowny, choć prawdopodobieństwo urodzenia dziecka (przez średnią matkę) każdego roku wynosi tu niecałe 0,17.

Kalwij przeanalizował jednak dokładniej 3 najważniejsze narzędzia polityki pro-rodzinnej. Stworzył symulację testującą nie tylko procentowy wpływ danego czynnika, ale także to czy ten czynnik rzeczywiście wpływa na dzietność danej rodziny. Może przecież być tak, że dotacja czy zasiłek zwiększa motywację do tego by mieć szybciej dzieci, ale może nie zwiększać liczby dzieci w całym okresie życia. Rezultaty zamieściłem poniżej:




Po pierwsze wzrost zasiłków nie wpływa istotnie na liczbę urodzeń w żadnej grupie wiekowej (statystyka z < 2). Jest to wynik sprzeczny ze wspomnianymi wynikami Gauthier.

Po drugie wzrost dotacji o 10% nie zwiększa szansy na ogólne posiadanie dzieci (ktoś kto ich nie chce i tak nie będzie miał). Po drugie wzrost dotacji o 10% zwiększa średnią liczbę urodzeń drugiego lub kolejnego dziecka tylko w przypadku kobiet pomiędzy 31 a 40 rokiem życia. Po trzecie wzrost dotacji o 10% zwiększa średnią liczbę urodzeń tylko w przypadku kobiet w wieku 36-40 lat.

Podsumowując statystyki, można powiedzieć, że zarówno sceptycy jak i optymiści mają po trochę racji (jednak biorąc pod uwagę, że na skutek polityki rozdawania pieniędzy wielu ludziom może to utrudnić życie poprzez wzrost inflacji, trudno mówić o efektywności takiej polityki, a co najwyżej o jej skuteczności). Program 500+ będzie miał raczej niewielki wpływ na liczbę urodzeń, a kosztować będzie słono. Powstaje więc pytanie czy nie można tych pieniędzy lepiej wykorzystać? Czy nie lepiej wydać je na walkę z nowotworami czy innymi chorobami, czy nie lepiej poprawić jakość publicznej opieki zdrowotnej, wspomagać prywatne przychodnie czy inne placówki medyczne? Czy nie lepiej byłoby zainwestować tych pieniędzy w badania naukowe i rozwój nowych technologii?


Literatura:
[1] Gauthier, A., The Impact of Family Policies on Fertility in Industrialized Countries: A Review of the Literature, Jun. 2007,
[2] Gauthier, A., Hatzius, J., Family Benefits and Fertility: An Econometric Analysis, Nov. 1997,
[2] Kalwij, A., The Impact Of Family Policy Expenditure On Fertility In Western Europe, May 2010.

Strony internetowe:
[3] http://www.money.pl/gospodarka/wiadomosci/artykul/pis-przekonal-polakow-do-swojego-programu,125,0,2031997.html

niedziela, 13 marca 2016

Odchylenie od nieznanej wartości oczekiwanej

Tworząc portfel długoterminowy, np. fundusz emerytalny, powinniśmy być zainteresowani zarówno oczekiwaną stopą zwrotu, jak i możliwym odchyleniem od niej. W sytuacji gdy wartość oczekiwana jest znana, obliczenie odchylenia standardowego na podstawie próbki nie stanowi problemu. Jednak w rzeczywistym świecie wartość oczekiwana jest nieznana i wówczas sprawa się komplikuje.

Skoro potrafimy już oszacować samą wartość oczekiwaną, nawet gdy nie posiadamy pełnej o niej informacji (dwa ostatnie artykuły), obliczenie odchylenia staje się łatwiejsze. Hasbrouck [1] pokazuje, że wariancja portfela N-podokresowej przyszłej stopy zwrotu określona jest wzorem:

 (1)


gdzie:
R - stopa zwrotu brutto (zwykła stopa zwrotu plus jeden)
N - ostatni okres inwestycji (liczba przyszłych okresów inwestycji)
M - oczekiwana stopa zwrotu (wartość oczekiwana stopy zwrotu), która dla rozkładu normalnego wynosi (W poszukiwaniu nieznanej wartości oczekiwanej - część 1):


A - średnia arytmetyczna z próby
G - średnia geometryczna z próby

natomiast dla rozkładu log-normalnego, mimo że nie jest wersja bezpośrednia, to można zastosować (W poszukiwaniu nieznanej wartości oczekiwanej - część 2):



σ^2 - wariancja 1-okresowej stopy zwrotu brutto (z próby), tzn. dla N = 1.


W Dodatku przedstawiłem dowód, bo jego wyprowadzenie nie jest trudne, a poza tym widać wtedy dokładnie których parametrów w praktyce należy użyć.


Przykład.
Kontynuując przykład spółki LPP w okresie 2004-2014, mamy 10 rocznych stóp wzrostu EBIT i korzystając z danych w bankier.pl dla rozkładu log-normalnego otrzymałem M = 1,34 przy N = 5, co oznacza, że 5-letnia oczekiwana stopa wzrostu brutto wynosi M^5 = 4,32 (tj. stopa netto = 332%). Wiedząc to, chcemy się dowiedzieć, jak całkowita przyszła stopa może się odchylić od tej wartości oczekiwanej. Aby znaleźć odpowiedź, zastosujemy wzór (1). Do jego użycia brakuje nam wariancji dla N = 1, którą normalnie obliczamy z próby. Chociaż chodzi tu o wariancję stopy brutto, to jest ona równoważna wariancji stopy netto. W tym przykładzie wyniosła ona 0,63, czyli mówiąc prosto roczna stopa zmian EBIT miała wariancję 0,63. Podstawiając






Odchylenie standardowe jako pierwiastek z tej wariancji wynosi 8,08. Ostatecznie uzyskaliśmy odpowiedź, że po 5 latach EBIT LPP wzrośnie średnio o 332% +/- 808%. Dopiero teraz jesteśmy w stanie właściwie ocenić ryzyko inwestycyjne.


Dodatek:
Zadaniem jest wyznaczenie wariancji przyszłej stopy zwrotu R(N), która składa się z mniejszych, kapitalizowanych stóp zwrotu od okresu 1 do N. Każdą taką mniejszą stopę zwrotu możemy zapisać jako oczekiwaną stopę zwrotu M plus składnik losowy e(t). Kapitalizowana stopa zwrotu powstanie poprzez iloczyn tych mniejszych stóp zwrotu:


Składnik losowy e jest zmienną losową IID o wartości oczekiwanej równej 0.
Stąd wariancję możemy odpowiednio przekształcić:

(2)

Wykorzystujemy twierdzenie mówiące, że wartość oczekiwana iloczynu zmiennej losowej IID równa się iloczynowi wartości oczekiwanych tej zmiennej (zob. np. [2]), tzn. ogólnie:


Dzięki temu dwa przedostatnie wyrażenia we wzorze (2) zastąpimy odpowiednio przez:


Czyli podstawiając obydwa wyrazy do (2):

(3)

Na koniec zauważamy, że wariancja 1-okresowej stopy zwrotu (która jest znana) równa się wariancji składnika losowego:


Podstawiając ten wyraz do (3) dostajemy wzór (1).


Literatura:
[1] J. Hasbrouck, On Estimates of Long-Run Rates of Return: A Note, Dec., 1983
[2] P. Cheng, M. K. Deets, Statistical Biases and Security Rates of Return, Jun., 1971

niedziela, 14 lutego 2016

W poszukiwaniu nieznanej wartości oczekiwanej - część 2

Rozkłady log-normalne (logarytmicznie normalne), podobnie jak rozkłady normalne, znajdowane są dość często w przyrodzie. Opisywane są nimi wielkości populacji niektórych bakterii (np. [1], [2]), szybkość podwajania się średnicy niektórych przerzutów nowotworowych [3], mikroflora w Marsylii [4] czy ciśnienie krwi dla danej grupy wiekowej [5]. Angielska wikipedia podaje jeszcze wiele innych przykładów [6].

Wyjaśnienie jak powstaje rozkład log-normalny zawiera artykuł Pokrzywiony dzwon - rozkład lognormalny .W sytuacji gdy interesuje nas bardziej stopa zmian niż bezpośrednia zmiana, rozkłady te mogą okazać się poprawniejsze od normalnego.

W pierwszej części artykułu przedstawiłem formułę Blume'a na oszacowanie nieznanej oczekiwanej stopy wzrostu przy założeniu, że rozkład stóp jest normalny [7]. Jacqiuer, Kane, Marcus (JKM) wyprowadzili również wzór na oczekiwaną stopę, ale przy założeniu lognormalności [8, 9]. Wówczas jeżeli r to stopa zwrotu, to ln(1+r) posiada rozkład normalny. Zapamiętać można to w taki intuicyjny sposób, że logarytmując, dokonujemy "normalizacji" stopy zwrotu (jeżeli stopy mają rozkład log-normalny, to cena podlega geometrycznemu ruchowi Browna [10], wzrost jest więc multiplikatywny, a po logarytmicznej transformacji staje się arytmetycznym ruchem Browna, stąd stopy stają się "normalne").

W sumie rozważymy ich 3 wzory, które są tak naprawdę jednym i tym samym. Podstawowy wzór JKM na wartość oczekiwaną ceny akcji (aktywa) w przyszłym okresie N jest następujący

 

 gdzie:
g - średnia geometryczna stopa kapitalizacji ciągłej w rozkładzie lognormalnym. Uwaga: jednocześnie jest to średnia arytmetyczna logarytmów w rozkładzie normalnym. Wyznaczona z okresu od 1 do T,
σ^2 - wariancja logarytmicznej stopy dla rozkładu normalnego wyznaczona z okresu od 1 do T,
T - ostatni okres przeszłości, na podstawie którego wyznaczane są parametry,
N - okres przyszłości, dla którego szukamy wartości oczekiwanej stopy zwrotu M,
P(t) - cena akcji, aktywa w okresie t. 

Inaczej:
 

Zatem wartość oczekiwana stopy zwrotu brutto w całym okresie od 1 do N jest to:

(1)

 Oznaczmy m(N) samą stopę kapitalizacji:

(2)
 

Wzór (2) można rozpisać następująco:

 


Podstawmy ten wynik do (1):
(3)

 

Przypomnijmy, że bieżąca wartość oczekiwana w rozkładzie log-normalnym (a więc w okresie 0), estymowana przez średnią arytmetyczną brutto (A), jest dana wzorem (zob. [6]):

 (4)


Czyli wtedy kapitalizacja:

Moglibyśmy więc zapisać:


Stopa kapitalizacji ciągłej m(N) może być więc wyrażona w postaci średniej ważonej geometryczną stopą kapitalizacji i arytmetyczną stopą kapitalizacji. Otrzymujemy więc wzór podobny do estymatora Blume'a.

Jednakże m(N) jako kapitalizacja ciągła mniej nas interesuje, gdyż chcemy doprowadzić do porównywalności z estymatorem Blume'a. Chcemy uzyskać średnią efektywną stopę procentową. Brakuje nam do tego jeszcze średniej geometrycznej stopy brutto (G). Zważmy, że ani a, ani g nie są tutaj tymi samymi stopami netto rozważanymi w poprzedniej części, tylko kapitalizacjami ciągłymi. Najłatwiej odróżnić to w ten sposób, że stopa netto stanowi efektywną stopę procentową, tj. powstaje po prostu przez odjęcie 1 od brutto.

Mimo że nie mamy nigdzie podanej stopy G, możemy użyć wprost definicji średniej geometrycznej brutto zadając pytanie jak średnio cena rosła z okresu 0 do T:


Czyli:

(5)
 

Jednocześnie wiemy, że w kapitalizacji ciągłej stopa G pod wpływem ciągłości zastępowana zostaje przez 1+g, stąd:


Czyli:

(6)

Na marginesie warto zaznaczyć, że wzór (6) można rozpisać jako średnią arytmetyczną logarytmów stóp zwrotu (pokazałem to w artykule O relacji między arytmetyczną a geometryczną stopą zwrotu  - wzór (6)), a ponieważ  ln(1+r) posiada rozkład normalny, to oznacza, że g musi stanowić średnią arytmetyczną dla rozkładu normalnego.
Zauważmy, że (5) = (6), zatem wnioskujemy, że:

(7)


W końcu podstawiamy wynik z (4) do (3) oraz (7) do (3):

(8)


Podsumowując część techniczną, mamy 3 wzory, które stanowią tę samą formułę: (1),  (3), (8). Kapitalizacja m(N) we wzorze (3) przypomina estymator Blume'a, bo jest to faktycznie jego analogia. Najlepiej widać to analizując wzór (8). Jeśli podstawimy N = 1, to dla dużego T otrzymamy w przybliżeniu średnią arytmetyczną (dla 0 jest idealnie arytmetyczna), a gdy N = T, średnią geometryczną, a więc bardzo podobnie jak u Blume'a.

W celach praktycznych będzie nas raczej interesować uśrednione M(N), tj. pierwiastek z M(N). Po pierwsze:

(9) średnia efektywna stopa brutto


Po drugie wzory (1) i (2) prowadzą do związku:

(10) stopa kapitalizacji ciągłej


Przykład.
Wykorzystajmy przykład spółki LPP, który posłużył do obliczenia oczekiwanej stopy wzrostu EBIT w części 1 za pomocą estymatora Blume'a. Estymator ten zakładał jednak normalność tempa wzrostu. Jeżeli okaże się, że tempo to nie jest gaussowskie, ale za to zlogarytmowane tempo (tj. ln(1+tempo)) już tak, wtedy należy użyć estymatora JKM. Dla przypomnienia zakres danych to 2004-2014, zatem 10 rocznych stóp zwrotu (pierwsza obserwacja jest z grudnia 2004), na podstawie bankier.pl, zaś testy wykonałem w Gretlu. Testy na normalność stopy EBIT dały następujące wyniki:




Wszystkie 4 testy jednoznacznie każą nam odrzucić normalność. Natomiast testy dla obserwacji zlogarytmowanych przestają być tak oczywiste:



Próbka jest za mała, by obiektywnie ocenić czy jest to rozkład normalny czy nie. Widać jednak, że tendencja zmieniła się na korzyść normalności (p ok. 0,1 w dwóch testach). Aby obiektywniej przetestować hipotezę, zwiększyłem częstość obserwacji do kwartałów, tj. do 40 obserwacji. Testy znów wykazały brak normalności surowych danych:


 

co graficznie ilustruje poniższy histogram tej zmiennej:


 Jednak po zlogarytmowaniu (pozostało 36 poprawnych obserwacji), kwartalne stopy zysku stały się "normalne" dla wszystkich testów (wszystkie dają p znacznie powyżej 0,1):


  

 Histogram zmienia się diametralnie:

 

Przyznaję, nie jest to idealny dzwon, delikatnie mówiąc, ale testy eliminują subiektywizm. Reasumując, rozkład tempa zmian EBIT możemy uznać za log-normalny.

Przypomnę, że A = 1,41, G = 1,28 oraz chcemy wyznaczyć roczną oczekiwaną stopę zwrotu w ciągu 5 lat, tj. N = 5, mając 10 obserwacji (T=10). Po podstawieniu danych do... no właśnie i teraz uwaga. Mamy tu dwie różne wielkości: średnią efektywną stopę zwrotu oraz stopę kapitalizacji. Obliczmy obydwie wykorzystując formuły (9) i (10). Po podstawieniu danych do (9) dostałem M(N)^(1/N) = 1,34, czyli tak wyznaczona stopa netto 34% (dokładnie 34,3%) jest o 1,5 pkt proc. niższa niż wynikająca ze wzoru Blume'a.
Z kolei stopa kapitalizacji ciągłej na podstawie (10) równa się ln(1,34) = 29,5%. Jej porównanie z estymatorem Blume'a nie ma jednak sensu, bo dotyczy ona wielkości ciągłych, podczas gdy estymator Blume'a nie opiera się na nich.

Jeżeli nie jesteśmy przekonani czy nasza estymacja nie jest za wysoka lub za niska, zawsze możemy zastosować pierwotną wersję z wariancją:

(11)

Trzeba pamiętać wtedy, że wariancja pochodzi z rozkładu normalnego, czyli jest to wariancja z ln(1+r). Po podstawieniu danych do (11) dostałem wartość netto bardzo zbliżoną do 34% (dokładnie 33,8%), co potwierdza poprawność wyliczeń.
Porównując estymatory JKM i Blume'a stwierdzamy, że stosując estymator Blume'a zawyżylibyśmy potencjał wzrostu dla LPP.


[1] S. S. Hirano, E. V. Nordheim, D. C. Arny, C. D. Upper, Lognormal Distribution of Epiphytic Bacterial Populations on Leaf Surfaces, 1982 Sep,
[2] J. E. Loper, T. V. Suslow, M. N. Schroth, Lognormal distribution of bacterial populations in the rhizosphere, 1984,
[3] J. S. Spratt Jr, T. L. Spratt, Rates of Growth of Pulmonary Metastases and Host Survival, 1964
[4] C. Di Giorgio, A. Krempff, H. Guiraud, P. Binder, C. Tiret, G. Dumenil, Atmospheric pollution by airborne microorganisms in the city of Marseilles, 1996,
[5] R. W. Makuch, D. H. Freeman Jr., M. F. Johnson, Justification for the lognormal distribution as a model for blood pressure, 1979,
[6] https://en.wikipedia.org/wiki/Log-normal_distribution,
[7] M. E. Blume, Unbiased Estimators of Long-Run Expected Rates of Return, Sep., 1974,
[8] E. Jacqiuer, A. Kane, A. Marcus, Optimal Forecasts of Long-Term Returns and Asset Allocation: Geometric, Arithmetic, or Other Means?, October 31, 2002,
[9] E. Jacqiuer, A. Kane, A. Marcus, Geometric or Arithmetic Mean: Reconsideration , October 31, 2002,
[10] R. R. Marathe, S. M. Ryan, On the validity of the geometric Brownian motion assumption, 2005.