niedziela, 28 sierpnia 2016

Mediana, średnia arytmetyczna, geometryczna i skośność

Warto sobie uświadomić, kiedy mediana (Me) przyjmuje wartość średniej arytmetycznej (A), a kiedy geometrycznej (G). Jak wiadomo w rozkładzie normalnym Me = A. Nieco mniej znany jest fakt, że w rozkładzie log-normalnym Me jest równa G. W artykule Czy mediana jest lepsza od średniej? twierdziłem, że dla rozkładu nie-normalnego Me jest lepszym estymatorem niż A dla krótkoterminowej stopy zwrotu. To prowadzi jednak do paradoksu: jeżeli miałoby to dotyczyć rozkładu log-normalnego, to znaczyłoby to, że Me, która jest wtedy równa G, powinna zastąpić A, a przecież właśnie A dostarcza informacji krótkoterminowych. Ten paradoks wynika po prostu ze ścierania się ze sobą dwóch różnych koncepcji: nieobciążoności i efektywności estymatora. Jeżeli bardziej zależy nam na wartości oczekiwanej, to wybieramy nieobciążoność, jeżeli bardziej zależy nam na jak najmniejszym ryzyku, wybieramy efektywność. Dla krótkoterminowej stopy wartość oczekiwana = A, dla długoterminowej stopy wartość oczekiwana = G  (por. art. z W poszukiwaniu nieznanej wartości oczekiwanej - część 2).
Załóżmy, że A i G pozostają stałe, a Me będzie zmienną. Wtedy w zależności od rozkładu Me będzie skakała z poziomu A w rozkładzie normalnym do G w rozkładzie log-normalnym. Wiemy, że dla zmiennej losowej zawsze A > G. Oczywiste więc, że przechodząc od rozkładu normalnego do log-normalnego mediana będzie się zmniejszać.

Możemy znaleźć ogólną przybliżoną  relację pomiędzy tymi 3-ma miarami i sprawdzić jak zachowuje się Me. Przypomnę wzór na G, który wyprowadziłem w art. O relacji między arytmetyczną a geometryczną stopą zwrotu:



gdzie:
V - wariancja
Sk - skośność, czyli 3-moment centralny podzielony przez wariancję do 3/2
K - kurtoza, czyli 4-moment centralny podzielony przez wariancję do kwadratu.

Jednocześnie wiadomo, że współczynnik skośności Sk jest często wyrażany za pomocą wzoru* [np. 1, 2]:


Wobec czego G1 przyjmuje postać:




Załóżmy teraz, że A jest stała, a Me i G są zmienne. Gdy rozkład jest normalny, to Me = A. Gdy pojawia się skośność dodatnia, Me zaczyna spadać, aby skośność mogła rosnąć. Ale jednocześnie rośnie wtedy G1 (bo licznik rośnie). Skoro wiemy, że G1< A, to wnioskujemy, że w pewnym punkcie G1 zrówna się z Me. W tym punkcie rozkład staje się log-normalny.
Filozoficznie możemy rozumować, że skoro z jednej strony mediana jest odporna na wstrząsy, z drugiej długokresowe tempo zmian staje się medianą, to inwestycja długoterminowa jest bardziej odporna na wstrząsy.


* Inny często używany wzór to (zob. np. [3]):









Literatura:
[1] MacGillivray, H. L., Skewness and Asymmetry: Measures and Orderings, Sep. 1986,
[2] Arnold B. C. A., Groeneveld, R. A., Measuring Skewness with Respect to the Mode, Feb. 1995,
[3] Eisenhauer, J. G., Symmetric or Skewed?, Jan. 2002.

wtorek, 16 sierpnia 2016

Czy mediana jest lepsza od średniej?

Chociaż standardowo oczekiwana stopa zwrotu utożsamiana jest z wartością oczekiwaną w sensie matematycznym, to jest to tylko pewne założenie. Już sama wartość oczekiwana nie jest pojęciem absolutnym, bo w zależności od okresu inwestycyjnego jaki przyjmujemy może ona przyjąć postać albo średniej arytmetycznej, albo geometrycznej (wprowadzenie do tematu - patrz Krótkoterminowa vs. długoterminowa średnia stopa zwrotu), albo kombinację tych obydwu (pełna analiza - patrz W poszukiwaniu nieznanej wartości oczekiwanej - część 1W poszukiwaniu nieznanej wartości oczekiwanej - część 2 ). Jeżeli skupiamy się na krótkich okresach, to wartość oczekiwana będzie bliska średniej arytmetycznej. Niestety ze względu na występowanie wielu wartości odstających w szeregach giełdowych stóp zwrotu, średnia ta nie jest dobrym estymatorem wartości oczekiwanej. Stąd często poleca się użycie mediany, która - jako wartość środkowa - oczywiście zmienia się bardzo powoli, a przez to ma niską wariancję. Temat ten rozpocząłem kiedyś w artykule Istota i znaczenie logarytmicznej stopy zwrotu, a teraz go rozszerzę.

Powstaje pytanie czy mediana jest to ten estymator, który ma najmniejszą możliwą wariancję, tzn. czy jest estymatorem najefektywniejszym? Mimo że w zagadnieniach czysto inwestycyjnych, raczej rzadko się używa pojęć efektywność estymatora (pojęcie "efektywność" jest inne w ekonomii), to trzeba zauważyć, że dla inwestora ma to duże znaczenie: dobrze jest posiadać estymator oczekiwanej stopy zwrotu, który prawie nie zmienia się w czasie.

Jak jednak sprawdzić czy mediana jest tak dobra? Najpierw załóżmy dla uproszczenia, że cena akcji jest procesem geometrycznego ruchu Browna. Poniżej przykład tego procesu, którego model zbudowałem w Excelu:



Jak widać proces ten całkiem odpowiada giełdzie. Moglibyśmy go zapisać w ten sposób:

(1)


 Następnie przekształcamy:



 Ponieważ parametr a jest całkowicie wolny, to można oznaczyć a = ln(P(0)) i stąd dostajemy:



Zatem współczynnik nachylenia b stanowi wartość oczekiwaną średniej arytmetycznej z logarytmicznych stóp zwrotu. W ten sposób doszliśmy do logarytmicznych stóp zwrotu.

Stopy zwrotu geometrycznego procesu ruchu Browna mają rozkład lognormalny. Logarytmy geometrycznego procesu ruchu Browna mają z kolei rozkład normalny (logarytm normalizuje zmiany). Zatem parametr b stanowi wartość oczekiwaną w rozkładzie normalnym. Wiadomo jednocześnie, że w rozkładzie normalnym mediana jest równa wartości oczekiwanej, a więc prawidłowa estymacja b automatycznie dostarczy nam medianę.

Model, który skonstruowaliśmy to E(lnP) = a + bt, który spełnia wszystkie warunki potrzebne do zastosowania metody najmniejszych kwadratów (MNK). Zgodnie z twierdzeniem Gaussa-Markowa estymator MNK jest estymatorem nieobciążonym (tzn. jest równy E(b)) i najefektywniejszym spośród innych liniowych estymatorów. Z tego jednak nie wynika, by mediana miała być "lepsza" od wartości oczekiwanej.

Jednakże musimy powrócić do pierwotnego modelu geometrycznego, a więc potrzebna jest detransformacja. Tylko zauważmy, że  powrót do oryginału jest mylący: 




A więc nie dostajemy wartości oczekiwanej ceny. Możemy jednak łatwo wykonać odpowiednią korektę. Zaczynamy od pierwotnego modelu (1):




Składnik losowy z początkowego założenia ma rozkład normalny, wobec czego exp(składnik losowy) ma rozkład lognormalny. A rozkład ten ma znane własności, tak że dostajemy:



Wariancja jest tutaj funkcją rosnącą z każdym okresem. Wiadomo, że wariancja ma własność addytywności, wobec czego całkowita wariancja może zostać podzielona na t okresów. Dlatego wariancja średniej arytmetycznej jest równa wariancji sumarycznego procesu podzielonej przez t okresów. Z tego wynika, że wariancja sumarycznego procesu jest to średnia wariancja razy t okresów. Stąd dla t:

(2)

dla t+1

(3)



Łączymy (2) i (3) dostając średnią stopę zwrotu

(4)


Pamiętamy, że wariancja składnika losowego jest równa wariancji samej stopy zwrotu (por. ostatni wzór w Odchylenie od nieznanej wartości oczekiwanej), w tym przypadku log-stopy zwrotu.

Oczywiście zadamy teraz pytanie jaka w takim razie jest mediana stopy w oryginalnym modelu? Aby ją uzyskać możemy wykorzystać twierdzenie że dla dowolnej funkcji monotonicznej każde przekształcenie mediany z oryginalnego rozkładu staje się medianą przekształconego rozkładu [1]. Wobec tego jeśli me to mediana rozkładu normalnego, to Me = e^me stanowi medianę w rozkładzie lognormalnym. U nas, jak wcześniej zauważyliśmy, me = b, to znaczy, że exp(b) stanowi medianę w rozkładzie lognormalnym. Jeśli nadal mamy wątpliwości, to łatwo znajdziemy, np. na Wikipedii, że mediana w rozkładzie lognormalnym równa się exp(b), dlatego że b - jak wykazałem wyżej - jest wartością oczekiwaną w rozkładzie normalnym.

Wiadomo, że wartość oczekiwana w rozkładzie lognormalnym wyraża się wzorem exp(b + var/2), zatem jest to dokładnie to co uzyskaliśmy w (4). Szerzej możemy oznaczyć średnią arytmetyczną jako wartość oczekiwaną. Jeśli A to średnia arytmetyczna w rozkładzie lognormalnym, a Me - mediana w rozkładzie lognormalnym, to:

(5)

To że log-normalna średnia arytmetyczna jest większa od log-normalnej mediany, staje się oczywiste. Ale dodatkowo można dojść do wniosku, że log-normalna średnia zawsze będzie bardziej zmienna od log-normalnej mediany, ponieważ zawiera dodatkową zmienną - wariancję składnika losowego (albo logarytmicznej stopy zwrotu), która implikuje dodatkową losowość (zmienność). Jeśli uznamy, że wariancja we wzorze (5) zmienia się w czasie, to A także będzie się zmieniać, podczas gdy Me może pozostać stałe.

Gdy zauważamy, że mediana może się wolniej zmieniać od średniej, to twierdzenie Gaussa-Markowa przestaje mieć dla nas znaczenie. Statystycy rozwinęli wiele innych metod, np. metodę najmniejszych wartości bezwzględnych (MNB). Od dawna wiadomo, że rozwiązaniem zadania minimalizacji sumy wartości absolutnych jest właśnie mediana (są różne sposoby na dowód - zob. np. [2, 3]). Basset i Koenker pokazali, że MNB jest bardziej efektywna od MNK w modelach liniowych, w których mediana jest bardziej efektywna (tzn. ma mniejszą wariancję) od średniej. Oznacza to, że dla większości modeli liniowych, pomijając gaussowskie, MNB jest efektywniejsza [4]. Również Dielman [5] empirycznie zademonstrował, że dla rozkładów z długimi ogonami MNB jest efektywniejsza, natomiast dla rozkładów normalnych lepsze rezultaty daje MNK.


Literatura:
[1]. Miller, D. M., Reducing Transformation Bias in Curve Fitting, May, 1984,
[2] Schwertman, N. C., Gilks, A. J., Cameron, J., A Simple Noncalculus Proof That the Median Minimizes the Sum of the Absolute Deviations, Feb 1990,
[3] Lee, Y-S, Graphical Demonstration of an Optimality Property of the Median, Nov 1995,
[4] Bassett, Jr., G., Koenker R., Asymptotic Theory of Least Absolute Error Regression, Sep 1978,
[5] Dielman, T. E., Least Absolute Value vs. Least Squares Estimation and Inference Procedures in Regression Models with Asymmetric Error Distributions, 2009.

piątek, 29 lipca 2016

Głębsze wprowadzenie do ekonometrii - publikacje Uriela

Jak wiadomo Internet stanowi ogromną, ale chaotyczną masę informacji, w tym publikacji naukowych. Znalezienie tego, co nas w danej chwili chwili interesuje to jak znalezienie igły w stogu siana. Czasami igieł jest bardzo dużo, ale większość w nich jest pozakrzywiana, skręcona i trudna do uchwycenia dla kogoś, kto nie jest zawodowcem w danej dziedzinie. Na przykład jest jakaś książka, w której niemal wszystko się znajduje, ale napisana przez matematyka dla matematyków albo przez specjalistę dla specjalistów. Weźmy choćby ekonometrię i analizę regresji. W angielskiej Wikipedii jest taki temat, ale liczba odniesień, które dokładniej wyjaśniają dane metody, jest przytłaczająca i ciężko znaleźć odpowiedź.

Dlaczego podczas regresji najczęściej stosowana jest Metoda Najmniejszych Kwadratów (MNK) i na czym ona polega? Kiedy i dlaczego MNK i Metoda Największej Wiarygodności dają te same wyniki?  Jak można dokonać dekompozycji wariancji zmiennej objaśnianej (analiza wariancji - ANOVA)? Jak obliczyć wariancję składnika losowego? Następnie, chociaż parametry regresji są z założenia stałe, to ich precyzja zależy od wielkości próbki, a przez to wartość współczynników podlega zmianom (wraz z wielkością próby). Jak więc obliczyć wariancję tych parametrów? Dlaczego kwadrat współczynnika korelacji jest równy współczynnikowi determinacji? Jak ocenić dopasowanie modelu regresji? Jak testować różne hipotezy statystyczne (statystyka t, F i ich relacja)? Na te i wiele innych pytań, znajdziemy przejrzystą odpowiedź na stronie internetowej E. Uriela:
http://www.uv.es/uriel/libroin.htm

Uriel opublikował tam 6 rozdziałów/tomów podręcznika wprowadzającego do ekonometrii wraz z ćwiczeniami. Wydaje mi się, że jest to jedna z najlepszych darmowych pozycji w Internecie dla kogoś, kto chciałby sam przestudiować podstawy ekonometrii. Z jednej strony opis nie jest okraszony skomplikowanym nazewnictwem, a nawet wzory wyglądają przyjaźnie. Z drugiej strony nie mamy tutaj ogólników w stylu "wzór jest taki a taki, bo tak", które zniechęcają czytelnika, skoro nie wiadomo co się skąd wzięło. Znajdziemy tu nawet dowód twierdzenia Gaussa-Markova. W porównaniu do Wikipedii, w której pokazany jest dowód na macierzach, tutaj łatwiej jest go zrozumieć, bo został przeprowadzony najpierw na skalarach, a potem macierzach.

Został też poświęcony rozdział przekształceniom regresji z funkcji nieliniowej do liniowej za pomocą logarytmów. Jest to ważne zagadnienie w ekonomii, dlatego można mieć zastrzeżenie co do jednej rzeczy. Autor wskazuje na możliwość przybliżenia stopy zwrotu za pomocą logarytmicznej stopy zwrotu, wykorzystując twierdzenie Taylora. Niestety to przybliżenie jest nie do końca przekonujące. Dużo lepiej i prościej byłoby gdyby Uriel pokazał następujący prosty dowód, że dla małych zmian logarytmiczna stopa będzie równa zwykłej stopie:


Bo jak wiadomo (1+r/n)^n dąży do exp(r).*
Autor mógł też pokazać podobne rozumowanie, które nakreśliłem w art. Istota i znaczenie logarytmicznej stopy zwrotu

Mimo iż Uriel zawarł też tom poświęcony bardziej zaawansowanym kwestiom jak opuszczanie klasycznych założeń MNK, to trzeba pamiętać o tym, co napisałem wcześniej - jest to tylko wprowadzenie do ekonometrii. I to bardzo dobre.


*

niedziela, 26 czerwca 2016

Kiedy oczekiwany zysk z akcji koreluje z ryzykiem?

Zazwyczaj rozpatrujemy średnią (wartość oczekiwaną) i wariancję jako niezależne od siebie parametry rozkładu prawdopodobieństwa. Czasami niektórzy wiążą oba parametry poprzez CAPM, jednak jest to podejście błędne. Jeśli ktoś nie rozumie tego błędu, to krótko wyjaśnię. Dla przypomnienia, CAPM-CML mówił ile można inwestować w aktywa ryzykowne, a w ile bez ryzyka. Poniższy rysunek to ilustruje:





Oczekiwana stopa zwrotu z mojego portfela jest oznaczona na osi pionowej, a ryzyko , czyli odchylenie standardowe na osi poziomej. Tak jak widać oczekiwany zysk jest liniową funkcją ryzyka. Ale w każdym punkcie CML znajduje się inny portfel, tzn. portfel o innym składzie. Jeżeli będziemy utrzymywać ten sam skład portfela, np. 70% indeksu i 30% obligacji skarbowych, to oczekiwany zysk nie będzie korelował z ryzykiem.

Niemal identyczna sytuacja występuje dla CAPM-SML, tylko odchylenie standardowe zostaje zastąpione betą, a punktami na SML nie są już różne udziały indeksu i obligacji skarbowych, ale różne aktywa, np. akcje. Te aktywa nie mają większej średniej stopy zwrotu, gdy jest większe odchylenie standardowe, ale ta stopa jest większa tylko wtedy gdy beta jest większa. Natomiast beta będzie dotyczyła (przede wszystkim) związku pomiędzy tą akcją a indeksem giełdowym.

Pytając o korelację oczekiwanego zysku z akcji a jej ryzykiem miałem na myśli zmiany w czasie. Aby odpowiedzieć na to pytanie, trzeba na początku rozdzielić parametry warunkowe, jak warunkowa wartość oczekiwana i warunkowa wariancja od parametrów niewarunkowych. A więc od razu mówię, że nie zajmuję się w tym artykule warunkowymi parametrami rozkładu.

Przechodząc do rzeczy, zacznę od Lukacsa [1], który w 1942 r. stwierdza:

Potrzebnym i wystarczającym warunkiem dla normalności rozkładu populacji jest to, aby rozkłady z próbki średniej i wariancji były wzajemnie niezależne.

Zhang [2] parafrazuje to zdanie Lukacsa:

Jeżeli wariancja (lub drugi moment) z rozkładu populacji istnieje, wtedy potrzebnym i wystarczającym warunkiem dla normalności rozkładu populacji jest to, aby średnia arytmetyczna dla próby i wariancja dla próby były wzajemnie niezależne.

Z tego twierdzenia wynika, że jeśli stopa zwrotu ma rozkład normalny, to oczekiwana stopa zwrotu i ryzyko (wariancja) są niezależne od siebie.

Powstaje pytanie czy średnia i wariancja są nadal niezależne od siebie, jeżeli rozkład stopy nie jest gaussowski? Odpowiedź brzmi: nie. Oznaczając oczekiwaną stopę zwrotu oraz wariancję dla próby odpowiednio:


gdzie R(t) to stopa zwrotu w okresie t oraz T to zakres próby, Zhang dowodzi, że (dla dowolnego rozkładu prawdopodobieństwa) jeśli trzeci moment centralny z populacji istnieje, który oznaczymy:



to spełniona jest zależność:

(1)

Z tego wzoru wynika, że dla dowolnego rozkładu:
1. zależność pomiędzy średnim zyskiem a ryzykiem zależy od skośności. Rozkład normalny ma zerową skośność (zerowy 3-ci moment centralny)
2. wraz ze wzrostem horyzontu inwestycyjnego, korelacja ryzyka i średniej stopy zwrotu zmniejsza się.

Powyższy problem można skomplikować. Analizując wzór (1) widać, że użyto założenia, że rozkład gęstości średniej i wariancji jest stały w czasie. Jeżeli parametr jest losowany K razy, to powstaje pewien rozkład gęstości (oznacza to K próbek i K*T stóp zwrotu). Można sobie wyobrazić, że po K-tym losowaniu następuje kolejnych K losowań, z których wyłania się inny rozkład parametrów (jeżeli jest N takich losowań, oznacza to N*K*T stóp zwrotu). Czy wtedy nadal będzie spełniona zależność (1) i nadal dla rozkładu normalnego będzie zachowana niezależność? Jeśli np. spółka się nagle zmieniła, czy pod wpływem wzrostu jej zadłużenia, a więc i ryzyka, oczekiwana stopa zwrotu nie powinna też wzrosnąć? Odpowiedź daje Trenkler [3], który podaje ogólniejszą wersję (1). Okazuje się, że że dla tak ogólnej sytuacji postać wzoru się zmienia. Ten nowy wzór jest dużo bardziej skomplikowany, bo operuje na macierzach. Aby oddać jego sens, intuicyjnie można go zapisać:

(2)





Czyli jednak średnia i wariancja mogą stać się zależne w niestacjonarnym rozkładzie normalnym. Jednakże nawet gdyby przyjąć duże parametry, jak średnia = 0,3, odchylenie st = 0,6, to próbując zastosować (2) dostajemy 2*0,3*0,6^2 = 0,216, co po podzieleniu przez T będzie mieć nieduży wpływ. Stąd (1) jest wystarczającym przybliżeniem.


Literatura:
[1] Lukacs, E., A Characterization of the Normal Distribution, 1942,
[2] Zhang, L., Sample Mean and Sample Variance: Their Covariance and Their (In)Dependence, 2007,
[3] Trenkler, G., Zhang, L. (2007), "Sample Mean and Sample Variance: Their Covariance and Their(In)Dependence," "The American Statistician," 61, 159-160: Comment by Trenkler, 2007.

niedziela, 19 czerwca 2016

Jak daleko możesz się odchylić?

Kupując akcje albo inne aktywa, każdy zawsze zastanawia się, jak daleko stopa zwrotu może się odchylić od średniej. Samo odchylenie standardowe nie wystarcza, aby to zmierzyć. Pewną pomocą jest nierówność Czebyszewa-Markowa (Czebyszewa-Bienayme), zgodnie z którą prawdopodobieństwo, że stopa zwrotu odchyli się o co najmniej x odchyleń standardowych, wynosi najwyżej 1/x^2. Np. szansa, że stopa zwrotu odchyli się min. o 2 odchylenia st., wynosi max 25%. Ogólnie nierówność ta jest zapisywana w postaci:



gdzie Pr - prawdopodobieństwo, m - wartość oczekiwana zmiennej X, s - odchylenie standardowe zmiennej X.

Twierdzenie to jednak daje słabą odpowiedź na pytanie na ile dana zmienna może się maksymalnie odchylić. Samuelson [1] w 1968 r. pokazał, że dodatkowa informacja w postaci liczebności populacji danej cechy może zwiększyć precyzję szacunków. Udowodnił on, że jeśli dana populacja zawiera n obserwacji, to żadna z nich nie może odchylić się o więcej niż (n - 1)^0.5 odchyleń standardowych od średniej. Jeśli przyjąć, że populacja na rynku ciągle rośnie, to znaczyłoby to, że możliwe odchylenie też rośnie. Jednak szybko zauważmy, że prawdopodobieństwo tego większego odchylenia spada. Połączmy bowiem tw. Samuelsona z tw. Czebyszewa-Markowa.

(1)



Z twierdzenia Czebyszewa-Markowa wynika, że jeżeli na świecie jest 7 mld ludzi, to prawdopodobieństwo, że wzrost jakiejś osoby przekroczy 7000000000^0,5 (=83666) odchylenia standardowego jest prawie zerowe. Ale twierdzenie Samuelsona mówi, że to prawdopodobieństwo jest dokładnie równe 0.

W artykule Odchylenie od nieznanej wartości oczekiwanej zrobiłem przykład obliczania odchylenia standardowego od nieznanej wartości oczekiwanej dla spółki LPP, gdzie było 10 obserwacji. Gdyby przyjąć, że to cała populacja, to podstawiając do (1), dostałbym informację, że stopa zmian EBIT może się odchylić od średniej o więcej niż 9^1/2 = 3 odchylenia st z szansą mniej niż 1/9. Jednakże dzięki tw. Samuelsona dostaję już informację, że stopa zmian EBIT może się maksymalnie odchylić od średniej o 3 odchylenia st. Wynika z tego, że niezależnie od tego z jakim rozkładem częstości mamy do czynienia (jednak muszą istnieć 2 pierwsze momenty centralne) prawo 3 sigm zadziała przy n = 10.

Niestety przyjęcie założenia, że obserwujemy pełną populację jest sztuczne albo po prostu nieprawdziwe. Wolkowicz i Styan [2], a potem Farnum [3] rozszerzyli twierdzenie Samuelsona na minimalną i maksymalną granicę k-tej obserwacji w populacji n-elementowej.

(2)


gdzie k = 1, 2, ..., n




Dla k = n, wzór (2) sprowadza się do tw. Samuelsona.
Trzeba zwrócić uwagę, że kolejne obserwacje od 1 do n zostały ustawione w kolejności rosnącej, a nie wylosowanej Tak więc, jeśli k = 1/2n , to znaczy, że x = mediana. Wtedy podstawiając do (2) widać, że mediana będzie zawsze większa od średniej pomniejszonej o jedno odchylenie standardowe oraz zawsze mniejsza od średniej powiększonej o prawie jedno odchylenie standardowe. Jeśli natomiast k = 3/4n, to x = trzeci kwartyl. Wtedy ten kwartyl zawsze będzie większy od średniej pomniejszonej o 0,58*odchylenia standardowego oraz zawsze mniejszy od średniej powiększonej o ((3n-4)/(n+1))^0,5 odchylenia standardowego (dla dużego n 1,73 odchylenia st).

Niestety praktyczne zastosowanie wzoru (2) może być nadal ograniczone ze względu na zbyt dużą ogólność rozkładu prawdopodobieństwa oraz fakt, że dostajemy w nich przedział ufności, który rozciąga się na pełen rozkład prawdopodobieństwa (a więc cały możliwy przedział odchylenia, nawet mało prawdopodobny). Pukelsheim [4] wzmocnił tw. Czebyszewa-Markowa pokazując (wcześniej dowiedli to Vysochanskij i Petuni), że dla dowolnego rozkładu jednomodalnego (tzn. zawierającego tylko jedną dominantę - wartość najczęstszą) w uproszczeniu:

(3)


gdzie s może być odchyleniem standardowym pobranym z próby.

Podstawmy do (3) np. d = 2s:

dla każdego d.

Czyli zmienna dowolnego rozkładu z jedną modą może się odchylić na 2 odchylenia standardowe z szansą nie większą niż 1/9. Jest to znaczna poprawa precyzji w stosunku do Czebyszewa, gdzie otrzymano 1/4.

Wzór (3) przedstawiłem w formie uproszczonej. W rzeczywistości jest on bardziej ogólny. Ma to ogromne znaczenie dla rynków. Dotychczasowe rezultaty wymagały nie tylko istnienia wartości oczekiwanej oraz odchylenia standardowego (i wariancji), ale też ich znajomości w populacji generalnej (niektóre rozkłady stabilne nie mają dobrze zdefiniowanych momentów centralnych). Natomiast wzór (3) wcale tego nie wymaga. W (3) użyłem średniej i wariancji, aby zachować spójność z poprzednimi przykładami. Jednak w ogólnym przypadku Pukelsheim podał następującą postać:

(4)

gdzie

v to jakieś centrum (średnia, mediana czy dominanta) zmiennej X,





W praktyce będziemy najczęściej wykorzystywać wzór (4) podstawiając d = cq:

(5)


gdzie c stanowi część q, którą zmienna ma pokonać.

Ogólność (5) pozwala w pewnym stopniu użyć go dla samej ceny. Np. wyobraźmy sobie, że kurs ma lokalną dominantę / medianę / wartość oczekiwaną  v i lokalne q. Wtedy, aby Pr = 0,5, c musi wynieść (8/5)^0,5 = 1,26 (drugi wzór, bo c = 1,26 < 1,63). Z kolei dla Pr = 1, c wynosi 1 (drugi wzór, bo c = 1 < 1,63). Można wyciągnąć wniosek, że najbardziej prawdopodobne c znajdzie się w zakresie od 1 do 1,26. Stąd najbardziej prawdopodobne odchylenie od centrum (v) będzie się mieścić pomiędzy q a 1,26q. Identyczny wniosek będzie oczywiście dla stopy zwrotu: będzie się ona odchylać od mediany, średniej lub dominanty w przedziale 1-1,26q z prawdopodobieństwem co najmniej 0,5.

Ciekawszą jednak implikacją tej formuły będzie chyba użycie jej dla celów analizy technicznej, w której posługujemy się oscylatorami. Poziom 1,26q wyznacza bowiem najbardziej prawdopodobny obszar odchylenia od mediany. Temat ten poruszyłem oddzielnie w artykule
Poziomy wykupienia i wyprzedania w AT mogą być obiektywne.


Literatura:
[1] Samuelson, P. A., How Deviant Can You Be?, Dec. 1968
[2] Wolkowicz, H., Styan, G. P. H., Extensions of Samuelson's Inequality, Aug. 1979
[3] Farnum, N. R., An Alternate Proof of Samuelson's Inequality and Its Extensions, Feb. 1989
[4] Pukelsheim, F., The Three Sigma Rule, May, 1994

sobota, 4 czerwca 2016

Jakie państwo? Jaki kapitalizm?

W internecie pojawiła się bardzo ciekawa lektura autorstwa Leszka Balcerowicza (w formie pytań i odpowiedzi), którą można wysłuchać na stronach załączonych poniżej:

Jakie państwo?

Jaki kapitalizm?

Lekkość tej lektury połączona z wielką wiedzą ekonomiczną autora sprawia, że słucha się jej z przyjemnością, a jednocześnie dostarcza ona klarownych odpowiedzi na wiele ważnych pytań.

niedziela, 22 maja 2016

Cash flow kontra free cash flow - wzajemne zależności

Inwestorzy przed zakupem aktywów dokonują zawsze pewnej analizy fundamentalnej (AF) spółki, mniej lub bardziej szczegółowej (nie mówię tu o spekulantach). Przeglądają bilans, rachunek zysków i strat oraz przepływów pieniężnych. I wtedy zaczyna się kłopot. Chociaż taka analiza daje pojęcie o finansowej kondycji spółki, to nie przedstawia teoretycznego powiązania tych 3 składników z wyceną w jedną całość. Dlatego teoria finansów stworzyła koncepcję wolnych przepływów pieniężnych - free cash flow (FCF). Mimo iż koncepcja ta jest znana od dawna, książki poświęcone wyłącznie analizie fundamentalnej nie zajmują się tym zagadnieniem we właściwy sposób. Przez właściwy sposób rozumiem tu nacisk na powiązanie księgowości z teorią wyceny. Sądzę, że są 2 tego powody, Po pierwsze AF wyraźnie rozdziela sferę wartości kapitału od sfery pieniężnej. Wskazuje się tu na pułapki obliczania zysku, który może być albo sztucznie napompowany, albo jednorazowy. Natomiast przepływy pieniężne (CF) są trudne do manipulacji i dlatego powinny one stać się podstawą porównań z okresami poprzednimi. Niestety analitycy fundamentalni, nie mając dostatecznej wiedzy z teorii wyceny, nie zauważają, że zyski jako elementy memoriałowe zawierają często już informacje o przyszłych przepływach pieniężnych(!), które stanowią tylko elementy kasowe. Potem ci sami analitycy dziwią się, że rynek reaguje bardziej na zysk, a nie na zmiany gotówki, tłumacząc to nieracjonalnością inwestorów. Tak więc zyski odnoszą się często do przyszłości, a CF zawsze do przeszłości. Ponieważ gotówki nie da się oszukać, w AF należy porównywać zarówno zyski, jak i CF.

Po drugie AF ma zastosowanie nie tylko dla inwestorów, ale także dla księgowości zarządczej i zewnętrznych podmiotów wystawiających oceny (ratingi) danej spółce. Podmiotom tym nie są potrzebne do niczego wolne przepływy pieniężne.

W. Petty i J. Rose [1] pokazują zależności pomiędzy przepływami pieniężnymi i wolnymi przepływami pieniężnymi. Najpierw wprowadzają tożsamość:

(1)

Powyższa tożsamość nie jest definicją wolnych przepływów pieniężnych, ale informuje nas, że są one tą zmianą gotówki, którą otrzymują rzeczywiście inwestorzy. Na logikę - free cash flow musi być to ta zmiana gotówki z działalności operacyjnej, która nie jest reinwestowana przez firmę.

Prawą i lewą stronę (1) definiujemy następująco.

(2a) Lewa strona:

Free cash flow to przepływy operacyjne minus zmiana aktywów trwałych brutto minus zmiana kapitału pracującego netto. Zmiana aktywów trwałych brutto odnosi się do wydatków kapitałowych, inwestycyjnych (capital expenditures - CAPEX) i może być zdefiniowana inaczej jako zmiana aktywów trwałych netto + amortyzacja. Z kolei kapitał pracujący netto to aktywa krótkoterminowe minus zobowiązania krótkoterminowe.  Czyli zobaczmy ogólniej, że:

Free cash flow = Operating cash flow - (zmiana aktywów trwałych + amortyzacja + zmiana aktywów krótkoterminowych - zmiana zobowiązań krótkoterminowych).

Lub krócej:

Free cash flow = Operating cash flow - kwota (re)inwestowana.

W tym artykule udowodnimy, że rzeczywiście powyższa tożsamość jest prawdziwa.


2b) Prawa strona

Cash flow to investors, czyli przepływy do inwestorów, dzielą się na przepływy do wierzycieli (cash flow to debtholders) i na przepływy do akcjonariuszy (cash flow to stockholders).


Ok, to teraz połączmy 2a = 2b. To znaczy (1) można rozszerzyć do:

(3)


Niektóre z tych składników także osobno zdefiniujemy:


Jak wiadomo taxes to podatki, depreciation expense to amortyzacja. Zwróćmy uwagę, że operacyjny cash flow to po prostu EBITDA minus podatki, a więc jeśli np. stosujemy dane z portalu bankier.pl, gdzie nie ma podanego przepływu operacyjnego w tablicy okresowych wyników, możemy użyć wzoru EBITDA - (zysk brutto - zysk netto).
Accounts receivable to bieżące (krótkoterminowe) należności, inventories to zapasy, accounts payable to bieżące (krótkoterminowe) zobowiązania.
Przepływy do wierzycieli to interest expense (koszt odsetkowy) minus zmiana długu, ponieważ kredytodawca otrzymuje z jednej strony odsetki, z drugiej strony może dostarczać nowej pożyczki.
Analogicznie sprawa wygląda u akcjonariuszy - dostają dywidendy, ale też firma może emitować dla nich nowe akcje.

Następnie dzięki nowo zdefiniowanym wyrazom rozszerzamy (3):



które może być przedstawione w formie:

(4)


Ponieważ zysk netto (Net income) stanowi EBIT - odsetki - podatki, więc (4) można zapisać w postaci:

(5)

W końcu, trafnym jest spostrzeżenie, że 3 oddzielne składniki przepływów pieniężnych: operacyjne, inwestycyjne i finansowe da się zdefiniować następująco:

(6)

tak jak to jest czynione w sprawozdaniu finansowym. Jednakże wtedy podstawiając je do (5) musielibyśmy odjąć przepływy pieniężne z działalności inwestycyjnej zamiast dodać. Stanie się tak, ponieważ gross fixed assets zdefiniowaliśmy jako wydatki CAPEX a nie zwykłą zmianę z działalności inwestycyjnej. Początkowo w równaniu (2) odejmowaliśmy te wydatki, aby zachować spójność z definicją free cash flow. Jest to jednak kwestia konwencji, wobec czego zamiast odejmować możemy dodać (ujemną) zmianę. A wtedy podstawiając kolejno składniki z (6) do (5) dostaniemy:




 co jest dokładnym formatem w księgowym rachunku przepływów pieniężnych.

-------------------------------------------------------------------------------
Uwaga: Zauważmy, że operating cash flow to nie jest to samo co cash flow z działalności operacyjnej. Czym się różnią? Ten drugi:
- odejmuje koszty odsetek (zysk dla wierzycieli)
- dodaje zmianę zobowiązań krótkoterminowych (account payable)
- odejmuje zmianę należności krótkoterminowych (account receivable) oraz
- odejmuje zmianę zapasów.

To tylko z tego powodu w definicji FCF występuje zmiana kapitału pracującego netto: chodzi o sprowadzenie operacyjnego cash flow do cash flow z działalności operacyjnej (jakkolwiek to dziwnie brzmi).
-------------------------------------------------------------------------------

W ten sposób dowiedliśmy poprawności równania (2). Przeprowadzając taką analizę można całościowo zrozumieć różnicę pomiędzy cash flow a free cash flow: "free" oznacza tylko tyle, że odejmuje się te pieniądze, które firma w danym okresie wygenerowała i dalej je inwestuje, tzn. je reinwestuje. Po odjęciu tej kwoty dostaniemy wszystko to, co inwestor otrzymuje do ręki. A z tego wynika, że sam cash flow stanowi jakby przeciwieństwo free cash flow, bo to gotówka, która zostaje w spółce. Normalnie wtedy ktoś by zapytał, dlaczego FCF nie obliczamy poprzez odjęcie kwoty reinwestycji od CF, tylko od CFO (cash flow operacyjnego). W rzeczywistości tak prawie robimy. Po kolei:
 - Weźmy najpierw CFI (cash flow inwestycyjny). Przecież w FCF już on siedzi, a jego odjęcie, jak już pisałem, to kwestia konwencji. W ogólnym przypadku znak CFI może być dowolny, ale gdy mówimy o wydatkach (CAPEX), to jasne, że musimy je odjąć (bo wydatki są rozumiane jako wartość bezwzględna).
- Weźmy teraz CFF (cash flow finansowy), który odejmuje dywidendę i dodaje emisje papierów. Jest to bardziej skomplikowana sytuacja, na którą można spojrzeć z dwóch perspektyw. Po pierwsze CFF oznacza przekształcenia po stronie pasywów, a nie aktywów. A skoro aktywa = pasywa, to gdzieś te zapisy muszą się odbić  w aktywach. Np. nowe emisje zwiększyłyby CAPEX, który przecież mieliśmy odjąć. Po dodaniu CFF efekt byłby zerowy, tak jak byśmy w ogóle niczego nie odjęli.
Druga perspektywa rozjaśnia ten problem. CFF jest to przeciwieństwo tego co dostaje inwestor. Dywidenda trafia do akcjonariusza, więc po jej odjęciu trzeba byłoby ją z powrotem dodać. Jednocześnie traci gotówkę, gdy spółka emituje dla niego papiery wartościowe. Stąd trzeba by znowu odjąć te emisje. Z tego wynika, że jeśli nie dokonamy odpowiednich korekt, to efekt będzie zerowy, tak samo jak w pierwszej perspektywie. I ten sposób oba spojrzenia pokrywają się.

Od teraz przełączanie się między CF a FCF nie powinno dla nas stanowić większego problemu.


Literatura:
[1] J. W. Petty, J. T. Rose - Free Cash Flow, the Cash Flow Identity, And the Accounting Statement of Cash Flows, Fall 2009.

niedziela, 1 maja 2016

Czy dotacje / zasiłki do opieki nad dzieckiem są efektywne?

Na moment zostawię giełdę i teorię finansów, po to by wypełnić lukę w rzetelnych informacjach na temat skuteczności programów polityki pro-rodzinnej. Jak wiadomo w Polsce temat jest na topie za sprawą programu Rodzina 500 plus, który PIS wprowadza w życie. Program ten wywołuje duże emocje nie tylko wśród polityków, ale i zwykłych obywateli. Wg danych CBOS aż 80% ludzi popiera ten program [3]. Co ciekawe, jest wiele osób w opozycji, które też go wspierają. Wielu jednak twierdzi, że to zwykłe marnowanie pieniędzy i nie przyniesie pozytywnych skutków albo gorzej: że doprowadzi do ruiny finanse publiczne i że staniemy się drugą Grecją. Ten negatywny scenariusz jest szczególnie eksponowany przez ekonomistów. Interesującą wypowiedź usłyszałem w wywiadzie od Balcerowicza: stwierdził on, że efekt tego programu będzie co najwyżej krótkoterminowy, a w długim terminie odwrotny od oczekiwanego, ponieważ koszty spowodują, że wpadniemy w potężne tarapaty zadłużenia państwa, co wymusi "odchudzanie" finansów, a przez to nowe obciążenia dla ludzi, którzy zaczną masowo uciekać z kraju.

Faktem jest, że 500+ będzie kosztował olbrzymie pieniądze, którego skutki mogą być groźne. Ale pytanie brzmi czy są podstawy by twierdzić, że przynajmniej spełni on swoją rolę, tzn. przyczyni się do wzrostu urodzeń (bez względu na konsekwencje w innych sferach)? Jest trochę artykułów naukowych (choć nie tak dużo) które zarówno negują, jak i aprobują skuteczność takiej polityki. Ta niejednoznaczność wynika zarówno ze różnorodności narzędzi tej polityki, jak i metod badawczych, ale możliwe, że także ze zwyczajnej zbyt krótkiej czasowej próbie. Nas interesuje tylko pomoc pieniężna, tj. dotacje, zasiłki, ulgi, zmniejszenie kosztów.

Gauthier [1] przeprowadziła przegląd literatury w tym zagadnieniu. Ogólny wpływ dotacji dla rodziny, zasiłków dla dzieci czy ulgi podatkowe mają pozytywny wpływ na zagregowany wskaźnik urodzeń, jednak wpływ ten zazwyczaj jest niski. Np. w pracy z 1997 r. Gauthier i Hatzius [2], badając oficialne statystyki w 22 krajach OECD w latach 1970-1996, oszacowali, że 25% wzrostu zasiłku w rodzinie, powoduje wzrost całkowitej stopy urodzeń o 4,24%, tj. 0,07 dziecka na kobietę.

Z kolei Kalwij [3] opracował model, w którym zbadał wpływ różnych czynników na urodzenia w 16 krajach Europy Zachodniej (Szwecja, Norwegia, Finlandia, Dania, Niemcy, Austria, Belgia, Holandia, Szwajcaria, Wielka Brytania, Irlandia, Francja, Portugalia, Hiszpania, Włochy, Grecja) w latach 1980-2003. Poniższa tabela przedstawia oszacowane prawdopodobieństwa urodzenia dziecka pod warunkiem określonych zmiennych:


Po pierwsze należy odróżnić część z kontrolą od części bez kontroli. Wyniki z kontrolą można porównać do wyników badań laboratoryjnych, w których są dwie grupy; jedna grupa jest leczona lekiem, a druga placebo. Druga grupa jest grupą kontrolną. W opisywanym przykładzie Autor nie zastosował kraju porównawczego, ale skorygował estymacje o niektóre czynniki, takie jak np. PKB per capita czy stopa bezrobocia (ze względu na cykliczność gospodarczą zaburzają obraz).

Po drugie Autor podzielił model na dwie części: wpływ na urodzenie pierwszego dziecka oraz na wpływ na kolejne urodzenia.

Po trzecie istotność statystyczną możemy ocenić na podstawie z Value - jeżeli statystyka z wynosi co najmniej +2 lub co najwyżej -2, wtedy mamy prawo sądzić, że wynik jest istotny statystycznie (dokładniej, dla -1,96 i +1,96 p value = 0,05).

Możemy zauważyć, że PKB per capita ma istotny wpływ tylko w grupie bez kontroli. Następnie zasiłek na dziecko (allowance per child) okazuje się również nie mieć istotnego wpływu na urodzenia w grupie z kontrolą. Dotacje na opiekę nad dziećmi są bardziej problematyczne. O ile nie dają efektu na urodzenie pierwszego dziecka, o tyle stają się istotne stat. dla kolejnych urodzeń (z = 3,85), zarówno w grupie kontrolnej jak i bezkontrolnej. Jednakże program 500+ nie jest dotacją (na konkretne cele), ale zasiłkiem. Gdyby natomiast uznać go za dotację, to wtedy statystyki potwierdzałyby, że program, który dotyczy głównie drugiego i następnego dziecka, jest sensowny, choć prawdopodobieństwo urodzenia dziecka (przez średnią matkę) każdego roku wynosi tu niecałe 0,17.

Kalwij przeanalizował jednak dokładniej 3 najważniejsze narzędzia polityki pro-rodzinnej. Stworzył symulację testującą nie tylko procentowy wpływ danego czynnika, ale także to czy ten czynnik rzeczywiście wpływa na dzietność danej rodziny. Może przecież być tak, że dotacja czy zasiłek zwiększa motywację do tego by mieć szybciej dzieci, ale może nie zwiększać liczby dzieci w całym okresie życia. Rezultaty zamieściłem poniżej:




Po pierwsze wzrost zasiłków nie wpływa istotnie na liczbę urodzeń w żadnej grupie wiekowej (statystyka z < 2). Jest to wynik sprzeczny ze wspomnianymi wynikami Gauthier.

Po drugie wzrost dotacji o 10% nie zwiększa szansy na ogólne posiadanie dzieci (ktoś kto ich nie chce i tak nie będzie miał). Po drugie wzrost dotacji o 10% zwiększa średnią liczbę urodzeń drugiego lub kolejnego dziecka tylko w przypadku kobiet pomiędzy 31 a 40 rokiem życia. Po trzecie wzrost dotacji o 10% zwiększa średnią liczbę urodzeń tylko w przypadku kobiet w wieku 36-40 lat.

Podsumowując statystyki, można powiedzieć, że zarówno sceptycy jak i optymiści mają po trochę racji (jednak biorąc pod uwagę, że na skutek polityki rozdawania pieniędzy wielu ludziom może to utrudnić życie poprzez wzrost inflacji, trudno mówić o efektywności takiej polityki, a co najwyżej o jej skuteczności). Program 500+ będzie miał raczej niewielki wpływ na liczbę urodzeń, a kosztować będzie słono. Powstaje więc pytanie czy nie można tych pieniędzy lepiej wykorzystać? Czy nie lepiej wydać je na walkę z nowotworami czy innymi chorobami, czy nie lepiej poprawić jakość publicznej opieki zdrowotnej, wspomagać prywatne przychodnie czy inne placówki medyczne? Czy nie lepiej byłoby zainwestować tych pieniędzy w badania naukowe i rozwój nowych technologii?


Literatura:
[1] Gauthier, A., The Impact of Family Policies on Fertility in Industrialized Countries: A Review of the Literature, Jun. 2007,
[2] Gauthier, A., Hatzius, J., Family Benefits and Fertility: An Econometric Analysis, Nov. 1997,
[2] Kalwij, A., The Impact Of Family Policy Expenditure On Fertility In Western Europe, May 2010.

Strony internetowe:
[3] http://www.money.pl/gospodarka/wiadomosci/artykul/pis-przekonal-polakow-do-swojego-programu,125,0,2031997.html

niedziela, 13 marca 2016

Odchylenie od nieznanej wartości oczekiwanej

Tworząc portfel długoterminowy, np. fundusz emerytalny, powinniśmy być zainteresowani zarówno oczekiwaną stopą zwrotu, jak i możliwym odchyleniem od niej. W sytuacji gdy wartość oczekiwana jest znana, obliczenie odchylenia standardowego na podstawie próbki nie stanowi problemu. Jednak w rzeczywistym świecie wartość oczekiwana jest nieznana i wówczas sprawa się komplikuje.

Skoro potrafimy już oszacować samą wartość oczekiwaną, nawet gdy nie posiadamy pełnej o niej informacji (dwa ostatnie artykuły), obliczenie odchylenia staje się łatwiejsze. Hasbrouck [1] pokazuje, że wariancja portfela N-podokresowej przyszłej stopy zwrotu określona jest wzorem:

 (1)


gdzie:
R - stopa zwrotu brutto (zwykła stopa zwrotu plus jeden)
N - ostatni okres inwestycji (liczba przyszłych okresów inwestycji)
M - oczekiwana stopa zwrotu (wartość oczekiwana stopy zwrotu), która dla rozkładu normalnego wynosi (W poszukiwaniu nieznanej wartości oczekiwanej - część 1):


A - średnia arytmetyczna z próby
G - średnia geometryczna z próby

natomiast dla rozkładu log-normalnego, mimo że nie jest wersja bezpośrednia, to można zastosować (W poszukiwaniu nieznanej wartości oczekiwanej - część 2):



σ^2 - wariancja 1-okresowej stopy zwrotu brutto (z próby), tzn. dla N = 1.


W Dodatku przedstawiłem dowód, bo jego wyprowadzenie nie jest trudne, a poza tym widać wtedy dokładnie których parametrów w praktyce należy użyć.


Przykład.
Kontynuując przykład spółki LPP w okresie 2004-2014, mamy 10 rocznych stóp wzrostu EBIT i korzystając z danych w bankier.pl dla rozkładu log-normalnego otrzymałem M = 1,34 przy N = 5, co oznacza, że 5-letnia oczekiwana stopa wzrostu brutto wynosi M^5 = 4,32 (tj. stopa netto = 332%). Wiedząc to, chcemy się dowiedzieć, jak całkowita przyszła stopa może się odchylić od tej wartości oczekiwanej. Aby znaleźć odpowiedź, zastosujemy wzór (1). Do jego użycia brakuje nam wariancji dla N = 1, którą normalnie obliczamy z próby. Chociaż chodzi tu o wariancję stopy brutto, to jest ona równoważna wariancji stopy netto. W tym przykładzie wyniosła ona 0,63, czyli mówiąc prosto roczna stopa zmian EBIT miała wariancję 0,63. Podstawiając






Odchylenie standardowe jako pierwiastek z tej wariancji wynosi 8,08. Ostatecznie uzyskaliśmy odpowiedź, że po 5 latach EBIT LPP wzrośnie średnio o 332% +/- 808%. Dopiero teraz jesteśmy w stanie właściwie ocenić ryzyko inwestycyjne.


Dodatek:
Zadaniem jest wyznaczenie wariancji przyszłej stopy zwrotu R(N), która składa się z mniejszych, kapitalizowanych stóp zwrotu od okresu 1 do N. Każdą taką mniejszą stopę zwrotu możemy zapisać jako oczekiwaną stopę zwrotu M plus składnik losowy e(t). Kapitalizowana stopa zwrotu powstanie poprzez iloczyn tych mniejszych stóp zwrotu:


Składnik losowy e jest zmienną losową IID o wartości oczekiwanej równej 0.
Stąd wariancję możemy odpowiednio przekształcić:

(2)

Wykorzystujemy twierdzenie mówiące, że wartość oczekiwana iloczynu zmiennej losowej IID równa się iloczynowi wartości oczekiwanych tej zmiennej (zob. np. [2]), tzn. ogólnie:


Dzięki temu dwa przedostatnie wyrażenia we wzorze (2) zastąpimy odpowiednio przez:


Czyli podstawiając obydwa wyrazy do (2):

(3)

Na koniec zauważamy, że wariancja 1-okresowej stopy zwrotu (która jest znana) równa się wariancji składnika losowego:


Podstawiając ten wyraz do (3) dostajemy wzór (1).


Literatura:
[1] J. Hasbrouck, On Estimates of Long-Run Rates of Return: A Note, Dec., 1983
[2] P. Cheng, M. K. Deets, Statistical Biases and Security Rates of Return, Jun., 1971