wtorek, 23 grudnia 2014

Ułamkowa stacjonarność? Co to za twór?

Ostatnim razem użyłem terminu "ułamkowa stacjonarność" przy testowaniu pamięci długoterminowej różnych procesów. Specjalista mógłby się przyczepić, bo w literaturze przedmiotu pojęcie to nie jest znane, wydaje się nawet dziwaczne. Stacjonarność procesu rozumie się po prostu jako stałość własności (tj. rozkładu prawdopodobieństwa) wraz z przesunięciem w czasie. Wszystko co nie jest stacjonarne, jest niestacjonarne - i ta definicja przez przeciwieństwo zdaje się zaprzeczać istnieniu czegoś takiego jak ułamkowa stacjonarność.

Tyle że praktyczna rzeczywistość sygnalizuje, że kwestia ta nie jest oczywista. Dla przykładu wygenerowałem najpierw proces ruchu Browna z wykładnikiem Hursta = 0.5, czyli zwykły ruch przypadkowy (2048 danych):



Przekształciłem go w stopy zwrotu, czyli uzyskałem Gaussowski biały szum:



Pierwszy surowy test to spojrzenie na korelogram czyli autokorelacje stóp zwrotu:




Brak istotnych dodatnich autokorelacji dla początkowych danych sugeruje już stacjonarność.

Sprawdziłem wszystkimi metodami w Gretlu stacjonarność stóp zwrotu: Zmienna->Testy pierwiastka jednostkowego. ADF wskazuje p=0, a więc na stacjonarność. KPSS daje statystykę 0,071 < 0,46 dla 5% istotności, co oznacza stacjonarność. Testy na ułamkowy rząd integracji mówią, że nie ma pamięci długoterminowej:

Estymator lokalny Whittle'a (m = 96)
  Estymowany ułamkowy rząd integracji = 0,0654853 (0,051031)
  Statystyka testu: z = 1,28324, z wartością p = 0,1994

Test GPH (Geweke'a, Portera-Hudaka) (m = 96)
  Estymowany ułamkowy rząd integracji = 0,095589 (0,0583993)
  Statystyka testu: t(94) = 1,63682, z wartością p = 0,1050

 m jest to rząd opóźnienia, estymowany rząd integracji to rząd pochodnej ułamkowej - jeżeli jest istotnie większy od 0, to występuje długoterminowa pamięć. Ponieważ p > 0,05 dla obu testów, widać, że brak tej pamięci.

Wnioski: to czego należało się spodziewać.

Następnie wygenerowałem proces Browna z wykładnikiem Hursta = 0.86 (2048 danych):



Jest to w zasadzie ten sam wykres co poprzednio, ale znacznie wygładzony, przypomina to filtrację za pomocą średniej ruchomej (w istocie jest w tym sporo prawdy). Można się więc domyślić, że będzie to miało wpływ na wygląd wykresu stóp zwrotu z tego procesu. Ich wykres jest następujący:



Dopóki wykładnik Hursta jest pomiędzy 0 a 1, stopy zwrotu tego procesu są teoretycznie stacjonarne [1]. Jednakże w rzeczywistości stopy te wykazują się silną autokorelacją i to wielu rzędów:



Powolny spadek ACF wskazuje - o dziwo - na niestacjonarność procesu. Należałoby jednak sprawdzić to rzetelniej za pomocą testów. Okazało się, że ADF odrzucił hipotezę niestacjonarności, gdyż  p = 0, ale już KPSS wskazał, że przy istotności=0.05 mamy do czynienia z procesem niestacjonarnym (Statystyka testu = 0,51 > 0,46). Testy na ułamkowy rząd integracji tym razem mówią, że pamięć długoterminowa występuje:

Estymator lokalny Whittle'a (m = 96)
  Estymowany ułamkowy rząd integracji = 0,426418 (0,051031)
  Statystyka testu: z = 8,35606, z wartością p = 0,0000

Test GPH (Geweke'a, Portera-Hudaka) (m = 96)
  Estymowany ułamkowy rząd integracji = 0,458116 (0,0581905)
  Statystyka testu: t(94) = 7,8727, z wartością p = 0,0000

[*]

Wnioski: Dla badanego procesu z H = 0.86 ADF odrzuca niestacjonarność (hipoteza zerowa to niestacjonarność), natomiast KPSS odrzuca stacjonarność (hipoteza zerowa to stacjonarność). Wyniki są sprzeczne.

Powyższa analiza unaocznia, że długozasięgowe korelacje mają pewien wpływ na ocenę stacjonarności procesu, zbliżając nas do pojęcia 'ułamkowej stacjonarności'.

Ciekawostka: Ding i Pei [2] oraz Wang [3] konstruują właśnie pojęcie ułamkowej stacjonarności, dowodząc, że:
1. każdy proces niestacjonarny można przedstawić jako sumę wielu ułamkowo stacjonarnych procesów;
2. biały szum staje się ułamkowym stacjonarnym procesem losowym po dokonaniu filtrowania fraktalnego (w Gretlu nazywa się to Filtr różnicowy ułamkowy).

Kurs papierów wartościowych jest więc sumą wielu ułamkowo stacjonarnych procesów, coś na zasadzie sumowania wielu fal o różnych skalach czasowych lub o różnych częstościach.


Literatura:

[1] BB Mandelbrot, JW Van Ness - , Fractional Brownian motions, fractional noises and applications, SIAM review, 1968
[2] J. J. Ding and S. C. Pei, Fractional Fourier Transforms and Wigner Distribution Functions for Stationary and Non-stationary Random Process, ICASSP, vol. 3, pp. 21-24, 2006
[3] Yen-Chieh Wang, Fractional Fourier Transform for Random Process Signal Analysis

[*] Dodatek:
Przypomnę, że wykładnik Hursta jest dany wzorem: H = d + 1/a. gdzie d - ułamkowy rząd integracji, a - parametr alpha rozkładu Levy'ego jako miara rozciągliwości rozkładu. Teoretycznie w tym wypadku a = 2, ponieważ wygenerowałem proces Browna, a ten zawsze jest gaussowski niezależnie od H. Ale na wszelki wypadek sprawdziłem metodą Mccullocha parametry rozkładu badanego procesu. Mcculloch pokazał, że a = 2, a więc to czego należało się spodziewać.
Jeśli chodzi o poziom H to oczywiście wynosi on 0.86. Zatem możemy obliczyć ile wynosi teoretyczny poziom d:
d = H - 1/a
d = 0.86 - 0.5 = 0.36

Porównując to z wynikami testu Whittle'a i GPH, widać, że testy zawyżyły poziom d, przy czym Whittle wskazał najbliższą prawdziwą wartość 0,426.
To zawyżenie wynika z faktu, że mamy tu do czynienia nie tylko z autokorelacją długoterminową (nieliniową), ale też autokorelacją krótkoterminową (liniową). Pewności tej nabrałem po przetestowaniu danych w programie Matrixer, który pozwala zbudować model ARFIMA. Najpierw w programie tym usunąłem wszystkie parametry do obliczenia z wyjątkiem d. Matrixer wyliczył d = 0.464, czyli bardzo zbliżoną do GPH w Gretlu. Następnie dodałem do obliczenia parametr AR(1). Matrixer wskazał, że parametr AR(1) = 0.148 oraz d = 0.366. A więc po usunięciu efektu autoregresji niemal idealnie dopasował wartość d do teoretycznej (0.36). Świadczy to oczywiście o tym, że w Gretlu metoda szukania długoterminowych zależności jest obciążona korelacjami krótkoterminowymi.

W związku z powyższym do wyliczeń d dla mWIG40 w ostatnim artykule należy podejść krytycznie. Przypominam, że uzyskana wartość d była naprawdę spora i wyniosła ponad 0.17. Teraz jednak widać, że mogła być to wartość zawyżona. I faktycznie, gdy przeprowadziłem jeszcze raz test na tych samych danych w Matrixerze, to bez AR(1) dostałem d = 0.14, a po wprowadzeniu AR(1) już d równa się ok. 0.08. Obydwa parametry (AR(1) i d) były istotne, ale wartość d jest dużo słabsza.

Teoretycznie ułamkowy ruch Browna (w sensie stóp zwrotu) jest stacjonarny dopóki -0,5 < d < 0,5 (a więc dla 0 < H < 1). Stąd badanie stacjonarności przez pryzmat ułamkowgo rzędu integracji polega po prostu na sprawdzeniu czy d < 0,5. Gretl jednak jak to wykazałem słabo sobie radzi w tej metodzie, a niestety obecnie nie ma możliwości budowania modelu ARFIMA i trzeba korzystać z innych oprogramowań.

niedziela, 2 listopada 2014

Czy oczekiwane stopy zwrotu w ogóle się zmieniają?

Pytanie, które z pewnością nie jeden inwestor zadawał, jest następujące. Jeżeli giełdowe stopy zwrotu zależą od różnych czynników ekonomicznych, takich jak cykl gospodarczy, inflacja, stopy procentowe oraz czynników psychologicznych takich jak wysokie lub niskie oczekiwania co do przyszłych zmian wyników finansowych, to w czy w takim razie są one zjawiskiem dynamicznym, nie posiadającym stałego rozkładu prawdopodobieństwa? Czy parametry rozkładu, takie jak wartość oczekiwana i wariancja (a zapewne też skośność i kurtoza) zmieniają się w czasie? Jeśli zapytamy o to dowolnego inwestora czy spekulanta, który "coś tam słyszał, czytał" albo nawet kiedyś "miał na studiach" elementy ekonometrii, to każdy bez wyjątku (obiecuję to) powie, że rozkład jest dynamiczny. Dodatkowo stwierdzi, że rozważanie stosowalności modeli ekonometrycznych na giełdzie nie ma większego sensu, bo stopy zwrotu zmieniają swoją strukturę w czasie, a modele ekonometryczne są zbyt statyczne. Dostaniemy cały wykład na temat psychologii ludzi, która wymyka się statystyce (lub że będzie ona podlegać statystyce w zbyt długim okresie czasu, by móc to praktycznie wykorzystać) i że żadne twierdzenie matematyczne (odwołując się do prawa wielkich liczb lub centralnych twierdzeń granicznych) nie jest w stanie modelować ludzkich zachowań. Taką odpowiedź dostaniemy na 100%. Dlaczego? Bo ludzie sądzą, że są niezwykli i stąd ich zachowania nie mogą być badane tak jak zjawiska przyrodnicze.

Ale każdą teorię, jeśli traktować poważnie, powinno potrafić się zweryfikować. Jak to sprawdzić? Oczywiście mamy tu do czynienia z hipotezą niestacjonarności stóp zwrotu. Powstało wiele testów na tę hipotezę, co więcej, metody są ciągle rozwijane i dyskutowane. W literaturze przedmiotu znajdujemy dwa podstawowe podejścia. Pierwsze rozwiązanie to sprawdzenie autokorelacji próbki kolejnych rzędów. Jest to po prostu korelacja pomiędzy obserwacją z bieżącego okresu a obserwacją z p-tego okresu jakiejś zmiennej. Jeśli funkcja autokorelacji dla każdego kolejnego p spada "powoli", to prawdopodobnie mamy do czynienia z niestacjonarnością [1, 2]. W ogólnym przypadku, czyli gdy rozkład nie musi być normalny, współczynnik autokorelacji Pearsona wychwytuje 2 czynniki: znaki pomiędzy kolejnymi obserwacjami oraz odległość pomiędzy kolejnymi obserwacjami. Nawet jeśli kolejne znaki są różne, to jeśli odległość pomiędzy kolejnymi danymi będzie (średnio) dodatnia, to współczynnik korelacji będzie dodatni. Np. przeanalizujmy taki wykres:

Rys. 1



Mogłoby się wydawać, że autokorelacja 1 rzędu będzie tu ujemna, ale faktycznie wynosi +0.56. Wynika to właśnie z tego, że średnio obserwacje oddalają się od siebie. Z punktu widzenia samego badania autokorelacji, jest to oczywista bzdura. W tym przypadku autokorelacja jest doskonale ujemna, czyli prawdziwy współczynnik korelacji powinien wynieść -1. Prawidłowy współczynnik autokorelacji nie powinien uwzględniać odległości pomiędzy kolejnymi obserwacjami, ale właśnie tylko znaki. O ile w korelacji między zmiennymi zależnymi odległości te mogą być przydatne (wskazując siłę zależności), o tyle w samej autokorelacji wypaczają jej sens. 

To pokazuje tylko, że współczynnik autokorelacji Pearsona jest bardzo słabym miernikiem faktycznej autokorelacji, jeśli próba nie pochodzi ze stacjonarnej zmiennej. Ale z drugiej strony, taka właściwość współczynnika korelacji pozwala właśnie ocenić czy mamy do czynienia z niestacjonarnością. Poniższy wykres przedstawia współczynniki autokorelacji dla kolejnych opóźnień procesu z rys. 1. Niebieska linia reprezentuje próg istotności statystycznej. Widać, że korelacja spada powoli, co świadczy o niestacjonarności procesu.




Przykład zygzaka jest oczywisty, bo na oko widać, że to proces niestacjonarny. Wystawmy na próbę bardziej skomplikowane procesy. Co z periodycznymi lub quasi-periodycznymi ruchami, które stają się bliższe chaosowi deterministycznemu?
Weźmy taki przykład:

Rys. 2






Nie mamy raczej wątpliwości, że jest to proces niestacjonarny. Jak w takim przypadku zachowuje się ACF (Autocorrelation Function)? Znów dostajemy wysoką autokorelację, która z każdym opóźnieniem, czyli rzędem p, spada bardzo wolno:

Rys. 3



Powyższy przykład jest całkiem niezły, bo nie ma w nim konkretnego trendu, a mimo to narzędzie w postaci ACF daje bardzo solidne dowody, że proces jest niestacjonarny. Przecież niestacjonarność może nie mieć tak prostego oblicza jak wyrazisty trend.

Niestety problem pojawia się w bardziej subtelnych danych, takich jak te z rys. 4:

Rys. 4


Miejscami wykres wydaje się wskazywać na niestacjonarność, jednak ogólnie jest to sytuacja tak rozmyta, że wszelkie dostrzegane wzory na tym wykresie można uznać  za złudzenie. Co mówi korelogram?

Rys. 5



Sytuacja jest niepewna, bo korelacja najpierw dość szybko spada, ale nagle szybko się podnosi i utrzymuje się ponad progiem istotności. Przypomina nieco przykład zygzaka, który zmieniał gwałtownie korelację, ale tutaj ACF nie daje jednoznacznej odpowiedzi. Skłania nas do poszukiwania bardziej formalnego egzaminu.

D.A. Dickey z pomocą swojego promotora W.A. Fullera, napisał w 1976 r. dysertację, w której stworzył test na niestacjonarność procesu, dziś nazywany testem Dickeya-Fullera (DF) [2]. W 1979 r. obaj napisali artykuł, w którym opublikowali rozszerzony test, tzw. Augmented Dickey-Fuller test (ADF) [3]. Różnica polega na tym, że w DF błąd statystyczny modelu jest zawsze białym szumem, a w ADF nie musi być, czyli może np. zawierać autokorelacje [1]. W 1991 r. Kwiatkowski et. al., stwierdzili, że ADF zawodzi w niektórych danych ekonomicznych, błędnie odrzucając hipotezę niestacjonarności. Skonstruowali test, znany dziś pod skrótem KPSS (Kwiatkowski, Phillips, Schmidt, Shin). odwrotny niż ADF, bo w ADF hipotezą zerową jest niestacjonarność, a w KPSS stacjonarność [4].

Testy na niestacjonarność są stosunkowo nowe, ale zarówno ADF jak i KPSS uznawane są dziś jako standard w narzędziach ekonometrii. Dostępne są np. w Gretlu. Sprawdźmy więc jak te narzędzia sobie radzą.

Model ADF dla szeregu z rys. 2:

Dostajemy takie oto statystyki ADF (wchodzimy w Zmienna -> Testy pierwiastka jednostkowego -> Test ADF):

Rozszerzony test Dickeya-Fullera dla procesu H025
dla opóźnienia rzędu 18 procesu (1-L)H025
(maksymalne było 21, kryterium zmodyfikowane AIC)
liczebność próby 1005
Hipoteza zerowa: występuje pierwiastek jednostkowy a = 1; proces I(1)

  test z wyrazem wolnym (const)
  model: (1-L)y = b0 + (a-1)*y(-1) + ... + e
  Autokorelacja reszt rzędu pierwszego: -0,001
  opóźnione różnice: F(18, 985) = 6,096 [0,0000]
  estymowana wartość (a-1) wynosi: -0,0364048
  Statystyka testu: tau_c(1) = -2,38399
  asymptotyczna wartość p = 0,1463


Bardzo ważna jest tu hipoteza zerowa, która brzmi, że występuje pierwiastek jednostkowy a = 1; proces I(1). Chociaż żeby dobrze zrozumieć, dlaczego pierwiastek jednostkowy jest tu utożsamiany z parametrem a, musielibyśmy przestudiować zagadnienia matematyczne, to dla naszych potrzeb wystarczy na razie wiedzieć, że pierwiastek jednostkowy musi być kojarzony z niestacjonarnością. 

Wartość p = 0,146 > 0,05, a więc możliwy błąd odrzucenia hipotezy zerowej wynosi 0,146. Ogólnie nie możemy odrzucić hipotezy zerowej, co oznacza, że przyjmujemy niestacjonarność badanego procesu.


Model KPSS dla szeregu z rys. 2:

Następnie dla szerszej perspektywy, robimy test KPSS (wchodzimy w Zmienna -> Testy pierwiastka jednostkowego -> Test KPSS). Dostajemy następujące statystyki:

Hipoteza zerowa: proces stacjonarny.
Test KPSS dla zmiennej H025

T = 1024
Parametr rzędu opóźnienia (lag truncation) = 7
Statystyka testu = 1,59819

                               10%      5%      1%
Krytyczna wart.: 0,348   0,462   0,743
wartość p < .01


W tym przypadku od razu Gretl nam podpowiada, że hipoteza zerowa to proces stacjonarny.
Aby znaleźć prawidłową odpowiedź, patrzymy najpierw na statystykę testu, która wynosi 1,598 i porównujemy ją z krytyczną wartością przy różnych poziomach istotności. Jeśli statystyka testu jest większa od krytycznej wartości, to odrzucamy hipotezę zerową. Standardowo głównie nas interesuje wartość krytyczna przy 5% istotności. Czyli 1,598 > 0,46, a zatem odrzucamy hipotezę zerową o stacjonarności procesu (z dużą większą pewnością niż ADF).

Zarówno ADF jak i KPSS dały tę samą odpowiedź, co oznacza, że nie mamy wątpliwości, iż szereg czasowy ma strukturę zmienną w czasie. Jednak to było dość oczywiste. Dużo bardziej interesujące będzie sprawdzenie rysunku nr 4.

Model ADF dla szeregu z rys. 4:

Rozszerzony test Dickeya-Fullera dla procesu H003
dla opóźnienia rzędu 20 procesu (1-L)H003
(maksymalne było 21, kryterium zmodyfikowane AIC)
liczebność próby 1003
Hipoteza zerowa: występuje pierwiastek jednostkowy a = 1; proces I(1)

  test z wyrazem wolnym (const)
  model: (1-L)y = b0 + (a-1)*y(-1) + ... + e
  Autokorelacja reszt rzędu pierwszego: 0,000
  opóźnione różnice: F(20, 981) = 3,350 [0,0000]
  estymowana wartość (a-1) wynosi: -0,314178
  Statystyka testu: tau_c(1) = -4,30171
  asymptotyczna wartość p = 0,0004362


ADF wskazuje jednoznacznie, że proces jest stacjonarny, bo p = 0,0004 < 0,05


Model KPSS dla szeregu z rys nr 4:

Hipoteza zerowa: proces stacjonarny.
Test KPSS dla zmiennej H003

T = 1024
Parametr rzędu opóźnienia (lag truncation) = 7
Statystyka testu = 0,430991

                                10%      5%      1%
Krytyczna wart.: 0,348   0,462   0,743
Interpolowana wartość p 0,063


Statystyka testu = 0,43 < 0,46, a więc proces jest raczej stacjonarny. Trzeba jednak natychmiast zaznaczyć, że różnica jest bardzo niewielka, p = 0.063 > 0.05 świadczy o, że moglibyśmy przyjąć niestacjonarność. KPSS jest dużo bardziej wrażliwy i przez to lepszy od ADF, bo wskazuje, że stacjonarność jest trochę umowna.

Obydwa testy skłaniają ku tej samej odpowiedzi, przez co metoda korelogramu została wzmocniona. Przykład ten dobitnie pokazuje, że lepiej posługiwać się testami statystycznymi. Gdy mamy do czynienia z tak subtelnymi danymi jak stopy zwrotu na giełdzie, powinniśmy szczególnie mieć to na uwadze.

Możemy więc w końcu sprawdzić czy faktycznie giełda ma tak zmienną strukturę jak się powszechnie sądzi. Wszystkie dane pobrane zostały ze stooq.pl.
Zacznijmy od miesięcznych stóp zwrotu S&P 500 w latach 1940-2013 (dane ze stooq.pl), 882 obserwacje. Test ADF wskazuje na p = 0, zatem hipotezę o niestacjonarności należy odrzucić. Test KPSS daje następujące statystyki:

Statystyka testu = 0,04876

                   10%      5%      1%
Krytyczna wart.: 0,348   0,462   0,743
wartość p > .10

0,049 < 0,462 , czyli proces jest stacjonarny.

Przetestujmy teraz polską giełdę. Weźmy miesięczne stopy zwrotu mWIG40od początku notowań styczeń 1998-pażdziernik 2014; 198 obserwacji. Test ADF wskazuje na stacjonarność (p = 0). KPSS również wskazuje na stacjonarność (Statystyka testu = 0,0616738 < 0,348 przy 10% istotności).

Następnie weźmy tygodniowe stopy zwrotu mWIG40 w tym samym zakresie czasu; 878 obserwacji. ADF wskazuje na stacjonarność (p = 0), KPSS też na stacjonarność (Statystyka testu = 0,0789135 < 0.348 przy 10% istotności).

To samo zróbmy dla dziennych stóp zwrotu mWIG40, ale w okresie styczeń 2001-październik 2014; 3469 danych. Zarówno ADF jak i KPSS wskazują na stacjonarność (odpowiednio p = 0 dla ADF i 0,174 < 0,46 przy 5% istotności dla KPSS).

Zatem dla każdej częstości stopy zwrotu okazują się być procesem stacjonarnym z punktu widzenia klasycznej statystyki.

Przypatrzmy się jednak dziennym stopom zwrotu mWIG40 w testowanym okresie:

Rys. 6



Występuje tu zjawisko zwane grupowaniem wariancji: po serii dużych wariancji, następuje seria małych wariancji. Proces ten jest dobrze znany od dawna i w ekonometrii został rozwiązany  przy pomocy modeli klasy ARCH. Modele te jednak w klasycznej formie są stacjonarne. Wynika to z faktu, że uwzględniają one warunkowe zmiany wariancji, tzn. takie zmiany, które następują pod wpływem zmian z przeszłości. Nawet jeśli wariancja warunkowa się zmienia, to wariancja niewarunkowa będzie w tych modelach stała.

I w tym miejscu rodzi się bardzo ważna nowa wskazówka. Okazuje się, że w rzeczywistości ADF i KPSS wcale nie wykrywają zmienności wariancji, tylko zmienność średniej. Jeśli weźmiemy taki oto przykład







to nie ma najmniejszych wątpliwości, że wariancja zmienia się w czasie, czyli proces jest niestacjonarny. Jednak średnia jest stała i wynosi 0. ADF wskazuje, że proces jest stacjonarny (p = 0), KPSS - tak samo (Statystyka testu = 0,032 < 0,46). Nie znaczy to, że wszystkie testy pierwiastka jednostkowego testują tylko średnią. Np. gdy te dane przetestowałem zmodyfikowanym testem ADF, zwanym ADF-GLS, dostałem niestacjonarność. Wtedy przyszło mi do głowy pytanie, jak w takim razie ADF-GLS oceni dzienne stopy zwrotu mWIG40 z rys. 6? Okazało się, że test kazał odrzucić hipotezę o niestacjonarnosci (p = 0,0001), a więc tak jak ADF i KPSS. Jest to mocny dowód na to, że wariancja niewarunkowa jest stała w czasie, tak jak to przewidują modele ARCH.

W ten sposób dokonałem praktycznego odkrycia, że ADF i KPSS mogą służyć do testowania stabilności średnich stóp zwrotu (przy czym KPSS wydaje się lepszy), natomiast ADF-GLS jest dobrym narzędziem do testowania stabilności wariancji niewarunkowej, czy ogólnej stacjonarności stóp zwrotu.


Powstaje jednak pytanie czy jeśli klasyczne testy na zmienność średniej w czasie stwierdzą, że nie ma tej zmienności, to czy rzeczywiście tak jest? Czy nie powinniśmy w dalszej kolejności użyć metod wykrywających chaos deterministyczny lub fraktalność? De facto chodzi nam o wykrycie ułamkowej niestacjonarności. W Gretlu razem z klasycznymi testami na niestacjonarność, znajdziemy także test na ułamkowy rząd integracji.

Mówiąc prosto, wiadomo że jeżeli proces jest niestacjonarny, jak np. cena akcji, to można doprowadzić go do stacjonarności poprzez odjęcie od ceny z t okresu ceny z t-1 okresu. Wtedy dostajemy proces zintegrowany 1 rzędu. Jednak taka transformacja może nie wystarczyć do doprowadzenia do stacjonarności, a to dlatego że cena akcji rośnie np. wykładniczo. Możliwe, że będzie konieczne ponowne zróżnicowanie, czyli ponowne wzięcie różnicy pomiędzy obserwacją (która jest różnicą cen) z t-tego okresu a obserwacją z t-1 okresu. Wtedy dostaniemy proces zintegrowany 2 rzędu. I tak można zwiększać ów rząd.
Widać, że kolejne rzędy są liczbami całkowitymi. Co jednak się stanie jeśli przyjęlibyśmy ułamkowy rząd, to znaczy, odjęlibyśmy tylko pewną część obserwacji z poprzedniego okresu? Dostaniemy wtedy proces zintegrowany ułamkowego rzędu. Skoro jednak odjęliśmy tylko pewną część procesu, to znaczy, że ta pozostała część może mieć ciągle wpływ na kolejną wartość. Np. jeśli testujemy stopy zwrotu i od stopy zwrotu z t-tego okresu odejmujemy tylko pewną część stopy zwrotu z okresu t-1. Pomiędzy stopami z różnych okresów może więc wystąpić pewna zależność. Zadaniem testu na ułamkowy rząd integracji jest znalezienie takiej zależności. Im większy ułamkowy rząd integracji, tym większa fraktalna zależność. Gdy równa się on 0, wtedy brak tej zależności i jednocześnie brak ułamkowej niestacjonarności. Okazuje się, że gdy jest większy od 0, ale mniejszy lub równy 1/2, to proces jest ułamkowo lub lokalnie stacjonarny (asymptotycznie stacjonarny) i jednocześnie posiada długą pamięć, a gdy jest większy od 1/2, staje się w pełni niestacjonarny.
W ten sposób ułamkowa autokorelacja wiąże się z ułamkową niestacjonarnością.

Gretl przeprowadza 2 testy na ułamkowy rząd integracji: Whittle'a oraz GPH (Geweke'a, Portera-Hudaka). Dla omawianych obserwacji dziennych stóp zwrotu mWIG40, dostałem następujące statystyki:

Estymator lokalny Whittle'a (m = 132)
  Estymowany ułamkowy rząd integracji = 0,171471 (0,0435194)
  Statystyka testu: z = 3,94011, z wartością p 0,0001

Test GPH (Geweke'a, Portera-Hudaka) (m = 132)
  Estymowany ułamkowy rząd integracji = 0,175429 (0,0611883)
  Statystyka testu: t(130) = 2,86704, z wartością p 0,0048

Hipoteza zerowa zakłada, że rząd integracji = 0 (czyli brak ułamkowych zależności i niestacjonarności). Jak widać w obu przypadkach p < 0,05 , czyli istnieje fraktalna zależność pomiędzy stopami zwrotu, co jednocześnie oznacza istnienie ułamkowej niestacjonarności. Powinienem także zwrócić uwagę, że dla procesu z rys. 4 ułamkowy rząd również występuje i wynosi odpowiednio dla testu Whittle'a i GPH 0,31 (p=0) i 0,27 (p=0.0029).

Warto też przypomnieć [5], że wykładnik Hursta jest ścisle zależny od ułamkowego rzędu integracji i jest dany wzorem:

H = d + 1/a

gdzie d - ułamkowy rząd integracji, a - parametr alpha rozkładu Levy'ego jako miara rozciągliwości rozkładu. Dla a = 2, dostajemy rozkład Gaussa. Estymacją Mccullocha obliczyłem, że dla testowanego szeregu dziennych stóp zwrotu mWIG40 a = 1,56. W przypadku takich skoków i zmian wariancji z rys. 6, nie można uzyskać a = 2, tj. rozkładu normalnego. W tym przypadku H = 0.17 + 1/1.56 = 0.81. Gdyby rozkład był normalny, ale z przedłużoną wariancją, wówczas H wyniósłby 0.67 (0.5 + 0.17).


Podsumowując, zmienność oczekiwanych stóp zwrotu może nie jest mitem, ale z pewnością nie jest również sprawą oczywistą. Klasyczne testy na niestacjonarność nie wykrywają tej zmienności (byłoby to chyba za proste) i tylko testy na ułamkowe autokorelacje stanowią swoisty dowód, że ma ona miejsce w postaci lokalnej niestacjonarności.


Literatura:

[1] Maddala, G.S., Introduction to Econometrics (Third Edition) , 2001,
[2] Dickey, D. A., Estimation and hypothesis testing in nonstationary time series, 1976,
[3] Dickey D.A.; Fuller W.A., Distribution of the Estimators for Autoregressive Time Series with a Unit Root, 1979,
[4] Kwiatkowski D., Phillips P.C.B, Schmidt P., Shin Y.,  Testing the null hypothesis of stationarity against the alternative of a unit root, 1991,
[5] http://gieldowyracjonalista.blogspot.com/2010/07/uamkowy-ruch-levyego-czyli-nic-nie-jest.html


P.S. Czytelnik może zauważyć dziwne nazwy testowanych przez Gretl procesów, jak H025 i H003. Nazwy te biorą się z natury wygenerowanych przez mnie procesów o różnych wykładnikach Hursta H. Pierwszy proces posiada H=0.25, drugi H=0.03. Dla rozkładu normalnego i H=0.5 dostalibyśmy proces ruchu Browna. Wynika z tego, że formalnie rzecz biorąc skomplikowany proces H=0.03 jest niestacjonarny, czyli KPSS słusznie "wahał się" w jego ocenie. Z moich obserwacji wynika, że KPSS jest dużo wrażliwszy i lepszy od ADF.

niedziela, 17 sierpnia 2014

Czy inflacja jest dobra dla akcji?

Powszechnie uważa się, że inflacja zwiększa nominalne stopy zwrotu na giełdzie. Lub inaczej: akcje są dobrym zabezpieczeniem przed inflacją. Akcjonariusze powinni być wynagradzani za inflację, która staje się częścią ceny za czas. Rozumowanie stojące za tym twierdzeniem jest proste: dla uproszczenia weźmy model Gordona,

(1) P = D1/(R - G)

gdzie P to oczekiwana cena, D1 to oczekiwana dywidenda, R - oczekiwana stopa zwrotu, G - oczekiwana długoterminowa stopa wzrostu dywidendy.

Jeśli inflacja rośnie, to nominalna dywidenda rośnie, R stanowiąca pewną stopę procentową rośnie, G także rośnie, tak że cena się nie zmienia. Ściślej, nowe nominalne wartości D', R', G' równają się odpowiednio
D1' = D1*(1+i), a ponieważ realna stopa zwrotu = R = (R' - i)/(1 + i), gdzie R' - nominalna oczekiwana stopa zwrotu, i to stopa inflacji, to R' = R*(1 + i) + i, podobnie G' = G*(1+i) + i. Czyli nowa cena równa się:

(2) P = D1'/(R' - G') =  D1*(1+i) / (R*(1 + i) + i - G*(1+i) - i) = D1*(1+i)/[(R - G)*(1 + i)] = D1/(R - G)

Z tego wynikałoby, że inflacja nie wpływa w żaden sposób na bieżącą cenę akcji. Jedyną zmianą są większe nominalne dywidendy i większe stopy zwrotu. Pomimo, że wydaje się to czysto logicznym podejściem, w rzeczywistości stoi za tym twierdzeniem 1 głęboko ukryte założenie: że inflacja nie wpływa na wartości realne. Jeżeli jednak sama inflacja miałaby dodatni lub ujemny efekt na D1, R lub G, to bieżąca wartość również by się zmieniła. Jednak czy istnieje jakikolwiek wpływ inflacji na wartości realne? Na razie pozostawiam to bez odpowiedzi.

Otóż okazuje się, że inflacja ma ujemny wpływ na stopy zwrotu z akcji. Istnieje ujemna korelacja pomiędzy inflacją a stopami zwrotu z akcji.

Fama i Shwert [1] empirycznie dowodzą, że w latach 1953-1971, rządowe obligacje USA całkowicie zabezpieczały przed inflacją, podczas gdy zwykłe akcje na NYSE były ujemnie skorelowane z inflacją - zarówno oczekiwaną, jak i nieoczekiwaną. Prowadzi ich to do wniosku, że oczekiwane stopy zwrotu z akcji były ujemnie skorelowane ze stopami zwrotu z obligacji rządowych.. Wynika z tego, że akcje były ujemnie skorelowane ze stopą procentową.

Inni autorzy także dostarczają dowodów, że inflacja jest ujemnie skorelowana z akcjami. Balduzzi [2] analizuje kwartalne dane, dzieląc je na 2 okresy: 1954-1976 i 1977-1990. Poniższa tabela wydać się może zagmatwana, ale odzwierciedla skomplikowane zależności makrogospodarcze w obydwu okresach. Przedstawia ona warunkową korelację pomiędzy stopą zwrotu z NYSE i inflacją USA. "Warunkowa" oznacza wpływ zmiany takich czynników jak: produkcja przemysłowa (q), inflacja (p), wzrost podaży pieniądza (m), 3-miesięczna stopa z obligacji rządowych (i), realne stopy zwrotu z NYSE (r).



Zmiany w inflacji (p) mają najsilniejszy wpływ na korelację pomiędzy stopą zwrotu z akcji a inflacją, gdyż bez innych czynników wynosi ona -0,85 w 1 okresie i -0,61 w 2 okresie. Korelacja ta z kolei pod warunkiem zmian stopy procentowej (i) wynosi odpowiednio -0,73 i -0,49, a więc zmiany stopy proc. także mają duże znaczenie. Widać, że zmiany w podaży pieniądza mają znaczenie, ale nie największe. Gdybyśmy chcieli obliczyć średnią korelację z tych wszystkich czynników, to otrzymalibyśmy -0,58 dla 1 okresu i -0,44 dla 2 okresu.
Warto zwrócić uwagę, że korelacja dotyczy realnej stopy zwrotu, a nie nominalnej. Jest to bardzo istotne: nominalna stopa zwrotu z samej definicji zawiera inflację, a więc dostalibyśmy częściową korelację inflacji z samą sobą.

Powstaje oczywiście pytanie co wywołuje tę ujemną zależność? Balduzzi zarysowuje hipotezę Famy, która bazuje na dwóch sugestiach. Po pierwsze wysokie stopy inflacji antycypują niskie stopy wzrostu realnej produkcji. Oczekuje się spadku popytu na realny pieniądz lub spadku stopy wzrostu tego popytu. Po drugie niskie stopy zwrotu z akcji antycypują słabą aktywność gospodarczą. Z tego powodu stopy zwrotu i inflacja poruszają się odwrotnie. Hipoteza ta jest mało przekonująca, gdyż nie wyjaśnia dlaczego inflacja miałaby wywołać spadek aktywności gospodarczej. Są oczywiście grupy ludzi, którzy tracą na inflacji, jak bezrobotni czy emeryci, być może występują inne koszty społeczne, ale wątpliwe, żeby cały rynek kapitałowy miał na tym tracić.

Jeśli miałbym szukać racjonalnego wytłumaczenia, to myślałbym w ten sposób: rosnące ceny czynników wytwórczych zostają przerzucone na ceny produktów, czyli na klienta, który z jednej strony będzie wymagał wyższej płacy, z drugiej strony, wiedząc, że to nie nastąpi od razu, będzie musiał dokonać wyboru - aby móc zaspokoić swoją konsumpcję lub dokonać inwestycji - będzie zwiększał popyt na pieniądz, czyli po prostu szukał kredytu lub też będzie szukał oszczędności, zmniejszając zakupy. Jeśli wybierze kredyt, to wzrost popytu na pieniądz wywoła wzrost jego ceny, tj. stopy procentowej. Wzrost stopy procentowej skutecznie zniechęci ludzi do kredytu i chętniej zaczną wybierać drugie rozwiązanie, czyli oszczędzanie. Spadek wydatków obniża wzrost PKB. Dopóki nie nastąpi dostosowanie płac do cen, dopóty nie nastąpi poprawa w gospodarce. Kosztem jest czas. Ponadto, gdy rzeczywiście inflacja rośnie, czyli ceny rosną coraz szybciej, to ludzie zaczną antycypować kolejne wzrosty cen w przyszłości, a więc aby się przed tym zabezpieczyć, zaczną domagać się coraz wyższych płac. Ponieważ ten wzrost płac zostaje przerzucony na kolejne podwyżki cen, powstaje samospełniająca się przepowiednia: nazywamy to spiralą płacowo-cenową. Kosztem społeczno-ekonomicznym jest więc tutaj niedoskonałość rynku, polegająca na luce czasowej w dostosowaniu się cen, ale także niepewność oczekiwań. Z tego powodu oczekiwania o realnych dochodach firm mogą spadać w średnim okresie, co przekłada się na niższe stopy zwrotu.

Oznaczałoby to jednak, że realne dywidendy są ujemnie skorelowane z inflacją. Przecież jeżeli faktyczne realne dywidendy nie zależałyby ujemnie od inflacji, to racjonalni inwestorzy nie powinni w ogóle patrzeć na inflację jak na wroga. Jednakże, jak dowodzą Vuolteenaho i Campbell [3], analizując dane S&P 500 i inflację w USA w latach 1927-2002, wysoka inflacja jest pozytywnie skorelowana z długoterminowym realnym wzrostem dywidendy - a więc zaprezentowana wyżej hipoteza nie może być w pełni prawdziwa w ramach racjonalnych oczekiwań. Autorzy ci także próbują odpowiedzieć na pytanie co wywołuje ujemną relację inflacji ze stopami zwrotu. Odwołują się oni do hipotezy Modiglianiego i Cohna, którzy twierdzą, że inwestorzy giełdowi (ale tylko ci na akcjach) podlegają iluzji pieniężnej. Inwestorzy błędnie rozumieją efekt inflacji na nominalnych dywidendach i ekstrapolują historyczne nominalne wzrosty nawet na okresy, w których inflacja się zmienia. Gdy inflacja rośnie, obligatariusze podnoszą nominalne stopy procentowe, które są użyte przez akcjonariuszy do zdyskontowania niezmienionych oczekiwań przyszłych nominalnych dywidend. Akcjonariusze błędnie dostosowują nominalną stopę G do nominalnej stopy R. Z perspektywy racjonalnego inwestora to implikuje, że stopy zwrotu są niedoszacowane gdy inflacja jest wysoka i mogą stać się przeszacowane, gdy inflacja spada. Pamiętajmy bowiem, że G stanowi jednocześnie stopę aprecjacji dywidendy i wartości akcji (zob. Wzór na stopę wzrostu wartości wewnętrznej akcji lub dywidendy).

Od siebie mogę dodać, że tak się może dziać, ponieważ inwestorzy często wolą bezpiecznie wyceniać akcje, to znaczy wiedzą, że stopę dyskontową R należy dostosować do stopy procentowej jako że odzwierciedla ona pewną średnią rynkową, natomiast stopa G dotyczy tylko konkretnej spółki, a więc nie wiadomo czy inflacja - jako ogólny wzrost cen - będzie jej towarzyszyć. W drugą stronę, jeśli inflacja spada, to może inwestorom się wydawać, że to nie dotyczy ich spółki, przez co zawyżają tempo wzrostu G.

Ale dla uproszczenia załóżmy, że inwestor wycenia akcje modelem Gordona. W modelu Vuolteenaho i Campbella zarówno R jak i G przyjmowane są jako subiektywne wartości, Rsub i Gsub, a więc model jest postaci:

D1' / Psub = Rsub - Gsub

Można zapisać ten model następująco:

D1' / Psub = Rsub - G + (G - Gsub)

W ten sposób otrzymujemy 3 części stopy dywidendy: subiektywną premię za ryzyko Rsub (gdyż premia za czas redukuje się z premią za czas w G), obiektywną nadwyżkę stopy wzrostu dywidendy G (czyli ponad premię za czas) oraz "błąd wyceny" rynku, G - Gsub.

 Ich obserwacje statystyczne potwierdzają teorię Modiglianiego i Cohna. Najpierw pokażmy niektóre ich wyniki zilustrowane na wykresie:

 
Czerwone trójkąty oznaczają stopy dywidendy S&P 500 (czyli jest to D1' / Psub). Niebieska ciągła linia to subiektywna premia za ryzyko (mierzona korelacją rang Spearmana pomiędzy wartością rynkową firm a estymowanymi betami). Czarna przerywana linia to inflacja.

Błąd wyceny rynkowej można obliczyć jako różnicę pomiędzy obiektywnym a subiektywnym oczekiwanym wzrostem dywidendy. Jeżeli hipoteza Modiglianiego-Cohna jest prawdziwa, powinniśmy uzyskać silną dodatnią korelację pomiędzy tym błędem wyceny a inflacją. Poniższa ilustracja wskazuje, że tak się istotnie dzieje.

Czerwone kółka oznaczają błąd wyceny jako komponent stopy dywidendy (G - Gsub), który można uzyskać po odjęciu (od subiektywnej stopy dywidendy, D1' / Psub) subiektywnej premii za ryzyko (Rsub) i dodaniu obiektywnej nadwyżki wzrostu dywidendy (G):

(3) G - Gsub = D1' / Psub - Rsub + G

Każdy z tych 3 elementów można estymować, dlatego że:
* D1' / Psub - to obserwowane stopy dywidendy wprost z rynku,
* Rsub - oszacowane na podstawie modelu korelacji rang Spearmana, wyżej wspomnianego,
* G - obiektywna stopa wzrostu dywidendy albo stopa aprecjacji ceny.

Niebieska linia modeluje wygładzoną inflację. Współczynnik korelacji pomiędzy tym błędem wyceny a inflacją był bardzo wysoki i wyniósł 0,88.


Literatura:
[1] E. E. Fama, G. W. Schwert, Asset Returns And Inflation, September 1977,
[2] P. Balduzzi, Stock returns, inflation, and the 'proxy hypothesis': A new look at the data, 1994
[3] J. Y. Campbell, T. Vuolteenaho, INFLATION ILLUSION AND STOCK PRICES, January 2004.


P.S. Dopisek z przyszłości  - z maja 2020: korelacja między nominalnymi stopami zwrotu WIG a stopą inflacji w Polsce w latach 1999-2019 jest lekko ujemna i wynosi -10%.

sobota, 29 marca 2014

Istota i znaczenie logarytmicznej stopy zwrotu

Logarytmiczna stopa zwrotu jest niewątpliwie użytecznym narzędziem w ekonomii. Jednak jej użyteczność polega na pośrednictwie podczas wyznaczania faktycznej stopy zwrotu. Nie jest to przecież intuicyjna miara, tak jak prosta stopa zwrotu, którą posługujemy się aby ocenić zmiany procentowe w czasie lub przestrzeni, np. pomiędzy różnymi akcjami. Z powodu tej nieintuicyjności nie jest wcale oczywiste, dlaczego definiujemy logarytmiczną stopę zwrotu jako:

(1)
gdzie r to zwykła stopa zwrotu (arytmetyczna lub geometryczna).


Aby ściśle zrozumieć ten wzór, spójrzmy na roczny WIG od początku 1995 do końca 2013 r.:

Rys. 1.
Średnioroczna arytmetyczna stopa zwrotu wynosi 15,1%. Potęgowy wykres wskazuje, że obecnie, w 2014 WIG wydawać się może niedowartościowany. Średnioroczna geometryczna stopa zwrotu wynosi 10,07%.

Arytmetyczna stopa zwrotu uwzględnia wszystkie wewnętrzne wahania, co może sztucznie zawyżać średnią stopę zwrotu. Aby zobaczyć jak bardzo, dla ćwiczenia zwiększyłem wahania indeksu w poszczególnych okresach zachowując tylko pierwszą wartość 7473,1 i ostatnią 51284,25. Dostałem rys. 2:

Rys. 2
Średnioroczna arytmetyczna stopa zwrotu nagle wynosi tu 37,9%. Podczas gdy średnioroczna geometryczna stopa zwrotu pozostała niezmienna, czyli 10,07%. Skąd wynikają tak olbrzymie różnice? Geometryczna stopa zwrotu nie uwzględnia w ogóle wartości wewnątrz przedziału czasu, tylko pierwszą wartość i ostatnią. Okazuje się, że jest ona w przybliżeniu równa arytmetycznej stopie zwrotu pomniejszonej o połowę wariancji [1]. Wzór ten jest teoretyczny, ale generalnie powinniśmy się spodziewać, że geometryczna stopa zwrotu będzie mniejsza od arytmetycznej lub jej równa.

Z kolei ze średnią arytmetyczną wiąże się problem odwrotny: często przypadkowe odchylenia, np. spowodowane dodatnią kurtozą lub zbyt małą próbą, mogą zawyżać lub zaniżać średnią. W krótkim okresie czasu stopa zwrotu może przyjmować wartości skrajne, podczas gdy zgodnie z prawem wielkich liczb w długim okresie najczęściej będzie przyjmować wartości średnie.

Można dojść do wniosku, że najwłaściwszą metodą wyznaczenia oczekiwanej stopy zwrotu jest oparcie się na regresji liniowej, która po pierwsze wyśrodkowuje poszczególne wartości na wykresie, a po drugie łączy wszystkie okresy zmian niejako w jeden wielki okres, tworząc średnią zależną od wszystkich okresów jednocześnie, przez co nie pozwala na to, aby skrajne wartości sztucznie zawyżały średnią. Powstaje jednak pytanie jak zbudować taką linię regresji?

Aby jasno i logicznie zrozumieć zależność pomiędzy regresją a oczekiwaną stopą zwrotu, najpierw bez wyjaśnienia przekształćmy wartości indeksu WIG z rys. 1 w logarytm, czyli wyciągamy logarytm naturalny z WIG:

Rys. 3.

Zauważamy, że wykres się spłaszczył, odchylenia się zmniejszyły i bardziej naturalne staje się wyznaczenie trendu liniowego.

W ogólnym przypadku tworzymy więc następujący model trendu:

LN(Pt) = a + b*t + e

gdzie Pt to cena w okresie t,
a, b - stałe parametry,
e -składnik losowy

Logarytmiczna prognozowana cena będzie wtedy modelem o postaci:


co oznacza, że:


W okresie t+1 analogicznie:


Prognozowaną stopę zwrotu możemy więc zapisać w postaci:

(2)

Wzór (1) definiował logarytmiczną stopę zwrotu. Zwykła stopa zwrotu jest więc określona wzorem:

(3)

Łącząc (2) z (3), dostajemy zależność:



Stąd widać czym w istocie jest logarytmiczna stopa zwrotu - jest to nachylenie linii trendu logarytmicznej ceny i mówi o tym, jak zmienia się przeciętnie logarytmiczna cena w okresie t (patrz Rys. 3). Ponieważ możemy szybko przekształcić logarytmiczną stopę w zwykłą stopę, to na podstawie modelu trendu jesteśmy w stanie precyzyjnie wyznaczyć oczekiwaną stopę zwrotu.

Tutaj na chwilę się zatrzymam. Sama transformacja e^b, inaczej exp(b), nie stanowi wartości oczekiwanej stopy zwrotu, ale raczej jej medianę (wartość środkową). Aby uzyskać wartość oczekiwaną, trzeba przemnożyć exp(b) przez exp(0,5 var), gdzie var to wariancja logarytmicznej stopy zwrotu (która w przypadku regresji liniowej może być interpretowana jako błąd standardowy reszt do kwadratu). Dlaczego? Powiedzmy, że nasza logarytmiczna stopa zwrotu ma rozkład normalny. Okazuje się, że wtedy zwykła stopa zwrotu ma rozkład logarytmicznie normalny, a ten charakteryzuje się powyższymi własnościami [2].

W naszym przypadku dostałem następujące parametry modelu trendu E(LN(WIG)) = a + b*t

a = 0,53, St. Error = 0,124, Sign. [0,00]
b = 0,0986, St. Error = 0,01, Sign. [0,00]

A zatem średnia stopa - mediana - dla WIG wynosi
r = exp(b) -1 = exp(0,0986) - 1 = 10,36%

Po uwzględnieniu prowizji na podstawie wzoru (1) w artykule Czy stop lossy są opłacalne? (na podstawie Stopa zwrotu po potrąceniu prowizji) będzie to przy prowizji 0,39% ok. 9,5%.

Warto mieć na uwadze różnicę pomiędzy początkowo, wydawałoby się ogromną stopą zwrotu 15,1% a końcowym efektem. Różni doradcy czy fundusze inwestycyjne manipulują liczbami, chwaląc się wysokimi arytmetycznymi stopami zwrotu, które naturalnie są zawyżone. Dopiero analiza regresji i ujęcie wszystkich kosztów prowizyjnych dostarcza solidnej i obiektywnej informacji.


Literatura:
[1] D. Mindlin, On the Relationship between arithmetic and geometric return, 2011
[2] https://en.wikipedia.org/wiki/Log-normal_distribution

Źródło danych:
stooq.pl