niedziela, 2 listopada 2014

Czy oczekiwane stopy zwrotu w ogóle się zmieniają?

Pytanie, które z pewnością nie jeden inwestor zadawał, jest następujące. Jeżeli giełdowe stopy zwrotu zależą od różnych czynników ekonomicznych, takich jak cykl gospodarczy, inflacja, stopy procentowe oraz czynników psychologicznych takich jak wysokie lub niskie oczekiwania co do przyszłych zmian wyników finansowych, to w czy w takim razie są one zjawiskiem dynamicznym, nie posiadającym stałego rozkładu prawdopodobieństwa? Czy parametry rozkładu, takie jak wartość oczekiwana i wariancja (a zapewne też skośność i kurtoza) zmieniają się w czasie? Jeśli zapytamy o to dowolnego inwestora czy spekulanta, który "coś tam słyszał, czytał" albo nawet kiedyś "miał na studiach" elementy ekonometrii, to każdy bez wyjątku (obiecuję to) powie, że rozkład jest dynamiczny. Dodatkowo stwierdzi, że rozważanie stosowalności modeli ekonometrycznych na giełdzie nie ma większego sensu, bo stopy zwrotu zmieniają swoją strukturę w czasie, a modele ekonometryczne są zbyt statyczne. Dostaniemy cały wykład na temat psychologii ludzi, która wymyka się statystyce (lub że będzie ona podlegać statystyce w zbyt długim okresie czasu, by móc to praktycznie wykorzystać) i że żadne twierdzenie matematyczne (odwołując się do prawa wielkich liczb lub centralnych twierdzeń granicznych) nie jest w stanie modelować ludzkich zachowań. Taką odpowiedź dostaniemy na 100%. Dlaczego? Bo ludzie sądzą, że są niezwykli i stąd ich zachowania nie mogą być badane tak jak zjawiska przyrodnicze.

Ale każdą teorię, jeśli traktować poważnie, powinno potrafić się zweryfikować. Jak to sprawdzić? Oczywiście mamy tu do czynienia z hipotezą niestacjonarności stóp zwrotu. Powstało wiele testów na tę hipotezę, co więcej, metody są ciągle rozwijane i dyskutowane. W literaturze przedmiotu znajdujemy dwa podstawowe podejścia. Pierwsze rozwiązanie to sprawdzenie autokorelacji próbki kolejnych rzędów. Jest to po prostu korelacja pomiędzy obserwacją z bieżącego okresu a obserwacją z p-tego okresu jakiejś zmiennej. Jeśli funkcja autokorelacji dla każdego kolejnego p spada "powoli", to prawdopodobnie mamy do czynienia z niestacjonarnością [1, 2]. W ogólnym przypadku, czyli gdy rozkład nie musi być normalny, współczynnik autokorelacji Pearsona wychwytuje 2 czynniki: znaki pomiędzy kolejnymi obserwacjami oraz odległość pomiędzy kolejnymi obserwacjami. Nawet jeśli kolejne znaki są różne, to jeśli odległość pomiędzy kolejnymi danymi będzie (średnio) dodatnia, to współczynnik korelacji będzie dodatni. Np. przeanalizujmy taki wykres:

Rys. 1



Mogłoby się wydawać, że autokorelacja 1 rzędu będzie tu ujemna, ale faktycznie wynosi +0.56. Wynika to właśnie z tego, że średnio obserwacje oddalają się od siebie. Z punktu widzenia samego badania autokorelacji, jest to oczywista bzdura. W tym przypadku autokorelacja jest doskonale ujemna, czyli prawdziwy współczynnik korelacji powinien wynieść -1. Prawidłowy współczynnik autokorelacji nie powinien uwzględniać odległości pomiędzy kolejnymi obserwacjami, ale właśnie tylko znaki. O ile w korelacji między zmiennymi zależnymi odległości te mogą być przydatne (wskazując siłę zależności), o tyle w samej autokorelacji wypaczają jej sens. 

To pokazuje tylko, że współczynnik autokorelacji Pearsona jest bardzo słabym miernikiem faktycznej autokorelacji, jeśli próba nie pochodzi ze stacjonarnej zmiennej. Ale z drugiej strony, taka właściwość współczynnika korelacji pozwala właśnie ocenić czy mamy do czynienia z niestacjonarnością. Poniższy wykres przedstawia współczynniki autokorelacji dla kolejnych opóźnień procesu z rys. 1. Niebieska linia reprezentuje próg istotności statystycznej. Widać, że korelacja spada powoli, co świadczy o niestacjonarności procesu.




Przykład zygzaka jest oczywisty, bo na oko widać, że to proces niestacjonarny. Wystawmy na próbę bardziej skomplikowane procesy. Co z periodycznymi lub quasi-periodycznymi ruchami, które stają się bliższe chaosowi deterministycznemu?
Weźmy taki przykład:

Rys. 2






Nie mamy raczej wątpliwości, że jest to proces niestacjonarny. Jak w takim przypadku zachowuje się ACF (Autocorrelation Function)? Znów dostajemy wysoką autokorelację, która z każdym opóźnieniem, czyli rzędem p, spada bardzo wolno:

Rys. 3



Powyższy przykład jest całkiem niezły, bo nie ma w nim konkretnego trendu, a mimo to narzędzie w postaci ACF daje bardzo solidne dowody, że proces jest niestacjonarny. Przecież niestacjonarność może nie mieć tak prostego oblicza jak wyrazisty trend.

Niestety problem pojawia się w bardziej subtelnych danych, takich jak te z rys. 4:

Rys. 4


Miejscami wykres wydaje się wskazywać na niestacjonarność, jednak ogólnie jest to sytuacja tak rozmyta, że wszelkie dostrzegane wzory na tym wykresie można uznać  za złudzenie. Co mówi korelogram?

Rys. 5



Sytuacja jest niepewna, bo korelacja najpierw dość szybko spada, ale nagle szybko się podnosi i utrzymuje się ponad progiem istotności. Przypomina nieco przykład zygzaka, który zmieniał gwałtownie korelację, ale tutaj ACF nie daje jednoznacznej odpowiedzi. Skłania nas do poszukiwania bardziej formalnego egzaminu.

D.A. Dickey z pomocą swojego promotora W.A. Fullera, napisał w 1976 r. dysertację, w której stworzył test na niestacjonarność procesu, dziś nazywany testem Dickeya-Fullera (DF) [2]. W 1979 r. obaj napisali artykuł, w którym opublikowali rozszerzony test, tzw. Augmented Dickey-Fuller test (ADF) [3]. Różnica polega na tym, że w DF błąd statystyczny modelu jest zawsze białym szumem, a w ADF nie musi być, czyli może np. zawierać autokorelacje [1]. W 1991 r. Kwiatkowski et. al., stwierdzili, że ADF zawodzi w niektórych danych ekonomicznych, błędnie odrzucając hipotezę niestacjonarności. Skonstruowali test, znany dziś pod skrótem KPSS (Kwiatkowski, Phillips, Schmidt, Shin). odwrotny niż ADF, bo w ADF hipotezą zerową jest niestacjonarność, a w KPSS stacjonarność [4].

Testy na niestacjonarność są stosunkowo nowe, ale zarówno ADF jak i KPSS uznawane są dziś jako standard w narzędziach ekonometrii. Dostępne są np. w Gretlu. Sprawdźmy więc jak te narzędzia sobie radzą.

Model ADF dla szeregu z rys. 2:

Dostajemy takie oto statystyki ADF (wchodzimy w Zmienna -> Testy pierwiastka jednostkowego -> Test ADF):

Rozszerzony test Dickeya-Fullera dla procesu H025
dla opóźnienia rzędu 18 procesu (1-L)H025
(maksymalne było 21, kryterium zmodyfikowane AIC)
liczebność próby 1005
Hipoteza zerowa: występuje pierwiastek jednostkowy a = 1; proces I(1)

  test z wyrazem wolnym (const)
  model: (1-L)y = b0 + (a-1)*y(-1) + ... + e
  Autokorelacja reszt rzędu pierwszego: -0,001
  opóźnione różnice: F(18, 985) = 6,096 [0,0000]
  estymowana wartość (a-1) wynosi: -0,0364048
  Statystyka testu: tau_c(1) = -2,38399
  asymptotyczna wartość p = 0,1463


Bardzo ważna jest tu hipoteza zerowa, która brzmi, że występuje pierwiastek jednostkowy a = 1; proces I(1). Chociaż żeby dobrze zrozumieć, dlaczego pierwiastek jednostkowy jest tu utożsamiany z parametrem a, musielibyśmy przestudiować zagadnienia matematyczne, to dla naszych potrzeb wystarczy na razie wiedzieć, że pierwiastek jednostkowy musi być kojarzony z niestacjonarnością. 

Wartość p = 0,146 > 0,05, a więc możliwy błąd odrzucenia hipotezy zerowej wynosi 0,146. Ogólnie nie możemy odrzucić hipotezy zerowej, co oznacza, że przyjmujemy niestacjonarność badanego procesu.


Model KPSS dla szeregu z rys. 2:

Następnie dla szerszej perspektywy, robimy test KPSS (wchodzimy w Zmienna -> Testy pierwiastka jednostkowego -> Test KPSS). Dostajemy następujące statystyki:

Hipoteza zerowa: proces stacjonarny.
Test KPSS dla zmiennej H025

T = 1024
Parametr rzędu opóźnienia (lag truncation) = 7
Statystyka testu = 1,59819

                               10%      5%      1%
Krytyczna wart.: 0,348   0,462   0,743
wartość p < .01


W tym przypadku od razu Gretl nam podpowiada, że hipoteza zerowa to proces stacjonarny.
Aby znaleźć prawidłową odpowiedź, patrzymy najpierw na statystykę testu, która wynosi 1,598 i porównujemy ją z krytyczną wartością przy różnych poziomach istotności. Jeśli statystyka testu jest większa od krytycznej wartości, to odrzucamy hipotezę zerową. Standardowo głównie nas interesuje wartość krytyczna przy 5% istotności. Czyli 1,598 > 0,46, a zatem odrzucamy hipotezę zerową o stacjonarności procesu (z dużą większą pewnością niż ADF).

Zarówno ADF jak i KPSS dały tę samą odpowiedź, co oznacza, że nie mamy wątpliwości, iż szereg czasowy ma strukturę zmienną w czasie. Jednak to było dość oczywiste. Dużo bardziej interesujące będzie sprawdzenie rysunku nr 4.

Model ADF dla szeregu z rys. 4:

Rozszerzony test Dickeya-Fullera dla procesu H003
dla opóźnienia rzędu 20 procesu (1-L)H003
(maksymalne było 21, kryterium zmodyfikowane AIC)
liczebność próby 1003
Hipoteza zerowa: występuje pierwiastek jednostkowy a = 1; proces I(1)

  test z wyrazem wolnym (const)
  model: (1-L)y = b0 + (a-1)*y(-1) + ... + e
  Autokorelacja reszt rzędu pierwszego: 0,000
  opóźnione różnice: F(20, 981) = 3,350 [0,0000]
  estymowana wartość (a-1) wynosi: -0,314178
  Statystyka testu: tau_c(1) = -4,30171
  asymptotyczna wartość p = 0,0004362


ADF wskazuje jednoznacznie, że proces jest stacjonarny, bo p = 0,0004 < 0,05


Model KPSS dla szeregu z rys nr 4:

Hipoteza zerowa: proces stacjonarny.
Test KPSS dla zmiennej H003

T = 1024
Parametr rzędu opóźnienia (lag truncation) = 7
Statystyka testu = 0,430991

                                10%      5%      1%
Krytyczna wart.: 0,348   0,462   0,743
Interpolowana wartość p 0,063


Statystyka testu = 0,43 < 0,46, a więc proces jest raczej stacjonarny. Trzeba jednak natychmiast zaznaczyć, że różnica jest bardzo niewielka, p = 0.063 > 0.05 świadczy o, że moglibyśmy przyjąć niestacjonarność. KPSS jest dużo bardziej wrażliwy i przez to lepszy od ADF, bo wskazuje, że stacjonarność jest trochę umowna.

Obydwa testy skłaniają ku tej samej odpowiedzi, przez co metoda korelogramu została wzmocniona. Przykład ten dobitnie pokazuje, że lepiej posługiwać się testami statystycznymi. Gdy mamy do czynienia z tak subtelnymi danymi jak stopy zwrotu na giełdzie, powinniśmy szczególnie mieć to na uwadze.

Możemy więc w końcu sprawdzić czy faktycznie giełda ma tak zmienną strukturę jak się powszechnie sądzi. Wszystkie dane pobrane zostały ze stooq.pl.
Zacznijmy od miesięcznych stóp zwrotu S&P 500 w latach 1940-2013 (dane ze stooq.pl), 882 obserwacje. Test ADF wskazuje na p = 0, zatem hipotezę o niestacjonarności należy odrzucić. Test KPSS daje następujące statystyki:

Statystyka testu = 0,04876

                   10%      5%      1%
Krytyczna wart.: 0,348   0,462   0,743
wartość p > .10

0,049 < 0,462 , czyli proces jest stacjonarny.

Przetestujmy teraz polską giełdę. Weźmy miesięczne stopy zwrotu mWIG40od początku notowań styczeń 1998-pażdziernik 2014; 198 obserwacji. Test ADF wskazuje na stacjonarność (p = 0). KPSS również wskazuje na stacjonarność (Statystyka testu = 0,0616738 < 0,348 przy 10% istotności).

Następnie weźmy tygodniowe stopy zwrotu mWIG40 w tym samym zakresie czasu; 878 obserwacji. ADF wskazuje na stacjonarność (p = 0), KPSS też na stacjonarność (Statystyka testu = 0,0789135 < 0.348 przy 10% istotności).

To samo zróbmy dla dziennych stóp zwrotu mWIG40, ale w okresie styczeń 2001-październik 2014; 3469 danych. Zarówno ADF jak i KPSS wskazują na stacjonarność (odpowiednio p = 0 dla ADF i 0,174 < 0,46 przy 5% istotności dla KPSS).

Zatem dla każdej częstości stopy zwrotu okazują się być procesem stacjonarnym z punktu widzenia klasycznej statystyki.

Przypatrzmy się jednak dziennym stopom zwrotu mWIG40 w testowanym okresie:

Rys. 6



Występuje tu zjawisko zwane grupowaniem wariancji: po serii dużych wariancji, następuje seria małych wariancji. Proces ten jest dobrze znany od dawna i w ekonometrii został rozwiązany  przy pomocy modeli klasy ARCH. Modele te jednak w klasycznej formie są stacjonarne. Wynika to z faktu, że uwzględniają one warunkowe zmiany wariancji, tzn. takie zmiany, które następują pod wpływem zmian z przeszłości. Nawet jeśli wariancja warunkowa się zmienia, to wariancja niewarunkowa będzie w tych modelach stała.

I w tym miejscu rodzi się bardzo ważna nowa wskazówka. Okazuje się, że w rzeczywistości ADF i KPSS wcale nie wykrywają zmienności wariancji, tylko zmienność średniej. Jeśli weźmiemy taki oto przykład







to nie ma najmniejszych wątpliwości, że wariancja zmienia się w czasie, czyli proces jest niestacjonarny. Jednak średnia jest stała i wynosi 0. ADF wskazuje, że proces jest stacjonarny (p = 0), KPSS - tak samo (Statystyka testu = 0,032 < 0,46). Nie znaczy to, że wszystkie testy pierwiastka jednostkowego testują tylko średnią. Np. gdy te dane przetestowałem zmodyfikowanym testem ADF, zwanym ADF-GLS, dostałem niestacjonarność. Wtedy przyszło mi do głowy pytanie, jak w takim razie ADF-GLS oceni dzienne stopy zwrotu mWIG40 z rys. 6? Okazało się, że test kazał odrzucić hipotezę o niestacjonarnosci (p = 0,0001), a więc tak jak ADF i KPSS. Jest to mocny dowód na to, że wariancja niewarunkowa jest stała w czasie, tak jak to przewidują modele ARCH.

W ten sposób dokonałem praktycznego odkrycia, że ADF i KPSS mogą służyć do testowania stabilności średnich stóp zwrotu (przy czym KPSS wydaje się lepszy), natomiast ADF-GLS jest dobrym narzędziem do testowania stabilności wariancji niewarunkowej, czy ogólnej stacjonarności stóp zwrotu.


Powstaje jednak pytanie czy jeśli klasyczne testy na zmienność średniej w czasie stwierdzą, że nie ma tej zmienności, to czy rzeczywiście tak jest? Czy nie powinniśmy w dalszej kolejności użyć metod wykrywających chaos deterministyczny lub fraktalność? De facto chodzi nam o wykrycie ułamkowej niestacjonarności. W Gretlu razem z klasycznymi testami na niestacjonarność, znajdziemy także test na ułamkowy rząd integracji.

Mówiąc prosto, wiadomo że jeżeli proces jest niestacjonarny, jak np. cena akcji, to można doprowadzić go do stacjonarności poprzez odjęcie od ceny z t okresu ceny z t-1 okresu. Wtedy dostajemy proces zintegrowany 1 rzędu. Jednak taka transformacja może nie wystarczyć do doprowadzenia do stacjonarności, a to dlatego że cena akcji rośnie np. wykładniczo. Możliwe, że będzie konieczne ponowne zróżnicowanie, czyli ponowne wzięcie różnicy pomiędzy obserwacją (która jest różnicą cen) z t-tego okresu a obserwacją z t-1 okresu. Wtedy dostaniemy proces zintegrowany 2 rzędu. I tak można zwiększać ów rząd.
Widać, że kolejne rzędy są liczbami całkowitymi. Co jednak się stanie jeśli przyjęlibyśmy ułamkowy rząd, to znaczy, odjęlibyśmy tylko pewną część obserwacji z poprzedniego okresu? Dostaniemy wtedy proces zintegrowany ułamkowego rzędu. Skoro jednak odjęliśmy tylko pewną część procesu, to znaczy, że ta pozostała część może mieć ciągle wpływ na kolejną wartość. Np. jeśli testujemy stopy zwrotu i od stopy zwrotu z t-tego okresu odejmujemy tylko pewną część stopy zwrotu z okresu t-1. Pomiędzy stopami z różnych okresów może więc wystąpić pewna zależność. Zadaniem testu na ułamkowy rząd integracji jest znalezienie takiej zależności. Im większy ułamkowy rząd integracji, tym większa fraktalna zależność. Gdy równa się on 0, wtedy brak tej zależności i jednocześnie brak ułamkowej niestacjonarności. Okazuje się, że gdy jest większy od 0, ale mniejszy lub równy 1/2, to proces jest ułamkowo lub lokalnie stacjonarny (asymptotycznie stacjonarny) i jednocześnie posiada długą pamięć, a gdy jest większy od 1/2, staje się w pełni niestacjonarny.
W ten sposób ułamkowa autokorelacja wiąże się z ułamkową niestacjonarnością.

Gretl przeprowadza 2 testy na ułamkowy rząd integracji: Whittle'a oraz GPH (Geweke'a, Portera-Hudaka). Dla omawianych obserwacji dziennych stóp zwrotu mWIG40, dostałem następujące statystyki:

Estymator lokalny Whittle'a (m = 132)
  Estymowany ułamkowy rząd integracji = 0,171471 (0,0435194)
  Statystyka testu: z = 3,94011, z wartością p 0,0001

Test GPH (Geweke'a, Portera-Hudaka) (m = 132)
  Estymowany ułamkowy rząd integracji = 0,175429 (0,0611883)
  Statystyka testu: t(130) = 2,86704, z wartością p 0,0048

Hipoteza zerowa zakłada, że rząd integracji = 0 (czyli brak ułamkowych zależności i niestacjonarności). Jak widać w obu przypadkach p < 0,05 , czyli istnieje fraktalna zależność pomiędzy stopami zwrotu, co jednocześnie oznacza istnienie ułamkowej niestacjonarności. Powinienem także zwrócić uwagę, że dla procesu z rys. 4 ułamkowy rząd również występuje i wynosi odpowiednio dla testu Whittle'a i GPH 0,31 (p=0) i 0,27 (p=0.0029).

Warto też przypomnieć [5], że wykładnik Hursta jest ścisle zależny od ułamkowego rzędu integracji i jest dany wzorem:

H = d + 1/a

gdzie d - ułamkowy rząd integracji, a - parametr alpha rozkładu Levy'ego jako miara rozciągliwości rozkładu. Dla a = 2, dostajemy rozkład Gaussa. Estymacją Mccullocha obliczyłem, że dla testowanego szeregu dziennych stóp zwrotu mWIG40 a = 1,56. W przypadku takich skoków i zmian wariancji z rys. 6, nie można uzyskać a = 2, tj. rozkładu normalnego. W tym przypadku H = 0.17 + 1/1.56 = 0.81. Gdyby rozkład był normalny, ale z przedłużoną wariancją, wówczas H wyniósłby 0.67 (0.5 + 0.17).


Podsumowując, zmienność oczekiwanych stóp zwrotu może nie jest mitem, ale z pewnością nie jest również sprawą oczywistą. Klasyczne testy na niestacjonarność nie wykrywają tej zmienności (byłoby to chyba za proste) i tylko testy na ułamkowe autokorelacje stanowią swoisty dowód, że ma ona miejsce w postaci lokalnej niestacjonarności.


Literatura:

[1] Maddala, G.S., Introduction to Econometrics (Third Edition) , 2001,
[2] Dickey, D. A., Estimation and hypothesis testing in nonstationary time series, 1976,
[3] Dickey D.A.; Fuller W.A., Distribution of the Estimators for Autoregressive Time Series with a Unit Root, 1979,
[4] Kwiatkowski D., Phillips P.C.B, Schmidt P., Shin Y.,  Testing the null hypothesis of stationarity against the alternative of a unit root, 1991,
[5] http://gieldowyracjonalista.blogspot.com/2010/07/uamkowy-ruch-levyego-czyli-nic-nie-jest.html


P.S. Czytelnik może zauważyć dziwne nazwy testowanych przez Gretl procesów, jak H025 i H003. Nazwy te biorą się z natury wygenerowanych przez mnie procesów o różnych wykładnikach Hursta H. Pierwszy proces posiada H=0.25, drugi H=0.03. Dla rozkładu normalnego i H=0.5 dostalibyśmy proces ruchu Browna. Wynika z tego, że formalnie rzecz biorąc skomplikowany proces H=0.03 jest niestacjonarny, czyli KPSS słusznie "wahał się" w jego ocenie. Z moich obserwacji wynika, że KPSS jest dużo wrażliwszy i lepszy od ADF.

niedziela, 17 sierpnia 2014

Czy inflacja jest dobra dla akcji?

Powszechnie uważa się, że inflacja zwiększa nominalne stopy zwrotu na giełdzie. Lub inaczej: akcje są dobrym zabezpieczeniem przed inflacją. Akcjonariusze powinni być wynagradzani za inflację, która staje się częścią ceny za czas. Rozumowanie stojące za tym twierdzeniem jest proste: dla uproszczenia weźmy model Gordona,

(1) P = D1/(R - G)

gdzie P to oczekiwana cena, D1 to oczekiwana dywidenda, R - oczekiwana stopa zwrotu, G - oczekiwana długoterminowa stopa wzrostu dywidendy.

Jeśli inflacja rośnie, to nominalna dywidenda rośnie, R stanowiąca pewną stopę procentową rośnie, G także rośnie, tak że cena się nie zmienia. Ściślej, nowe nominalne wartości D', R', G' równają się odpowiednio
D1' = D1*(1+i), a ponieważ realna stopa zwrotu = R = (R' - i)/(1 + i), gdzie R' - nominalna oczekiwana stopa zwrotu, i to stopa inflacji, to R' = R*(1 + i) + i, podobnie G' = G*(1+i) + i. Czyli nowa cena równa się:

(2) P = D1'/(R' - G') =  D1*(1+i) / (R*(1 + i) + i - G*(1+i) - i) = D1*(1+i)/[(R - G)*(1 + i)] = D1/(R - G)

Z tego wynikałoby, że inflacja nie wpływa w żaden sposób na bieżącą cenę akcji. Jedyną zmianą są większe nominalne dywidendy i większe stopy zwrotu. Pomimo, że wydaje się to czysto logicznym podejściem, w rzeczywistości stoi za tym twierdzeniem 1 głęboko ukryte założenie: że inflacja nie wpływa na wartości realne. Jeżeli jednak sama inflacja miałaby dodatni lub ujemny efekt na D1, R lub G, to bieżąca wartość również by się zmieniła. Jednak czy istnieje jakikolwiek wpływ inflacji na wartości realne? Na razie pozostawiam to bez odpowiedzi.

Otóż okazuje się, że inflacja ma ujemny wpływ na stopy zwrotu z akcji. Istnieje ujemna korelacja pomiędzy inflacją a stopami zwrotu z akcji.

Fama i Shwert [1] empirycznie dowodzą, że w latach 1953-1971, rządowe obligacje USA całkowicie zabezpieczały przed inflacją, podczas gdy zwykłe akcje na NYSE były ujemnie skorelowane z inflacją - zarówno oczekiwaną, jak i nieoczekiwaną. Prowadzi ich to do wniosku, że oczekiwane stopy zwrotu z akcji były ujemnie skorelowane ze stopami zwrotu z obligacji rządowych.. Wynika z tego, że akcje były ujemnie skorelowane ze stopą procentową.

Inni autorzy także dostarczają dowodów, że inflacja jest ujemnie skorelowana z akcjami. Balduzzi [2] analizuje kwartalne dane, dzieląc je na 2 okresy: 1954-1976 i 1977-1990. Poniższa tabela wydać się może zagmatwana, ale odzwierciedla skomplikowane zależności makrogospodarcze w obydwu okresach. Przedstawia ona warunkową korelację pomiędzy stopą zwrotu z NYSE i inflacją USA. "Warunkowa" oznacza wpływ zmiany takich czynników jak: produkcja przemysłowa (q), inflacja (p), wzrost podaży pieniądza (m), 3-miesięczna stopa z obligacji rządowych (i), realne stopy zwrotu z NYSE (r).



Zmiany w inflacji (p) mają najsilniejszy wpływ na korelację pomiędzy stopą zwrotu z akcji a inflacją, gdyż bez innych czynników wynosi ona -0,85 w 1 okresie i -0,61 w 2 okresie. Korelacja ta z kolei pod warunkiem zmian stopy procentowej (i) wynosi odpowiednio -0,73 i -0,49, a więc zmiany stopy proc. także mają duże znaczenie. Widać, że zmiany w podaży pieniądza mają znaczenie, ale nie największe. Gdybyśmy chcieli obliczyć średnią korelację z tych wszystkich czynników, to otrzymalibyśmy -0,58 dla 1 okresu i -0,44 dla 2 okresu.
Warto zwrócić uwagę, że korelacja dotyczy realnej stopy zwrotu, a nie nominalnej. Jest to bardzo istotne: nominalna stopa zwrotu z samej definicji zawiera inflację, a więc dostalibyśmy częściową korelację inflacji z samą sobą.

Powstaje oczywiście pytanie co wywołuje tę ujemną zależność? Balduzzi zarysowuje hipotezę Famy, która bazuje na dwóch sugestiach. Po pierwsze wysokie stopy inflacji antycypują niskie stopy wzrostu realnej produkcji. Oczekuje się spadku popytu na realny pieniądz lub spadku stopy wzrostu tego popytu. Po drugie niskie stopy zwrotu z akcji antycypują słabą aktywność gospodarczą. Z tego powodu stopy zwrotu i inflacja poruszają się odwrotnie. Hipoteza ta jest mało przekonująca, gdyż nie wyjaśnia dlaczego inflacja miałaby wywołać spadek aktywności gospodarczej. Są oczywiście grupy ludzi, którzy tracą na inflacji, jak bezrobotni czy emeryci, być może występują inne koszty społeczne, ale wątpliwe, żeby cały rynek kapitałowy miał na tym tracić.

Jeśli miałbym szukać racjonalnego wytłumaczenia, to myślałbym w ten sposób: rosnące ceny czynników wytwórczych zostają przerzucone na ceny produktów, czyli na klienta, który z jednej strony będzie wymagał wyższej płacy, z drugiej strony, wiedząc, że to nie nastąpi od razu, będzie musiał dokonać wyboru - aby móc zaspokoić swoją konsumpcję lub dokonać inwestycji - będzie zwiększał popyt na pieniądz, czyli po prostu szukał kredytu lub też będzie szukał oszczędności, zmniejszając zakupy. Jeśli wybierze kredyt, to wzrost popytu na pieniądz wywoła wzrost jego ceny, tj. stopy procentowej. Wzrost stopy procentowej skutecznie zniechęci ludzi do kredytu i chętniej zaczną wybierać drugie rozwiązanie, czyli oszczędzanie. Spadek wydatków obniża wzrost PKB. Dopóki nie nastąpi dostosowanie płac do cen, dopóty nie nastąpi poprawa w gospodarce. Kosztem jest czas. Ponadto, gdy rzeczywiście inflacja rośnie, czyli ceny rosną coraz szybciej, to ludzie zaczną antycypować kolejne wzrosty cen w przyszłości, a więc aby się przed tym zabezpieczyć, zaczną domagać się coraz wyższych płac. Ponieważ ten wzrost płac zostaje przerzucony na kolejne podwyżki cen, powstaje samospełniająca się przepowiednia: nazywamy to spiralą płacowo-cenową. Kosztem społeczno-ekonomicznym jest więc tutaj niedoskonałość rynku, polegająca na luce czasowej w dostosowaniu się cen, ale także niepewność oczekiwań. Z tego powodu oczekiwania o realnych dochodach firm mogą spadać w średnim okresie, co przekłada się na niższe stopy zwrotu.

Oznaczałoby to jednak, że realne dywidendy są ujemnie skorelowane z inflacją. Przecież jeżeli faktyczne realne dywidendy nie zależałyby ujemnie od inflacji, to racjonalni inwestorzy nie powinni w ogóle patrzeć na inflację jak na wroga. Jednakże, jak dowodzą Vuolteenaho i Campbell [3], analizując dane S&P 500 i inflację w USA w latach 1927-2002, wysoka inflacja jest pozytywnie skorelowana z długoterminowym realnym wzrostem dywidendy - a więc zaprezentowana wyżej hipoteza nie może być w pełni prawdziwa w ramach racjonalnych oczekiwań. Autorzy ci także próbują odpowiedzieć na pytanie co wywołuje ujemną relację inflacji ze stopami zwrotu. Odwołują się oni do hipotezy Modiglianiego i Cohna, którzy twierdzą, że inwestorzy giełdowi (ale tylko ci na akcjach) podlegają iluzji pieniężnej. Inwestorzy błędnie rozumieją efekt inflacji na nominalnych dywidendach i ekstrapolują historyczne nominalne wzrosty nawet na okresy, w których inflacja się zmienia. Gdy inflacja rośnie, obligatariusze podnoszą nominalne stopy procentowe, które są użyte przez akcjonariuszy do zdyskontowania niezmienionych oczekiwań przyszłych nominalnych dywidend. Akcjonariusze błędnie dostosowują nominalną stopę G do nominalnej stopy R. Z perspektywy racjonalnego inwestora to implikuje, że stopy zwrotu są niedoszacowane gdy inflacja jest wysoka i mogą stać się przeszacowane, gdy inflacja spada. Pamiętajmy bowiem, że G stanowi jednocześnie stopę aprecjacji dywidendy i wartości akcji (zob. Wzór na stopę wzrostu wartości wewnętrznej akcji lub dywidendy).

Od siebie mogę dodać, że tak się może dziać, ponieważ inwestorzy często wolą bezpiecznie wyceniać akcje, to znaczy wiedzą, że stopę dyskontową R należy dostosować do stopy procentowej jako że odzwierciedla ona pewną średnią rynkową, natomiast stopa G dotyczy tylko konkretnej spółki, a więc nie wiadomo czy inflacja - jako ogólny wzrost cen - będzie jej towarzyszyć. W drugą stronę, jeśli inflacja spada, to może inwestorom się wydawać, że to nie dotyczy ich spółki, przez co zawyżają tempo wzrostu G.

Ale dla uproszczenia załóżmy, że inwestor wycenia akcje modelem Gordona. W modelu Vuolteenaho i Campbella zarówno R jak i G przyjmowane są jako subiektywne wartości, Rsub i Gsub, a więc model jest postaci:

D1' / Psub = Rsub - Gsub

Można zapisać ten model następująco:

D1' / Psub = Rsub - G + (G - Gsub)

W ten sposób otrzymujemy 3 części stopy dywidendy: subiektywną premię za ryzyko Rsub (gdyż premia za czas redukuje się z premią za czas w G), obiektywną nadwyżkę stopy wzrostu dywidendy G (czyli ponad premię za czas) oraz "błąd wyceny" rynku, G - Gsub.

 Ich obserwacje statystyczne potwierdzają teorię Modiglianiego i Cohna. Najpierw pokażmy niektóre ich wyniki zilustrowane na wykresie:

 
Czerwone trójkąty oznaczają stopy dywidendy S&P 500 (czyli jest to D1' / Psub). Niebieska ciągła linia to subiektywna premia za ryzyko (mierzona korelacją rang Spearmana pomiędzy wartością rynkową firm a estymowanymi betami). Czarna przerywana linia to inflacja.

Błąd wyceny rynkowej można obliczyć jako różnicę pomiędzy obiektywnym a subiektywnym oczekiwanym wzrostem dywidendy. Jeżeli hipoteza Modiglianiego-Cohna jest prawdziwa, powinniśmy uzyskać silną dodatnią korelację pomiędzy tym błędem wyceny a inflacją. Poniższa ilustracja wskazuje, że tak się istotnie dzieje.

Czerwone kółka oznaczają błąd wyceny jako komponent stopy dywidendy (G - Gsub), który można uzyskać po odjęciu (od subiektywnej stopy dywidendy, D1' / Psub) subiektywnej premii za ryzyko (Rsub) i dodaniu obiektywnej nadwyżki wzrostu dywidendy (G):

(3) G - Gsub = D1' / Psub - Rsub + G

Każdy z tych 3 elementów można estymować, dlatego że:
* D1' / Psub - to obserwowane stopy dywidendy wprost z rynku,
* Rsub - oszacowane na podstawie modelu korelacji rang Spearmana, wyżej wspomnianego,
* G - obiektywna stopa wzrostu dywidendy albo stopa aprecjacji ceny.

Niebieska linia modeluje wygładzoną inflację. Współczynnik korelacji pomiędzy tym błędem wyceny a inflacją był bardzo wysoki i wyniósł 0,88.


Literatura:
[1] E. E. Fama, G. W. Schwert, Asset Returns And Inflation, September 1977,
[2] P. Balduzzi, Stock returns, inflation, and the 'proxy hypothesis': A new look at the data, 1994
[3] J. Y. Campbell, T. Vuolteenaho, INFLATION ILLUSION AND STOCK PRICES, January 2004.


P.S. Dopisek z przyszłości  - z maja 2020: korelacja między nominalnymi stopami zwrotu WIG a stopą inflacji w Polsce w latach 1999-2019 jest lekko ujemna i wynosi -10%.