niedziela, 1 marca 2015

"Bezpieczna wycena akcji"

Czy bezpieczna wycena akcji to zwykły mit? I co oznacza, że jest bezpieczna? Niewątpliwie osoby związane z zarządem mają szansę najbezpieczniej wycenić akcje danej firmy, ale przecież i one muszą brać pod uwagę zmienne stochastyczne. Z kolei zwykły akcjonariusz musi uwzględnić nie tylko te zmienne, ale i ryzyko informacji podawanych z opóźnieniem. Zmienne stochastyczne zostają uwzględnione poprzez oszacowane ryzyko, natomiast opóźnienia w podawaniu informacji odzwierciedlone są w wyższej awersji do ryzyka - stąd taki akcjonariusz będzie oczekiwał wyższej stopy zwrotu niż insider, co powinno odbić się w niższej wycenie akcji. Inaczej mówiąc, inwestorzy zabezpieczają się poprzez niższą wycenę.

To twierdzenie będzie jednak tylko wtedy prawdziwe, gdy oczekiwane zyski będą skorelowane z oczekiwanymi zyskami całego rynku, szerzej z gospodarką. Aby zrozumieć dlaczego, trzeba wrócić do artykułu Rozbieżność opinii w kontekście CAPM , gdzie został przedstawiony następujący wzór na cenę ryzyka uwzględniającą rozbieżność opinii:


 gdzie lewa część równania przedstawia wzór znany z CAPM,

Ten dość skomplikowany wzór niesie 3 informacje:
- ryzyko inwestycji jest subiektywne dla każdego k-tego inwestora;
- awersja do ryzyka jest subiektywnym elementem każdego k-tego inwestora;
- cena ryzyka powstaje przez pomnożenie uśrednionej dla wszystkich inwestorów awersji do ryzyka i uśrednioneego dla wszystkich inwestorów ryzyka mierzonego kowariancją cen.

Jeżeli kowariancja pomiędzy cenami akcji będzie równa 0 (poprzez brak korelacji), wtedy nawet bardzo duża awersja do ryzyka nie zwiększy stopy zwrotu, gdyż awersja jest przemnożona przez kowariancję. Kiedy tak się dzieje? Oczywiście wtedy, gdy mamy do czynienia z zyskami monopolistycznymi, wynikającymi z przewagi rynkowej, wykorzystywania patentów, know-how.

Zmienność takich zysków będzie podwyższać wartość wewnętrzną akcji, a nie obniżać. W artykule Kiedy większa niepewność zwiększa wartość akcji? wyprowadziłem następujący wzór na wskaźnik wartość wewnętrzna akcji / wartość księgowa:

https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiBvzv5pWk69RHmh1wepnC6vVY4W3x81xDVrn_YhBWTHh6XZRkvt73C2Ru5itCFXMSXqjDc7-NyGVGNM6sTpHsflnIaSyJEQ1UDchQXy0AdUzpU1KJ0ZHyN7jrVeutfO_RiacJFSzYZ4g/s1600/MWSnap279.bmp 

gdzie:
 P(0) - wartość wewnętrzna akcji
BV(0) - wartość księgowa firmy
G - wartość oczekiwana logarytmicznej stopy wzrostu zysku firmy
σ^2 - wariancja logarytmicznej stopy wzrostu zysku firmy
r - logarytmiczna wymagana stopa zwrotu
T - czas po którym wartość wewnętrzna akcji staje się wartością księgową firmy.

Powyższy wzór zakłada, że stopa wzrostu zysku firmy ma rozkład normalny. Nawet jeśli jest to nieprawda, to przy braku wartości odstających możemy ją tym rozkładem przybliżyć.

Wzór ten dowodzi, że przy niezmienionej wymaganej stopie zwrotu (czyli braku korelacji z rynkiem) wyższe oczekiwane zyski oraz wyższa zmienność oczekiwanej stopy wzrostu zysków, czyli ich wariancja, będzie podnosić wartość akcji.

Wiadomo, że gdy firma przygotowuje się na likwidację, to wartość wewnętrzna powinna się zrównać z wartością księgową - pamiętajmy, że mówimy o bieżącej wartości księgowej, a więc takiej, której składniki aktywów są wyceniane na dziś. Nie wiemy kiedy spółka zostanie zlikwidowana i nie mamy zamiaru wróżyć z fusów. Dlatego zmienna T pozostanie zmienna. Inaczej jest w przypadku pozostałych zmiennych, które możemy oszacować.

Jeśli stworzymy warunek:

G + σ^2/ 2 - r = 0

czyli:

r = G + σ^2/ 2

to niezależnie od T zawsze P / BV będzie równe 1. Oznacza to, że warunek "bezpiecznej wyceny" jest dany przez nierówność:




 Jeśli średnia stopa zmian zysków + połowa wariancji będzie co najmniej równa wymaganej stopie zwrotu, wtedy wiemy, że P / BV powinno być co najmniej równe 1.

Załóżmy, że znajdujemy akcje, które spełniają ten warunek, tak że r jest znacznie mniejsze od prawej strony, a jednocześnie cena byłaby niższa od BV. Można byłoby przypuszczać, że akcje są niedowartościowane. Jednak najbezpieczniejsze podejście polega na tym, aby w to wątpić. A przypomnieć to sobie można choćby przez przypomnienie wzoru na cenę ryzyka z rozbieżnością opinii. Jeżeli stopa wzrostu zysku lub ich wariancja podnosi się, to trzeba mieć pewność, że ten wzrost nie jest efektem korelacji z rynkiem. Ale jak to można szybko ocenić? Wydaje się, że paradoksalnie bessa jest tu błogosławieństwem: jeżeli cały rynek znajduje się od dłuższego czasu w fazie niedźwiedzia, a zyski spółki rosną coraz bardziej, wtedy racjonalnie można założyć, że są one nieskorelowane.

Przykład: KGHM

Na dzień, w którym piszę ten artykuł akcje KGHM są wyceniane dokładnie na poziomie oficjalnego kapitału własnego.Wiadomo jednak, że 4 kwartał już minął i akcje muszą uwzględniać zysk z tego okresu. Ponieważ w KGHM nie występuje sezonowość, 4 kwartał można prognozować w oparciu o poprzednie kwartały. Prognozę tę wyznaczyłem jako średnią arytmetyczną 3 ostatnich kwartałów. Dane skonsolidowane pobrałem z portalu bankier.pl, są wyrażone w tys. zł.


Rzeczywisty kapitał własny wynosi więc BV*(1 + 0,024). Zatem akcje są wyceniane nieco poniżej BV. Ustalmy teraz średnią stopę wzrostu zysku i jej odchylenie. Historyczne zyski operacyjne i netto są przedstawione poniżej:


Zamieniłem te wartości na logarytmy, stworzyłem równanie trendu liniowego i uzyskałem następujący trend dla zysku operacyjnego:


Wykres dla zysków netto ma bardzo podobny kształt, więc nie będę go pokazywał.
Nachylenie powyższego trendu jest pewną średnią logarytmiczną stopą wzrostu zysku (Istota i znaczenie logarytmicznej stopy zwrotu). Dla zysku operacyjnego wychodzi 14,3%, dla zysku netto 16,3%. Nie można jednak nie brać pod uwagę informacji bieżących. Zarząd KGHM prognozuje wzrost EBITDA o 70% do 2020 r. w stosunku do 2014. Oznacza to tylko 9,2% rocznie (czyli logarytmicznie 8,8%). A przecież pamiętajmy, że 14,3% to stopa logarytmiczna, a więc zwykła to ponad 15%. Z pewnością dla wielu inwestorów jest to rozczarowanie. Stopa wzrostu EBIT może być jak najbardziej przybliżona przez EBITDA, natomiast zysk netto już gorzej. Jednak to właśnie zyski operacyjne najlepiej odzwierciedlają faktyczną sytuację finansową i przez to ich parametry stają się lepszymi prognostykami niż zysk netto.

Wariancja log stopy wzrostu zysku operacyjnego wyniosła w okresie 1998-2014 0,76. Tę wartość pozostawię bez zmian.

Ostatnia kwestia to koszt kapitału własnego. Zamiast obliczać od samego początku tę wartość, posłużę się już gotową analizą z artykułu: Jak CAPM wiąże się z teorią wyceny akcji? Przykład wyceny KGHM gdzie szacowałem r na poziomie ok. 0,2. Zamieniając ją na logarytmiczną stopę, dostajemy 0,182.

Jeśli podstawimy dane do wzoru:

G + σ^2/ 2 - r = 0,088 + 0,76/2 - 0,182 = 0,29

Warunek bezpiecznej wyceny zostaje spełniony. Teraz tylko pytanie czy akcje są dobrze wycenione? Wiemy, że jeśli dostaliśmy wartość dodatnią, to znaczy, że akcje powinny być nie mniejsze od wartości księgowej. W jakiej sytuacji będą równe wartości księgowej? Zauważmy, że:

P / BV = e^(0,29T) = 1,34*e^T

A więc wtedy i tylko wtedy, gdy T = 0, to P / BV = 1. Innymi słowy, inwestorzy uważają, że wartość akcji jest dziś równa wartości księgowej, ponieważ zawsze wedle tego wzoru po czasie T wartość akcji zrównuje się z wartością księgową.

Jednak wiemy, że wartość księgowa jest równa dziś oficjalnej BV razy (1+0,024) . Ponadto musimy uwzględnić fakt, że obecna wartość rynkowa akcji zawiera już dywidendę za 2014, podczas gdy wartość wewnętrzna nie zawiera jej. Na podstawie raportu http://www.bankier.pl/wiadomosc/KGHM-POLSKA-MIEDZ-SA-Polityka-Dywidend-7233376.html  wnioskujemy, że dywidenda wyniesie 1/3 jednostkowego zysku netto, a więc ok. 4 zł. W sumie więc powinniśmy uzyskać warunek:

(P - 4) / BV(1+0,024) = 1

BV=121,25, więc 121,25*1,024 = 122,3 zł.
Obecna cena akcji P = 121 zł, więc 121-4 = 117 zł.
117 / 122,3 = 0,96 < 1.

Wynika z tego, że akcje mogą być dziś minimalnie niedowartościowane. Ich wartość rynkowa powinna wynieść co najmniej 122,3+4 = 126,3 zł, a więc 126,3/121 = 1,04.

Rynek jest wstrzemięźliwy, ale trzeba stwierdzić, że dziś wycenia akcje KGHM prawidłowo, ponieważ odchylenie 4% w jedną czy w drugą stronę jest nieistotne statystycznie. Osobiście uważam, że dopiero odchylenie powyżej 10% powinno skłonić do zastanowienia się czy jakichś czynników nie uwzględniliśmy, potem dopiero nad niedowartościowaniem.

Źródło:
www.bankier.pl

niedziela, 11 stycznia 2015

Jak sprawdzić stabilność modelu ekonometrycznego w czasie?

Użycie klasycznego modelu ekonometrycznego typu AR-MA (Autoregressive–moving-average model) do progonozy zmian giełdowych może mieć sens tylko wtedy, gdy model spełni co najmniej 5 warunków. Po pierwsze prognozowane zmienne muszą być stacjonarne. Jeżeli warunek ten od razu nie jest spełniony, wtedy stosuje się ogólniejszy od ARMA model ARFIMA (Autoregressive fractionally integrated moving average). Model ten odnajduje "stopień niestacjonarności" (szeregu czasowego), który wykorzystuje do wygererowania zmiennej stacjonarnej, dla której używa już ARMA. Jeżeli pamięć długoterminowa nie występuje, wtedy ARFIMA sprowadza się do ARIMA (natomiast gdy proces jest stacjonarny, wtedy ARIMA sprowadza się do ARMA). ARFIMA może być przydatny w przypadku badania stóp zwrotu, ponieważ często okazują się one posiadać pamięć długoterminową, wywołując efekt wydłużonych ruchów w stosunku do ruchu Browna, a ten z kolei wywołuje coś w rodzaju 'ułamkowej stacjonarności'. Ten efekt jest usuwany przez ARFIMA. Jednakże w poprzednim artykule pokazałem, że efekt ten może być w rzeczywistości bardzo słaby - np. dla MWIG40 występuje istotna, ale bardzo słaba pamięć długoterminowa - stąd użycie standardowego modelu ARIMA nie będzie dla takich ruchów szczególnym błędem. W każdym razie dążymy do uzyskania stacjonarności.

Po drugie parametry modelu, jak i ogólny model muszą być istotne statystycznie.
Po trzecie model musi być stabilny - parametry modelu nie mogą się zmieniać w czasie.

Po czwarte muszą być spełnione odpowiednie warunki rozkładu prawdopodobieństwa składnika losowego. Po piąte trzeba sprawdzić liniowość / nieliniowość modelu. Ten ostatni warunek pomijam, natomiast czwarty zostanie wspomniany.

Należy rozróżniać stacjonarność i stabilność.

Stacjonarność rozumiana jest jako niezmienność rozkładu prawdopodobieństwa w czasie, a co najmniej niezmienność średniej danego procesu w czasie.

Z kolei stabilność oznacza stałość parametrów regresji. Np. jeśli mamy model AR(1):

x(t) = b*x(t-1) + e,
gdzie x(t) to np. stopa zwrotu w okresie t, zaś e to składnik losowy,

to warunkowa wartość oczekiwana zmiennej x(t) jest równa b*x(t-1). Jednakże wyznaczenie parametru b może być sztuczne, jeśli kształt regresji ulega zmianom w czasie. Dlatego musimy mieć pewność, że parametr b będzie stabilny. Powstaje pytanie jak sprawdzić czy parametry modelu pozostają stabilne w czasie? Najbardziej znane są 3 testy na stabilność modelu:
1. Test Chowa
2. Test CUSUM
3. QLR

Ad1) Test Chowa
W 1960 r. ekonomista G. Chow opracował test sprawdzający czy parametry regresji z dwóch różnych próbek są takie same. Najczęściej w ekonomii podejście to służy do testowania czy występuje punkt zwrotny w danym procesie. Cały okres dzielony jest wtedy na dwie podpróby, a moment czasowy rozdzielający je nazywamy punktem zwrotnym. To podejście jest stosowane w Gretlu.

Spróbujemy zrobić przykłady. Zanim jednak zaczniemy, dopowiedzmy, że Gretl automatycznie dzieli daną próbę na połowę, aby porównywać dwa różne okresy. Jest to podejście w miarę poprawne, jednak z praktycznego punktu widzenia lepszym rozwiązaniem wydaje się najpierw na oko oszacować czy w analizowanym okresie mają miejsce istotne zmiany kierunku. Np. możemy starać podzielić na okres hossy i bessy.
W artykule Czy oczekiwane stopy zwrotu w ogóle się zmieniają? analizowałem mWIG40 dla różnych częstości, aby sprawdzić hipotezę stacjonarności. Hipoteza ta dla wszystkich częstości została potwierdzona przez testy ADF i KPSS. Te same dane wykorzystamy teraz do sprawdzenia stabilności modelu. Zaczniemy od miesięcznych stóp zwrotu mWIG40 od początku notowań styczeń 1998-pażdziernik 2014; 198 obserwacji. Poniżej jest wykres notowań mWIG40:


Stopy zwrotu:

Ustalimy hipotetyczny punkt zwrotny w czerwcu 2007 r., gdzie miesięcznie zanotowany został szczyt historyczny. Aby dokonać testu, musimy najpierw wejść w Gretlu w Model -> Klasyczna Metoda Najmniejszych Kwadratów. Tutaj stworzymy klasyczną autoregresję. Pytanie jednak brzmi jakiego rzędu? AR(1), AR(2), a może więcej? Z pomocą przychodzi metodologia Boxa-Jenkinsa, zgodnie z którą teoretyczny model AR(p) ma funkcję autokorelacji cząstkowych (PACF) równą zeru dla opóźnień większych od p (tzn. współczynniki autokorelacji cząstkowej dla opóźnień większych niż p są nieistotne) [1].

Dotychczas nigdy nie wspomniałem o PACF, a jedynie o ACF. Czytelnik, który czytał Czy oczekiwane stopy zwrotu w ogóle się zmieniają? , zapamiętał, że zwróciłem uwagę na to, iż ACF nie pokazuje tak naprawdę autokorelacji, jeśli proces jest niestacjonarny. Jest on właśnie przydatny do naocznego oszacowania czy mamy do czynienia z procesem stacjonarnym poprzez analizę współczynników autokorelacji kolejnych rzędów. Jeżeli są one istotnie dodatnie i spadają z każdym opóźnieniem powoli, to znaczy, że prawdopodobnie mamy proces niestacjonarny (aczkolwiek w artykule Ułamkowa stacjonarność? Co to za twór? wykazałem, że metoda ta może przynieść błędne rezultaty). Z czego to wynika? ACF zawiera wewnętrzne zależności pomiędzy wartościami pośrednimi, np. autokorelacja 5 rzędu, tj. ACF(5) zawierać będzie nie tylko autokorelację pomiędzy obserwacją piątą a bieżącą, ale także autokorelacje pomiędzy obserwacjami pośrednimi, czyli np. 1, 2, 3 i 4 rzędu. Dopiero tzw. cząstkowa autokorelacja, tj. PACF, usuwa te pośrednie zależności., tak że dostaniemy poprawniejszą formę autokorelacji danego rzędu. Przy tym jednak pamiętać trzeba, że PACF jest równa ACF dla 1 rzędu, więc dla procesów niestacjonarnych również ona ma ograniczoną stosowalność. Box i Jenkins doszli do wniosku, że o ile ACF może służyć do oceny stacjonarności procesu (a przez to także determinować właściwy rząd średniej kroczącej w modelu MA), o tyle PACF może służyć za czynnik determinujący rząd w modelu AR.
Oto porównanie ACF(p) i PACF(p) dla miesięcznych zamknięć (czyli nie stóp zwrotu!) mWIG40:



Nie trzeba nawet sprawdzać autokorelacji stóp zwrotu, aby ocenić, że do modelowania AR(p) wystarczy p = 1.

W Gretlu wybierając KMNK, musimy wybrać zmienną zależną, którą jest tu stopa zwrotu. Regresorem będzie stopa zwrotu z opóźnieniem 1. Nie wstawiamy żadnej zmiennej jako regresor, bo poniżej jest opcja "opóźnienia", gdzie wybieramy opóźnienia dla zmiennej zależnej od 1 do 1. Dodatkowo zaznaczamy opcję "Odporne błędy standardowe". Głównym zadaniem regresji odpornej jest umożliwienie uzyskania oszacowań niepodatnych na obserwacje odstające [2]. Jak wiadomo KMNK, która wymaga normalności i homoskedastyczności składnika losowego, nie jest prawidłową metodą dla giełdowych zmian ze względu na występowanie w ich rozkładzie grubych ogonów (rzadkie zdarzenia, które są częstsze niż w rozkładzie normalnym), heteroskedastyczności i efektów ARCH. Pomiędzy tymi 3 cechami nie ma ścisłej zależności, istnieje jednak pewien związek. Modele ARCH można tak skonstruować, by pojawiły się w nich grube ogony [3], [4]. Niestety nie ma możliwości zrobienia testu stabilności przy modelowaniu GARCH, który jest oddzielną funkcją w Gretlu. Dlatego używamy regresji odpornej. Statystyka odpornościowa używa zamiast średniej np. mediany lub obciętej średniej.

Po wybraniu odpowiednich opcji otrzymałem nieistotną stałą i istotny parametr autoregresji 0,164.


1 gwiazdka oznacza istotność na poziomie 10%, dwie gwiazdki oznaczają istotność na poziomie 5%, 3 gwiazdki na poziomie 1%. W tym przypadku mamy 5% istotności, czyli pewności, że hipoteza o nieistotności parametru jest prawdziwa - jest to na tyle mało, że ją odrzucamy.
Oprócz sprawdzania istotności poszczególnych parametrów, należy też ocenić całościową istotność modelu, czyli de facto współczynnika determinacji R^2. Taki test wykonuje Statystyka F (test F-Snedecora). Widać, że wartość p dla testu F = 0,018692, zatem jest to znów poniżej 5%. Jednak to co jest uderzające, to niezwykle niska wartość R^2, która jest mniejsza od 0,03. Praktyczna zmienność stóp zwrotu w porównaniu do modelowanej stopy zwrotu staje się więc zbyt duża do praktycznego wykorzystania. Jednakże naszym celem nie jest ocena faktycznej przydatności AR, a jedynie zbadanie stabilności modelu. 
Wchodzimy Testy -> Test zmian strukturalnych Chowa. Oto wyniki:


Hipoteza zerowa to brak zmian strukturalnych, hipoteza alternatywna: zmiany są. Co się okazuje? Wartość p = 0,0026 < 0,05 , czyli odrzucamy hipotezę zerową. Faktycznie, model uległ zmianie. Na oko nie bylibyśmy w stanie tego ocenić patrząc tylko na stopy zwrotu.


Ad 2) Test CUSUM
W wielu sytuacjach niedogodnością testu Chowa jest to, że trzeba wskazywać w nim hipotetyczny punkt zwrotny. CUSUM (Cumulated Sum of Residuals) zwany czasami (nie do końca poprawnie) testem Harveya-Colliera) weryfikuje hipotezę o stabilności modelu bez potrzeby wskazywania punktu zwrotnego. Został on zaproponowany przez Browna, Durbina i Evansa w 1975 r. Wchodzimy w Testy -> test stabilności CUSUM. Dostajemy wyniki w formie tekstowej i graficznej.



Jeżeli wykres nie przekracza wartości progowych, czyli niebieskich linii to znaczy, że model można uznać za stabilny. Jak widać tak się nie dzieje, a więc model pozostaje stabilny. Dodatkowo CUSUM wskazał poziom p = 0,99 > 0,05, czyli brak istotności. Parametr ten jednak jest niezbyt przydatny, co się okaże później.


Zatem CUSUM dał przeciwstawne wyniki w stosunku do Chowa.

Trzeba jednak zaznaczyć, że CUSUM opiera się na założeniu, że zmiany strukturalne modelu mają charakter deterministyczny. Odmianą testu CUSUM jest CUSUMQ (Cumulated Sum of Squares Residuals), który może być bardziej niż CUSUM przydatny w sytuacji gdy zmiany struktury modelu mają charakter całkowicie przypadkowy (ze względu na to, że bierze kwadraty różnic to jest bardziej wrażliwy na progi istotności). Wybieramy Testy -> test stabilności CUSUMQ. Dostajemy wyniki w graficznej formie:







W tym przypadku również patrzymy czy wykres przecina niebieską linię. Trzeba przyznać, że wyniki są zupełnie nieoczekiwane. Test sugeruje, że parametry lekko zmieniły się w 2000 r. - to jest w czasach bessy oraz w 2009-2011 r., czyli w czasach niedawnej hossy. Rok 2007 i 2008 były dla testu całkowicie "normalne" pomimo gwałtownych wzrostów i spadków.

Ad 3) Test QLR
Jeśli nie wiemy kiedy nastąpi załamanie strukturalne modelu, ale spodziewamy się, że kiedyś nastąpi, wtedy możemy użyć testu QLR (Quandt Likelihood Ratio). Test ten powstał jako pierwszy ze wszystkich 3 testów, w pracy Quandta w 1958 i 1960 r. W przeciwieństwie do CUSUM zakłada on, że zmiany strukturalne mają charakter stochastyczny [5]. Wybieramy Testy -> test stabilności QLR. Otrzymujemy wyniki:

Bardzo niska wartość p wskazuje na załamanie strukturalne, które wystąpić miało w lipcu 2000 r. Wprawdzie test QLR działa prawidłowo wtedy, gdy daty punktów krytycznych są stosunkowo odległe od punktów daty początku i końca, lecz w tym przypadku rok 2000 nie jest zupełnie na początku, a ponadto data pokrywa się z tym co przedstawia test CUSUMQ.


Przeprowadzimy teraz krótką analizę AR(1) tygodniowych stóp zwrotu mWIG40 w okresie styczeń 2006:październik 2014. Tym razem Przetestujemy tylko CUSUM. Ogólna charakterystyka podana jest poniżej


Parametr autoregresji jest bardzo istotny (na poziomie 1%) i równa się 0,22 (tyle samo wynosi autokorelacja).
Pomimo że wartość p = 0,32 dla CUSUM, a więc wskazuje na nieistotność, to tak naprawdę nie decyduje o tym, czy model miał czy nie miał załamania. Należy spojrzeć na wykres czy nastąpiło przecięcie linii.






Tym razem wg CUSUM struktura modelu zmieniła się dosłownie od marca 2009 r., czyli od początku hossy. Ciekawe, że tym razem zmiana została uznana za deterministyczną, czyli tak jakby pewna zewnętrzna cecha wpłynęła na model. Dodatkowo spójrzmy na CUSUMQ


Test wskazuje na zmianę parametrów już w 2008 r. i niestabilność ta trwała aż do 2013 r. Dopiero od 2013 r. model się "ustabilizował". W przeciwieństwie do CUSUM, CUSUMQ dostarcza informacji o przypadkowej niestabilności modelu w okresach dla miejsc poza niebieską linią.

Powyższa analiza tygodniowych stóp zwrotu manifestuje "wewnętrzne sprzeczności" i trudności w ocenie ekonometrycznej. Stacjonarność danych, wysoka autokorelacja i istotność statystyczna parametrów stoją w sprzeczności do testów Chowa, QLR, CUSUM, CUSUMQ, które często odrzucają stabilność modelu.


Literatura:

[1] E. M. Syczewska, Wprowadzenie do modeli ARMA/ARIMA, W-wa 2011,
[2] D. Korniluk, Metody regresji odpornej, Prezentacja w ramach spotkan zespołu przygotowujacego sie do Econometric Game 2014, 2014
[3] B. O. Bradley and Murad S. Taqqu, Financial Risk and Heavy Tails, 2001
[4] D. Politis, A Heavy-Tailed Distribution for ARCH Residuals, 2004
[5] Discussion Of The Paper By Dr Brown, Professor Durbin And Mr Evans (jako dodatek do artykułu Browna, Durbina i Evansa "Techniques for Testing the Constancy of Regression Relationships over Time", 1975).