czwartek, 19 sierpnia 2010

Dlaczego przypadek udaje trend? Odchylenie standardowe kontra średnie odchylenie absolutne

Ten artykuł wydaje się zupełnie nie pasować do serii, jaką ostatnio przeprowadzam. Praktycy giełdowi mogą go zupełnie pominąć. Potrzebny mi jest jednak z trzech powodów. Po pierwsze, zostanie wykazane, że gdy ruch jest brownowski - tj. obserwacje zmiennej losowej gaussowskiej o wartości oczekiwanej = 0 są niezależne od siebie, to rzeczywiście droga, jaką "przebywa" zmienna jest proporcjonalna do pierwiastka z czasu (pokonania tej drogi). Po drugie, jak sądzę, inwestor powinien dogłębnie rozumieć skąd się biorą fałszywe trendy. To zostanie przedyskutowane w sposób ścisły. Po trzecie, w następnym odcinku opiszę modele klasy ARCH, których istotą jest wariancja, a więc dobrze jest ją rozumieć. (Chociaż w artykule nie badamy samej wariancji, ale jej pierwiastek. Jest ona pojęciem bardzo abstrakcyjnym i mało który statystyk ją pojmuje).

Co to jest ruch Browna?

Nieustanne i nieregularne ruchy makrocząsteczki zawieszonej w ośrodku ciekłym, gazowym lub stałym nazywamy ruchami Browna.

„Paradoks” ruchu Browna

Powstaje pewien pozorny paradoks związany z fizycznym ruchem Browna. Skoro ruch Browna – jako proces szumu białego - ma wartość oczekiwaną równą 0, ale wiadomo, że w takim układzie panuje równowaga termodynamiczna, która zapewnia jednorodność i izotropowość przestrzeni oraz jednorodność czasu, to wydawałoby się, że ruch w takim układzie jest w ogóle niedopuszczalny. Makrocząsteczka jest bowiem bombardowana ze wszystkich stron z ogromną częstotliwością (ok. 10^20 uderzeń na sekundę), więc nawet, jeśli zostałaby poruszona w jedną stronę, to na skutek uderzenia z drugiej strony zostałaby natychmiast zatrzymana. Właśnie takie stwierdzenie wyraził Karl Nageli w pracy z 1879 r. Marian Smoluchowski odpowiedział na ten zarzut w następujący sposób:

Jest to taki sam błąd rozumowania, jak gdyby człowiek uprawiający grę hazardową (np. rzucanie kostki) sądził, że nigdy większej straty ani też większego zysku mieć nie będzie, niż wynosi stawka na jeden rzut. Wiemy dobrze, że szczęście i nieszczęście zwykle niezupełnie się równoważą; że im dłużej gra trwa, tym większa jest przeciętna suma albo wygrana albo przegrana.

Smoluchowski przytoczył proste obliczenie ściśle potwierdzające powyższy punkt widzenia. Mianowicie, zarówno prawdopodobieństwo rzutu korzystnego jak i niekorzystnego jest równe 1/2. Zatem, prawdopodobieństwo Pn(m) otrzymania m korzystnych wyników w n próbach (a tym samym n - m niekorzystnych), lub inaczej otrzymania nadwyżki równej m – (n – m) = 2m – n korzystnych wyników nad niekorzystnymi, dane jest po prostu rozkładem Bernoulli’ego, gdyż pojedyncze rzuty są statystycznie niezależne:



Stąd wynika, że średnia wartość bezwzględnej nadwyżki v = │2m - n│ wynosi:



gdzie przykładowo n przyjęto parzyste. Dla bardzo dużych n stosując do silni wzór Stirlinga:



można sprowadzić powyższą średnią do zależności:



Czyli v jest proporcjonalne do pierwiastka kwadratowego z liczby prób n. Jest to kluczowy wynik pozwalający zrozumieć fluktuacyjny charakter ruchów Browna. Makrocząsteczka zawieszona w cieczy jest uderzana przez cząsteczki ośrodka ok. 10^20 razy w ciągu sekundy. Zatem przeciętna nadwyżka uderzeń z jednej strony nad uderzeniami z drugiej wynosi w tym czasie ok. 10^10. Nawet, jeśli pojedyncze zderzenie powoduje bardzo małe przesunięcie, całkowity efekt może być znaczny. A zatem, makrocząsteczka może się poruszyć.

Gdyby rynek znajdował się w równowadze, także popyt i podaż "uderzając" w kurs z tą samą siłą z przeciwnych stron, mogą utworzyć całkowicie losowy "trend", który "make you pent"...

Odchylenie standardowe jako droga

Liczba prób n jest tym samym co czas pokonywania drogi t (kolejna próba to kolejna jednostka czasu). Okazuje się, że całkowita droga ruchu Browna jest po pierwsze proporcjonalna do pierwiastka z t, po drugie jeśli za wartość oczekiwaną we wzorze na odchylenie standardowe zmiennej niezależnej od czasu podstawimy zero (tak jak to ma miejsce dla naszego ruchu), wówczas odchylenie standardowe jest równe pierwiastkowi z t, czyli pokonanej drodze.

Odchylenie standardowe a średnie odchylenie absolutne

Średnia wartość bezwzględnej nadwyżki v to po prostu średnie odchylenie absolutne. Jednocześnie wiadomo, że pierwiastek z n odpowiada odchyleniu standardowemu. Wynika z tego, że relację pomiędzy odchyleniem standardowym a średnim odchyleniem absolutnym można zapisać jako:



I ten właśnie wzór możemy znaleźć tutaj w Wikipedii. Średnie odchylenie absolutne stanowi ok. 0.8 odchylenia standardowego.

Wniosek? Dla zmiennych losowych niezależnych o rozkładzie Gaussa i wartości oczekiwanej równej zero średnie odchylenie absolutne wyraża średnią nadwyżkę wyników jednego kierunku ponad wyniki drugiego kierunku. Zauważmy, że ta nadwyżka rośnie wraz z czasem! Odchylenie standardowe z kolei w takim przypadku stanowi przebytą drogę zmiennej, która również rośnie w czasie. Mówi się, że rozkład Gaussa ulega rozmyciu lub dyfuzji w czasie - czas "rozszerza" parametry dzwonu. W ten oto sposób przedstawiliśmy matematyczny mechanizm powstawania dyfuzji zarówno w przyrodzie jak i w ekonomii - złudzenie trendu.


Przykład błądzenia losowego

P.S. Warto zauważyć, że do wyprowadzenia wzoru na "drogę" ruchu Browna, nie przyjęliśmy rozkładu Gaussa. Wynikałoby z tego, że cały wywód obowiązuje także dla rozkładu Levy'ego, jeśli zmienne są niezależne. Jednak sytuacja wcale nie jest oczywista, gdyż Smoluchowski do wyprowadzenia wzoru użył rozkładu Bernoulliego, którego wariancja wynosi np(1 − p), gdzie p - prawdopodobieństwo sukcesu. W przypadku r. Levy'ego, jak wiemy, wariancja jest nieokreślona, co wskazuje, że owe wyprowadzenia wcale nie muszą być poprawne. Nawiasem mówiąc, Einstein wyprowadzając wzór na drogę t^0.5 nie zwrócił uwagi na ów fakt. Dopiero jego potomkowie dowiedli, że wzór jest prawidłowy - należało dowieść, że w ośrodku brownowskim nie występują zdarzenia rzadkie, a tym samym, że wariancja jest skończona. W ogólnym przypadku dla ruchu Levy'ego droga jest proporcjonalna do t^H, gdzie H - wykładnik Hursta.

piątek, 6 sierpnia 2010

Od małej poprawki do problemu grupowania wariancji. Nieskończoność wariancji a efekt ARCH

Miałem napisać krótki komentarz o poprawce, ale myśli się rozproszyły na większą sprawę.

Do postu Jaka jest faktyczna siła persystencji na rynku kapitałowym? muszę wprowadzić poprawkę. Trochę lepiej zbadałem metody obliczania parametrów w programie Nolana. Poeksperymentowałem na błądzeniu losowym, arytmetycznym i geometrycznym ruchu Browna, dla których estymator α powinien wynieść 2. (Arytmetyczny proces ruchu Browna to zmodyfikowane błądzenie losowe, którego wartość oczekiwana rośnie liniowo w czasie, a składnik losowy jest liniową funkcją błądzenia losowego). Jeśli chodzi o błądzenie losowe, to powinniśmy jedynie brać różnice wartości procesu, natomiast w przypadku geometrycznego ruchu Browna, jedynie tempa zmian. Tempa zmian w błądzeniu losowym są gaussowskie, ale pojawiają się pewne techniczne problemy, które graficznie łatwo dostrzec:



co program odbiera oczywiście poprawnie jako nieskończoną wariancję (α < 2). Stąd pomysł, by posługiwać się arytmetycznym ruchem Browna. Jednak z nim również pojawia się ten sam problem, gdy wartości spadają poniżej zera - dzielenie przez bardzo małe liczby.

Natomiast w geometrycznym ruchu Browna różnice stają się coraz większe, a więc wariancja jest niestabilna i program uznaje, że proces także ma nieskończoną wariancję:



Tempa zmian już nie prowadzą do problemów. Ich obraz jest typowy:



Pobadałem kilkanaście razy. Stwierdziłem, że jeśli nie mamy zbyt dużej liczby danych, to najlepszej estymacji α - tj. najbliżej 2 dokonuje metoda estymatora maksymalnego prawdopodobieństwa (MEMP). Estymacja alfy mieści rzeczywiście bardzo blisko liczby 2, co oznacza, że MEMP jest niezłym predykatorem. Metoda prostego charakterystycznego estymatora parametrów (MPCEP) podaje zaniżone wyniki.

Wynika z tego, że powinienem stosować MEMP, co nieco zmieni wyniki poprzednich badań.

Chcę jeszcze na jedno zwrócić uwagę. Pomimo, że wynik wskazuje, że średnia stopa zwrotu jest stabilna (α>1), to wcale nie oznacza, źe proces jest stacjonarny. Stabilność nie jest tożsama ze stacjonarnością procesu. Program Nolana kompletnie nie radzi sobie z niestacjonarnym procesem i może wtedy na przykład wskazać, że α = 2. Jeżeli więc występuje niestacjonarność stóp zwrotu i jest ona na dodatek subtelna, to znowu się robią kłopoty. Oczywiście może być też taki kłopot: składniki procesu będą posiadać rozkład gaussowski, ale niestacjonarny. Jeżeli jednak tej niestacjonarności nie można określić w ramach jakiejś regularności, to dla nas nie ma znaczenia czy nie jest stacjonarny.

No właśnie, czy nie można - przyjrzymy sie stopom zwrotu WIG i spółek badanych ostatnio od 2001 roku:









Te wykresy wyraźnie wskazują, że akcje to nie jest ruch Browna - wariancja jest niestabilna w czasie. Widzimy, że następuje seria zwiększonej zmienności, a po niej seria zmniejszonej zmienności. Zjawisko to nazywane jest w literaturze przedmiotu grupowaniem wariancji. Czy jednak da się tutaj wyróżnić jakąś regularność? Dość niepokojąca jest zmienna wariancja PGF, która od początku 2007 r. silnie wzrosła i ostatnio znów się zmniejszyła. Niestacjonarność jest tu dobrze zaznaczona. Jeśli potraktujemy to zjawisko jako wewnętrznie wynikające z istnienia nieskończonej wariancji rozkładu stóp zwrotu - grubych ogonów, to pominiemy informację, że czasowa struktura wariancji zmieniła się. Z resztą spółek i WIG sprawa nie jest już tak prosta, ale mimo trudno uznać, że te zwiększone zmienności wynikają ze zdarzeń rzadkich. Dowodem na to jest fakt, że kolejne zmienności (odchylenia standardowe, średnie odchylenia absolutne) są ze sobą silnie skorelowane i to nie tylko co jeden okres - pamięć zmienności sięga daleko wstecz. Weźmy przykład WIG (ten sam okres):



Jeszcze po stu okresach zmienność autokoreluje. Pozioma kreska jest granicą istotności statystycznej.

W przypadku PGF autokorelacja sięga ponad 300 rzędów:



Dla porównania ruch Browna:



Dla ruchu Levy'ego powinniśmy dostać to samo. Wynika z tego, że giełdowe stopy zwrotu nie są ruchem Levy'ego. Ale musimy pamiętać, że zakładamy, że stopy zwrotu są ułamkowym ruchem Levy'ego. Ale czy to wystarcza?

Literatura opisuje grupę procesów, których istotą jest zmienność wariancji w czasie i ich autokorelacja. Są to modele klasy ARCH oparte na procesie autoregresyjnym z z warunkową heteroskedastycznością (Autoregressive Conditional Heteroscedastic process), w których wariancja składnika losowego jest objaśniana przez odpowiednio skonstruowane równanie. Heteroskedastyczność oznacza niejednorodność parametru-wariancji składnika losowego.

To co dodaje smaczku całej sprawie jest fakt, że ARCH jest procesem stacjonarnym, pomimo że wydaje się zawierać składnik niestacjonarny, jakim jest wariancja. Wariancja jest jednak sama w sobie procesem ARCH. ARCH jest procesem autoregresyjnym, a więc będzie stacjonarny, jeśli suma współczynników stojących przy zmiennych opóźnionych będzie mniejsza od 1. A więc zaskakujące jest to, że niestacjonarność procesu można badać przy pomocy procesu stacjonarnego. I na tym powinienem poprzestać: dotychczas sam twierdziłem, że stopy zwrotu dają się opisać za pomocą procesów stacjonarnych. Jednakże, możliwe, że myliłem się, bo świat ekonometrii poszedł do przodu. Niektórym autorom nie podoba się trzymanie się stacjonarności, nawet w ARCH i poszukują - uwaga - niestacjonarnych modeli ARCH. Dla zainteresowanych tematem.

Jeśli przyjmiemy, że stopy zwrotu są procesem ARCH, wtedy znowu następuje przewrót w dyskusji. Skoro wariancja istnieje, ale zmienia się w czasie, to i rozkład Gaussa istnieje, a jedynie jego parametry się zmieniają. Powracamy znów do ruchu Browna, jednak tym razem ze zmienną zmiennością. A to w kontekście poszukiwania długiej pamięci bezpośrednio prowadzi do multiułamkowego ruchu Browna. W ten oto sposób multifraktale same się proszą o analizę.

Oczywiście można spróbować dalej kombinować, łącząc całość z rozkładem Levy'ego - wiadomo bowiem, że wariancja posiada swoje uogólnienie dla rozkładów stabilnych. Z drugiej strony w takiej oto pracy: http://www.informaworld.com/smpp/content~db=all~content=a772462045 pojawia się pytanie o to czy efekt ARCH może wywoływać powstawanie grubych ogonów, tj. rozkładów stabilnych. Co więcej, w pracy: http://www.sciencedirect.com/science?_ob=ArticleURL&_udi=B6VFG-3YCDPFH-4&_user=10&_coverDate=09%2F30%2F1995&_rdoc=1&_fmt=high&_orig=search&_sort=d&_docanchor=&view=c&_acct=C000050221&_version=1&_urlVersion=0&_userid=10&md5=a4200fa4aceba13574c5a5de3c479bd5 autorzy twierdzą, że rozkłady stabilne i proces ARCH splatają się ze sobą. Mnie zastanawia czy ułamkowy ruch Levy'ego może wywołać efekt ARCH. Wiadomo, że sam ARCH nie może wywołać ułamkowego ruchu Levy'ego, bo ten pierwszy nie wiąże się bezpośrednio z pamięcią długoterminową. Tak czy inaczej kwestia jest ciągle otwarta i z pewnością wiele aspektów zostało tu nieprzetartych.

Źródło:

1. J. Brzeszczyński, R. Kelm, Ekonometryczne modele rynków finansowych, W-wa 2002
2. R. Dahlhaus, S. Subba Rao, Statistical Inference For Time-varying ARCH Processes, 2006.