Pokazywanie postów oznaczonych etykietą teoria chaosu. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą teoria chaosu. Pokaż wszystkie posty

czwartek, 7 października 2010

Nierównowagowa termodynamika: od alternatywnej hipotezy ewolucji do "teorii" rynku kapitałowego

1. Wprowadzenie
Przedstawiam teorię nierównowagowej termodynamiki na podstawie artykułu Stephanie Pierce "Non-Equilibrium Thermodynamics: An Alternate Evolutionary Hypothesis". W poprzedniej notce widzieliśmy jak dochodzi do powstania ruchu chaotycznego cząsteczek cieczy. Chaos wiązał się z powstaniem nierównowagi termodynamicznej, a tym samym brakiem maksymalnej entropii. Entropię można rozumieć jako stopień nieuporządkowania. (Jednakże nie jest zbyt dobra definicja dla nowych stanów nierównowagowych - o tym za chwilę). Wobec tego, w takim stanie chaotycznym zaczął automatycznie pojawiać się mniejszy nieporządek. Teraz ciecz rozszerzymy na bardziej złożone układy - wyjaśnimy powstawanie gatunków organizmów biologicznych. Dodatkowo wskażemy w jaki sposób dochodzi do załamywania się porządku ich powstawania, czyli właśnie ewolucji (powstania nowego gatunku) lub wymarcia gatunku. Na koniec powiążemy przedstawioną teorię z rynkiem.

Jakiś czas temu przedstawiłem tutaj argumenty za tym, że teoria doboru naturalnego nie może być pełną teorią wyjaśniającą powstawanie gatunków. Pokazałem wówczas, że ta sama zasada obowiązuje na rynku: teoria rynku efektywnego nie może być pełną teorią wyjaśniającą powstawanie fluktuacji cen akcji.

Obecnie spojrzymy krytycznie na teorię Darwina pod innym kątem. Otóż teoria ta nie wyjaśnia po pierwsze nieodwracalności ewolucji, po drugie złożoności i ujawniania się samoorganizacji systemów biologicznych.

2. Entropia struktur dyssypatywnych

Dlaczego biologiczne organizmy zdolne są do samoorganizacji i utrzymania życia daleko od równowagi termodynamicznej? Odpowiedź znajduje się w 'dyssypatywnych strukturach'. Dyssypatywne struktury są to otwarte systemy, które potrzebują nieprzerwanie dostarczania wolnej energii ze środowiska w celu utrzymania zdolności do pracy. Dyssypatywną strukturą była woda podgrzewana z zewnątrz, jak to ilustrowano w poprzedniej notce. I teraz pytanie. Czy entropia takiej struktury maleje? Wiemy, że druga zasada termodynamiki, zgodnie z którą entropia nie maleje, odnosi się do układów izolowanych. Układ izolowany to oczywiście pojęcie względne. Jeśli więc potraktować wodę i jej podgrzewacz jako układ izolowany, wtedy entropia całego układu rośnie (podgrzewacz może być na baterię). Taki układ będzie funkcjonował przez jakiś czas w stanie "zorganizowanym". Ale skoro chodzi tylko o baterię, to możemy abstrakcyjnie powiedzieć, że sam ruch cząsteczek cieczy jest na baterię i potraktować naczynie w którym ona się znajduje jako układ izolowany. Tak więc entropia będzie rosła.

W takim przypadku rozumienie entropii jako stopnia nieuporządkowania może być mylące. Entropia będzie rosła, a uporządkowanie ruchu cząsteczek również. Dopiero, jak to było pokazane, odpowiednio duża dawka energii doprowadzi do "przegrzania", nastąpi powrót do struktury izotropowej. Dlatego też powinniśmy raczej sięgnąć do ogólniejszej teorii informacji, zgodnie z którą entropia jest miarą "gęstości" informacji. Im więcej informacji w danym zbiorze, tym więcej jest możliwych zdarzeń do wystąpienia, a więc prawdopodobieństwo każdego zdarzenia maleje. Z tego punktu widzenia entropia jest także miarą niepewności i w tym sensie wiąże się z teorią kinetyczną.

Dlatego też organizmy biologiczne są nadal kontrolowane przez drugą zasadę termodynamiki - ich entropia wzrasta i kierują się ku niszczącej równowadze. Jednakże w przeciwieństwie do prostych systemów fizyczno-chemicznych systemy biologiczne zatrzymują 'informacje', co pozwala im się samoreplikować oraz zwiększać złożoność i organizację w czasie.

3. Ograniczenia informacyjne

Wszystkie organizmy biologiczne zawierają informacje w formie DNA (z wyjątkiem wirusów, które zawierają RNA). Biologiczne informacje mogą zostać wyrażone w terminie entropicznego zjawiska: im więcej informacji zawiera system, tym większa entropia systemu (system jest bardziej złożony). Ale skoro biologiczna ewolucja zwiększa złożoność (dzięki przechowywaniu informacji i właśnie II zasadzie termodynamiki), to w jaki sposób system pozostaje zorganizowany?

Sekret biologicznych organizmów leży w informacyjnych ograniczeniach. Biologiczne systemy są ograniczone przez:

1. historię
2. rozwój
3. środowisko

Tak jak to ilustruje poniższy rysunek:



Na chwilę się tu zatrzymam. Te ograniczenia powinny dawać nam inwestorom pewne znaki. Otóż wszystkie trzy ograniczenia wiążą się z pamięcią długoterminową i nieliniową korelacją. Weźmy np. historię. To co się zdarzyło wcześniej będzie silnie oddziaływać przez długi okres. Nieliniowa korelacja, ponieważ wrażliwość na warunki początkowe nie będzie miała liniowego wpływu. Natura wykorzystuje taką korelację, ponieważ nie musi wydatkować dużej energii: wystarczy mały bodziec na początku, by wpływ się kumulował w czasie. Reszta czynników jest niezwiązana z czasem tylko przestrzenią - tutaj pamięć jest trudniejsza do zrozumienia, gdyż w naszym ludzkim pojęciu pamięć bezpośrednio wiąże się z czasem.

Najważniejszym elementem z tych trzech jest historia. Jeżeli system biologiczny nie jest wrażliwy na przeszłość, wówczas entropia wzrasta do maksimum, system umiera w równowadze.

Kolejnym ważnym ograniczeniem jest rozwój, który jest kontrolowany przez historię. Chodzi tu w szczególności o podział komórkowy. Podział ten nie może być zbyt silny, aby nie doszło do "przegrzania" (ilości informacji), czyli do maksymalnej entropii. Popatrzmy na następujący rysunek. H oznacza tutaj entropię (a nie wykładnik Hursta). H(obs) to obserwowana entropia dla systemu biologicznego. H(max) to maksymalna entropia korespondująca z równowagą. Organizacja się zwiększa, w końcu staje się zbyt duża, by utrzymać system.



Nasuwa mi się pytanie czy nie powinniśmy tego przykładu odnieść do życia firm: czy jeśli firma się zbytnio decentralizuje lub po prostu za szybko rozrasta, może dojść do jej upadku?

Trzecim ograniczeniem jest środowisko. Dotyczy ono naturalnej selekcji. Jeśli naturalna selekcja nie bierze udziału w biologicznej ewolucji, wówczas możemy się spodziewać, że wszystkie genotypy w populacji będą równie prawdopodobne i będziemy obserwować wzrost nowości ewolucyjnych. To równe prawdopodobieństwo jest oczywiście silnie związane ze wzrostem entropii. Druga zasada termodynamiki właśnie wynika z rachunku prawdopodobieństwa (bardziej prawdopodobne są stany nieuporządkowane, ponieważ zwyczajnie jest ich więcej). Poniższy rysunek również obrazuje dochodzenie do maksymalnej entropii przy dużej dywersyfikacji genotypów.



Nasuwa mi się także tutaj pytanie: czy nie jest to swoisty dowód, że zbyt duża dywersyfikacja akcji w portfelu prowadzi do znacznego pogorszenia zarządzania nim?

4. Podział lub wymarcie

Wyjaśniliśmy ogólnikowo w jaki sposób organizm pozostaje w stanie zorganizowanym jednak nie powiedzieliśmy dlaczego następuje podział gatunkowy lub wymarcie gatunku. Bo właściwie wiemy jedynie, że są ograniczenia hamujące wzrost entropii, pozwalające na istnienie stabilnego stanu. Dlaczego więc w tym stanie następuje dywersyfikacja lub wymarcie? Jak już zostało powiedziane, zgodnie z termodynamiką nierównowagową, gdy informacji jest zbyt dużo, system staje się zdezorganizowany i zbyt złożony, aby się utrzymać. Aby jeszcze głębiej zrozumieć, dlaczego mniejsza ilość informacji powoduje wzrost organizacji, natomiast już większa psuje system, musimy sięgnąć po dynamikę nieliniową. Dynamiczne systemy nieliniowe charakteryzują się dodatnim sprzężeniem zwrotnym. Najpierw następuje niewielki wpływ jednej zmiennej na drugą zmienną, potem druga zmienna "oddaje" pierwszej zmiennej, tak że ta pierwsza zostaje wzmocniona efektem "uderzeniowym", który to znowu efekt uderzy w drugą zmienną itd. W ten sposób, sprzężenie zwrotne wywołuje reakcję łańcuchową, w której małe ilości nowych informacji wywołują niekontrolowany chaos. To chaotyczne zachowanie może doprowadzić do spontanicznego powstania nowych stanów porządku.

Mówiąc ściślej, nowe stany porządku są kreowane przez informacyjne bifurkacje. Zamiast opisywać co to za czart, najlepiej pokazać graficznie i wszystko będzie jasne:



Jak widać, sprzężenie zwrotne wywołuje lawinę informacyjną, co jest unaocznione przez wzrost entropii. Nagle entropia dochodzi do maksimum, a więc następuje zbliżenie systemu do równowagi termodynamicznej. Ale ze względu na to, że ciągle mamy ograniczenia i wewnętrzne stymulacje, równowaga nie zostaje utrzymana. W pewnym, zupełnie nieprzewidywalnym momencie następuje owa bifurkacja, która jest stymulowana jedynie przez wewnętrzne mechanizmy. Powstają dwa możliwe stany - są to punkty bifurkacyjne. System może wybrać jedną z dwóch gałęzi. Jeśli system nie wymrze (bo może nie nastąpić na czas bifurkacja), "wybiera" gałąź w oparciu o naturalna selekcję. System wówczas nie może skoczyć do kolejnej gałęzi - ograniczenia mu na to nie pozwolą.

Po bifurkacji system rozpoczyna reorganizację, czyli zwiększenie porządku. Reorganizacja pojawia się, ponieważ każda potomna gałąź, która została wyprodukowana przez bifurkację posiada mniejszą entropię czy mniej informacji niż rodowa gałąź. Ta strata entropii nie łamie drugiej zasady termodynamiki, ponieważ obie potomne gałęzie razem posiadają taką samą lub większą entropię niż rodowa gałąź.

5. Podsumowanie

Nierównowagowa termodynamika jest szczególnym przypadkiem drugiej zasady termodynamiki, która jest użyta do wyjaśnienia istnienia samoreplikujących dyssypatywnych struktur. Opisuje w jaki sposób biologiczne systemy stały się bardziej skomplikowane i zorganizowane - jako rezultat, a nie kosztem entropii. Nierównowagowa termodynamika stosuje koncepcję entropii do formowania się informacyjnej złożoności i opisuje jej kształt przez historyczne, rozwojowe oraz środowiskowe ograniczenia, wykorzystując teorię układów nieliniowych. Opisuje także w jaki sposób dochodzi do destrukcji systemu.

6. "Teoria" rynku kapitałowego

Jak ma się ta teoria do rynku? Nasunęły mi się już dwa pytania w różnych kontekstach, jednak można też próbować poszukiwać innych. Rynek jest strukturą złożoną z popytu i podaży. Gdy panuje rynek byka, inwestorów kupujących przybywa więcej niż sprzedających, więc można byłoby powiedzieć, że rynek staje się coraz bardziej złożony, ale i bardziej zdywersyfikowany. Kolejne bifurkacje mogą wywoływać korekty, aż w końcu pewna bifurkacja dokona dzieła zniszczenia. Bifurkacje te są kompletnie nieprzewidywalne pomimo deterministycznego charakteru układu. Podobny układ powstaje na rynku niedźwiedzia.

Mamy więc na razie jedno ograniczenie - zainteresowania rynkiem. Jednak ono samo nie wystarcza, bo rynek to oczekiwania, to gospodarka i dopiero na końcu spekulacja. Potrzebne jest więc pewne ograniczenie oczekiwań, odzwierciedlające stan oczekiwań sytuacji finansowej spółki oraz gospodarki krajowej i światowej. Jeśli zaczyna się sytuacja poprawiać, inwestorzy oczekują, że poprawa będzie kontynuowana, co przekłada się na wzrost indeksów. Warunkiem wydaje się, aby nie było za dobrze. Muszą dochodzić jakieś niepokojące sygnały z różnych sektorów gospodarczych lub innych krajów, aby ogólnie inwestorzy pozostawali w dezorientacji (ilość pozytywnych informacji nie może być zbyt duża). Gdy sytuacja się pogarsza, inwestorzy oczekują jej kontynuacji i indeksy spadają. Podobnie, sytuacja nie może być zbyt zła.
Z drugiej strony, rzecz nie tylko zależy od tego czy sytuacja jest świetna czy fatalna, ale także od tego czy akcje są przewartościowane czy niedowartościowane. Im akcje będą bardziej odbiegać od wartości wewnętrznej, tym większe będą oczekiwania co do powrotu do wartości. Można powiedzieć, że pomimo silnych sprzężeń zwrotnych powodujących utrzymywanie się trendu, zgodnie z którym kurs oddala się od wartości wewnętrznej, w pewnym momencie odchylenie jest tak silne, że przy następującej bifurkacji rynek wybiera odwrócenie trendu w kierunku wartości wewnętrznej.

PS. Na pewno niejednemu przychodzi silne skojarzenie z algorytmami genetycznymi. Wygląda na to, że mogą się one wiązać z teorią chaosu. Ale to już nowy temat.


Źródło:

S. Pierce, "Non-Equilibrium Thermodynamics: An Alternate Evolutionary Hypothesis", 2002.

wtorek, 14 września 2010

Porządek z chaosu

Swego czasu w Świecie Nauki (grudzień, 2008) pojawił się ciekawy artykuł zatytułowany "Termodynamika ma się dobrze" autorstwa J. Miguela Rubi'ego (Kiedyś "w nawiązaniu" do tego artykułu napisałem swój: Klasyka żyje i ma się dobrze). Opisuje w nim w jaki sposób druga zasada termodynamiki pozornie jest sprzeczna z obserwacjami powstawania samoorganizacji w przyrodzie i wyłaniania się z nieporządku coraz większego porządku. Od razu zwraca uwagę, że pojęcie takie jak temperatura jest zazwyczaj mylnie rozumiane, gdyż w rzeczywistości odnosi się ono do stanu równowagi termodynamicznej (lub bliskiego jej stanu), czyli stanu największego nieporządku (maksymalnej entropii). W sytuacji braku równowagi, należy pojęcia uogólniać. Tak więc uogólniono termodynamikę równowagową na termodynamikę nierównowagową. Początkowo do opisu zjawisk wykorzystywano pojęcie równowagi lokalnej w sensie przestrzennym (w małych częściach układu została zachowana równowaga termodynamiczna). Miało ono znaczenie, gdy zaburzenie równowagi nie było silne. W przypadku bardziej złożonych zjawisk o naturze nieliniowej, taka równowaga lokalna przestaje istnieć. Pojawiło się więc dodatkowo pojęcie równowagi lokalnej w sensie czasowym: badane procesy nie zmieniają się gwałtownie, tak że badając je "klatka po klatce" w stadiach pośrednich zachowana zostaje lokalna równowaga. Ale w sensie globalnym ciągle istnieje struktura uporządkowana. Mimo to, co zobaczymy na rysunku poniżej, może wystąpić krytyczny moment, po którym następuje załamanie się porządku i powrót do nieporządku.

Ponieważ już dobrze rozumiemy zwykłe błądzenie przypadkowe (ruchy Browna) oraz jego różnorakie uogólnienia, obejrzymy graficzną "opowieść" o odchyleniach od termodynamiki równowagowej, którą możemy sami odnieść do rynków finansowych.

1.

czemu towarzyszy następujący rozkład liczby cząsteczek:



Jest to zwyczajny ruch Browna, czyli otrzymujemy rozkład normalny.

2.



3.




Powyższa historia dotyczy powstania chaosu, tyle że nie skupia się na powstaniu porządku. Zobaczmy jak wyłania się i ginie porządek, gdy dostarczana energia rośnie coraz silniej.

1.

2.

3.

4.

5.

Nie ma wątpliwości, że rynek kapitałowy jest także "podgrzewany" nowym kapitałem oraz emocjami. Pytanie tylko, kiedy ta energia staje się zbyt duża, by utrzymać "porządek".

Pewną podpowiedzią (choć nie odpowiedzią) może być intrygujący artykuł Stephanie E. Pierce "Non-Equilibrium Thermodynamics: An Alternate Evolutionary Hypothesis". Teorię zawartą w tej pracy nie można przedstawić w dwóch zdaniach - to byłoby nachalne jej spłaszczenie. Dlatego przedstawię ją w odrębnym artykule.


Źródło:

J. Miguel Rubi, Termodynamika ma się dobrze, Świat Nauki, Nr 12 (208), s. 44-49.

wtorek, 3 sierpnia 2010

Jaka jest faktyczna siła persystencji na rynku kapitałowym?

No dobra, wykładnik Hursta nie jest taki super jak się wydaje. Mówiąc krótko, jeśli stopy zwrotu nie są gaussowskie, to (Houston) mamy problem. Nieskończona wariancja może być źródłem pomyłek z długozasięgowymi autokorelacjami. Dziś się naoglądamy tego problemu nieco więcej. Ogólnie biorąc wnioskuję, że prawdopodobieństwo uporczywości miesięcznego kierunku giełdy amerykańskiej wynosi tylko 0.6, a nieliniowa autokorelacja stóp zwrotu 0,32.

To nawet zabawne, że wykładnik Hursta okazuje się nie być tym czym chciał sam Hurst. Ale nie przejmujmy się, tak czasami bywa. Wiecie do czego były stworzone pierwotnie liczby urojone? Do tego żeby takie równanie: x^2 + 1 = 0 miało rozwiązanie oraz żeby swobodnie rozwiązywać równania trzeciego stopnia. Na szalony pomysł wprowadzenia pierwiastka z -1 wpadł Geronimo Cardano, który nawiasem mówiąc został za to uwięziony pod zarzutem uprawiania czarnej magii. Z pewnością musiały nim targać jakieś czarne moce, gdyż przewidział datę swojej śmierci i aby nie być gołosłownym 21 września 1576 r. popełnił samobójstwo. Potem okazało się, że liczby urojone - czy szerzej - zespolone mają dużo szersze zastosowanie w wielu zagadnieniach matematyki i fizyki. W statystyce liczba urojona jest niezbędna. Ale za bardzo odszedłem.

Przypominam, że wykładnik Hursta można wyrazić w postaci:



gdzie v to pochodna ułamkowa Riemanna–Liouville'a, zaś α to parametr "rozciągłości" rozkładu Levy'ego.

Jeśli pomiędzy kolejnymi obserwacjami nie ma żadnych zależności, wtedy wzór sprowadza się do H = 1/α. Dla ruchu Browna H = 1/2. Dla ułamkowego ruchu Browna H = v + 1/2.

Skoro korelacja pomiędzy danymi zależy jedynie od v, to można się spodziewać, że jeśli dyrektywnie ustanowimy, iż zarówno ułamkowy ruch Browna jak i ułamkowy ruch Levy'ego posiadają taką samą korelację, to oba procesy będą mieć tę samą pochodną ułamkową. Oznacza to, że H(B) i H(L) będą różnić się jedynie parametrem α, gdzie H(B) - wykładnik Hursta dla ruchu Browna, H(L) - wykładnik Hursta dla ruchu Levy'ego.

Załóżmy, że dla rynku akcji 1 < α < 2, czyli 0.5 < 1/α < 1. Zapiszmy:

1/α = x + 0.5, gdzie x < 0.5

W internecie możemy znaleźć darmowy program J. Nolana do wyliczania parametrów rozkładu stabilnego (rozkład stabilny jest szerszym pojęciem niż rozkład Levy'ego). Metod ich estymacji jest sporo. Dane dotyczyły miesięcznych stóp zwrotu S&P500 od 1933 r. Metoda estymatora maksymalnego prawdopodobieństwa (MEMP) prowadzi do wyniku α = 1.7024. Z kolei metoda prostego charakterystycznego estymatora parametrów (MPCEP) daje α = 1.7987. Jednak, analizując obie metody dla losowych ruchów Browna przy próbie nie większej niż 950 obserwacji doszedłem do wniosku, że MEMP ogólnie rzecz biorąc daje lepsze wyniki niż MPCEP: MEMP oblicza, że α równa się prawie 2, zaś MPCEP zaniża wyniki. Używać zatem będziemy MEMP.

Wobec tego:

1/1.7024 = 0.587 = x + 0.5 => x = 0.087

A więc

H(L) = v + x + 0.5 = v + 0.087 + 0.5
H(L) - 0.087 = v + 0.5
H(B) = v + 0.5

Wiemy jednocześnie (http://gieldowyracjonalista.blogspot.com/2010/05/wykadnik-hursta-dla-dziennych-stop.html), że wykładnik Hursta dla miesięcznych stóp zwrotu S&P500 wyniósł ok. 0,79. Pytanie, czy wynik ten stanowi H(B) czy H(L)? Oczywiście ze względu na to, że mamy do czynienia z nieskończoną wariancją, to obliczony H już zawiera zawyżoną wartość. Oznacza to, że H(L) = 0.79. Przy czym nie znaczy to, że poprawnie wyznaczyliśmy tę wartość. Wprawdzie droga w ruchu Levy'ego skaluje się podobnie jak w ułamkowym ruchu Browna, czyli t^H, lecz zaznaczam, że skrót R/S oznacza: Rozstęp/Odchylenie standardowe.

Mimo to uznamy, że dotychczasowa analiza R/S poprawnie wyznaczyła H(L). Persystencja dla ułamkowego ruchu Levy'ego ma miejsce gdy 1/α < H < 1. Ponieważ jednak H(L) nie mówi o prawdopodobieństwie dalszego kierunku zmiennej, to musimy przekształcić H(L) w H(B). To zrobiliśmy wcześniej. Powtórzmy więc poprzedni zapis:

H(L) - 0.087 = v + 0.5 = H(B)

i zastąpmy H(L) 0.79:

0.79 - 0.087 = v + 0.5
0.703 = v + 0.5 = H(B)

Wyniku tego nie możemy jeszcze traktować jako prawdopodobieństwo wystąpienia pozytywnej korelacji. Wartość oczekiwana E(H) dla 44 okresów wynosi 0.6. Wartość ta oznacza, że dla błądzenia przypadkowego dla okresu 44 mielibyśmy właśnie taki wykładnik H. Wynika z tego, że powinniśmy jeszcze odjąć 0.1 od 0.7, aby "dorównać" wartość oczekiwaną H do 0.5. A zatem siła kontynuacji kierunku kursu wynosi P = 0.6.

Wzór na współczynnik korelacji nieliniowej związany z długą pamięcią wyrażony jest w postaci:



Po podstawieniu 0.7 do tego wzoru otrzymamy korelację C równą 0.32.

Jeśli chodzi o polskie indeksy, to na razie liczba obserwacji na poziomie miesięcznym wydaje się zbyt mała, by wyciągać jakieś wnioski.

Przeanalizujemy za to WIG i kilka spółek na poziomie dziennym. Wykładniki Hursta obliczone metodą R/S są istotne statystycznie.

WIG 3.07.2001-30.07.2010

H wyliczony z R/S = 0.6, E(H) = 0.557

α = 1.739
1/α = 0.575

H(B) = 0.6 - 0.075 = 0.525
P = 0.525 - 0.057 = 0.468

Czyli należałoby przyjąć, że dzienne stopy zwrotu WIG wcale nie są nieliniowo skorelowane, a proces WIG jest zwykłym procesem Levy'ego.

LOTOS: 9.6.2005-30.7.2010

H wyliczony z R/S = 0.62, E(H) = 0.563

α = 1.85
1/α = 0.54

H(B) = 0.62 - 0.04 = 0.58
P = 0.58 - 0.063 = 0.517.

Lotos możemy uznać za (słabo) persystentny. Analityk wynajęty przez jakiś fundusz odsłoniłby przed nami wizję, że LTS z prawdopodobieństwem 0.62 będzie kontynuował kierunek. W rzeczywistości trzeba uwzględnić nie tylko wartość oczekiwaną wykładnika Hursta, ale i fakt wystąpienia nieskończonej wariancji. Przypominam, że moje obliczenia nie muszą być poprawne. Ja sobie odejmuję od H alfa, bo tak sobie przyjąłem. Warto zwrócić uwagę, że współczynnik autokorelacji liniowej pierwszego rzędu jest istotny statystycznie. Możliwe więc, że ta malutka część autokorelacji nieliniowej wynika z tej liniowej. A znowu trzeba pamiętać, że abstrahujemy od kosztów transakcyjnych. Żeby ocenić czy faktycznie jesteśmy w stanie wyciągać coś ponad przypadek, to musimy stopy zwrotu możliwe do uzyskania dzięki autokorelacji skorygować o koszt prowizji. Tak czy inaczej gra z Lotosem, który w indeksie Wig20 okazywał się jednym z najbardziej persystentntych walorów, przestaje być tak atrakcyjna.

KGHM 3.07.2001-30.07.2010

H = 0.6, E(H) = 0.55

α = 1.788
1/α = 0.56

H(B) = 0.6 - 0.06 = 0.54
P = 0.54 - 0.05 = 0.49

KGHM okazuje się na poziomie dziennym zwykłym ruchem Levy'ego. Ciekawe jest to, że współczynnik korelacji liniowej pierwszego rzędu jest istotny statystycznie.

PAGED 3.07.2001-30.07.2010

H = 0.674, E(H) = 0.553

α = 1.1763
1/α = 0.85

No i mamy problem. MEMP wskazuje, że 1/α > H wyliczonego na podstawie R/S.

Są dwa wyjścia. Ponieważ H = v + 1/α, więc można by potraktować v jako ujemne, co by jednak oznaczało antypersystencję! Patrząc na wykres Paged trudno uznać to za prawdę. Wydaje się raczej, że problem leży w tym, że nasze H obliczone z R/S to nie jest H(L). Powinno być ono nie mniejsze od 0.85. Co robić? Moim zdaniem dopóki nie mam programu liczącego H(L), muszę przyjąć, że po prostu długa pamięć nie występuje. Jest to oczywisty szok. To co brałem dotychczas za nieliniową korelację okazuje się prawdopodobnie dużą częstością "zdarzeń rzadkich".


PGF 3.07.2001-30.07.2010

Spółkę wybrałem wyjątkowo, bo H - E(H) nie pokonuje dwukrotnie (1/N)^(0.5), ale prawie dwukrotnie.

H = 0.59, E(H) = 0.553

α = 1.54
1/α = 0.65

MEMP znowu prowadzi do zamętu, pozostaje uznać, że nie występuje żadna persystencja. Jest to zwykły proces ruchu Levy'ego.

ABPL 2.07.2007-30.07.2010

H = 0.658, E(H) = 0.56

α = 1.4231
1/α = 0.7

I znów H < 1/α.

A więc i ta spółka, choć początkowo zapowiadała się świetnie (H > 0.65), zaczyna tracić blask, nie wykazując długiej pamięci w dziennych zwrotach.


Podsumowanie

No niestety, już tak sympatycznie nie jest. Nie ma wątpliwości, że stopy zwrotu mają rozkład odbiegający od normalnego, a obliczenia sugerują, że jest to rozkład Levy'ego z nieskończoną wariancją i skończoną średnią. Oznacza to, że zwykła analiza R/S traci sens. Przykładem to ilustrującym jest choćby Paged, którego analiza R/S ujawniała jako wysoko persystentną spółkę w zmianach dziennych, lecz odwrotność wykładnika alfa przewyższała znacznie wykładnik Hursta, a to jest tylko możliwe gdy nieliniowe autokorelacje są ujemne. Ponieważ wykres kursu spółki nie wskazuje, żeby po wzrostach (spadkach) częściej zachodziły spadki (wzrosty), to domyślamy się, że analiza R/S musi zostać zmodyfikowana dla procesu Levy'ego. Dopóki nie mamy takiego narzędzia, musimy posiłkować się metodą polegającą na tym, że jeżeli 1/α > H, odrzucamy możliwość persystencji, a jeśli 1/α < H, kontynuujemy analizę, skupiając się na relacji pomiędzy H a E(H). Po sztucznym sprowadzeniu empirycznego H do H(B), sprawdzamy czy H(B) nadal jest większe od E(H). Jeśli jest większe, wtedy mamy przesłanki by uznać proces za persystentny. Okazało się, że po tej korekcie dzienny WIG staje się procesem bez długiej pamięci, co znaczy, że mało spółek posiada takową pamięć, co wywraca do góry nogami poprzednie wywody. W krótkiej liście spółek jedynie Lotos wykazał się słabą persystencją. Z kolei na poziomie miesięcznym odfiltrowany od inflacji indeks S&P500 wykazuje się nadal istotną persystencją po dokonaniu tej ostrej korekty. Podkreślam, że przedstawiony pomysł jest tylko mojego autorstwa i mogę się jeszcze gdzieś mylić. Bezpieczniej traktować to badanie z przymrużeniem oka.


Źródło:

A.M-Kodzis, Modelowanie procesów na rynku kapitałowym za pomocą multifraktali, 2003.

środa, 21 lipca 2010

Ułamkowy ruch Levy'ego, czyli nic nie jest takie jakie się wydaje

Po przewałkowaniu wstępu o rozkładach Levy'ego i jego zastosowaniach w teorii portfela, wreszcie przechodzę do meritum sprawy, mianowicie ułamkowego ruchu Levy'ego będącego uogólnieniem ułamkowego ruchu Browna. Od razu ostrzegam, że dzisiejszy wpis jest dość trudny. Temat ten jednak podjęty być musi z trzech powodów. Po pierwsze przez książkę Petersa "Teoria chaosu a rynki kapitałowe" narosło wiele nieporozumień w kwestii długiej pamięci. Peters np. opisuje ułamkowe ruchy Browna, łączy je z rozkładem Levy'ego, krótko mówiąc plącze straszliwie. Po drugie wreszcie się dowiemy, jaki jest związek pomiędzy długą pamięcią, tłustymi ogonami rozkładów prawdopodobieństwa i nieskończoną wariancją. Po trzecie - i chyba najważniejsze - odsłonię fakt, iż prezentowane wcześniej wyniki badań nad persystencją na rynku kapitałowym (nie tylko moje, ale także wielu innych autorów) są obciążone występowaniem nieskończonej wariancji stóp zwrotu i ich interpretacja może nie być poprawna.

Ułamkowy proces ruchu Browna B(t) jest procesem gaussowskim (choć można się spotkać z określeniem uogólnionym procesem gaussowskim), a więc wariancja zmian X = B(t2)-B(t1) obliczana zwykłym wzorem:



Za wartość oczekiwaną podstawiamy zero. Dowodzi się, że wariancja ta jest równa t^(2H), 0 < H < 1, gdzie t - czas, H - wykładnik Hursta. Im mniejsze H, tym ruch posiada mniejszą "rozciągliwość". Dla zwykłego ruchu Browna H = 0.5. Odchylenie standardowe jest liczone jak zwykle: jako pierwiastek z wariancji, czyli t^H.

Kolejna sprawa. W książce Petersa możemy znaleźć następującą zależność pomiędzy α i H:

H = 1/α.

α - parametr w rozkładzie Levy'ego.

Jest to dość mylący wzór, gdyż skłania do stwierdzenia, że rozkład Levy'ego, który jest ściśle związany z wykładnikiem Hursta jest ściśle związany z długą pamięcią. I tak dla α = 2 (co sprowadza rozkład Levy'ego do normalnego), H = 0,5 (co sygnalizuje brak korelacji), co znaczyłoby, że zawsze, gdy rozkład jest normalny, pamięć długoterminowa nie występuje. Dla α = 1,7, H = 0,588, czyli wydawałoby się, że gdy tylko pojawia się rozkład Levy'ego, pojawia się też długa pamięć.

W rzeczywistości wzór ten jest poprawny tylko w sytuacji, gdy długa pamięć nie występuje. Ale przecież już tyle razy było wałkowane, że występuje ona, gdy H > 0.5. A w tym wzorze H jest dowolne. Więc jak to? Musimy pamiętać, że nasze rozważania z wykładnikiem Hursta były przeprowadzane jedynie przy założeniu, że proces jest gaussowski, a więc dla α = 2. Wówczas rzeczywiście H = 1/2, ale, jak powiedziałem, wzór jest poprawny w przypadku braku długiej pamięci.

Jednak teraz załóżmy brak jakichkolwiek korelacji. Jeśli dane mają rozkład Levy'ego to dla α = 1,7, H = 0,588!!!

Zaczyna się wszystko wywracać do góry nogami. Żeby pojąć to o czym mówię i to co zaraz powiem musimy przyswoić sobie następujący fakt: wykładnik Hursta nie jest ściśle jednoznacznie związany z pamięcią długoterminową! A więc w ogólności H nie może być utożsamiany z prawdopodobieństwem warunkowym znaku kolejnej zmiany.

Oczywiście wydaje się to kompletnie sprzeczne z tym co wcześniej pisałem tutaj:
http://gieldowyracjonalista.blogspot.com/2010/05/jak-rozumiec-duga-pamiec.html. No właśnie... ale tam pojawia się wariancja i odchylenie standardowe, gdyż opieraliśmy się na ułamkowym ruchu Browna. Trzeba to głęboko przemyśleć, żeby zrozumieć. Poprzednia analiza opierała się na założeniu ułamkowego procesu ruchu Browna, który stanowi uogólnienie zwykłego procesu ruchu Browna. A droga w tym zwykłym przypadku stanowi pierwiastek z wariancji - Einstein i Smoluchowski wykazali, że jest to pierwiastek z długości pokonanego czasu.

Dla ruchu Levy'ego odchylenie standardowe staje się nieskończone, więc interpretacja, że droga dla ruchu z długą pamięcią jest dłuższa niż dla ruchu bez pamięci wydaje się tracić sens. Jednak kto powiedział, że droga musi koniecznie być mierzona odchyleniem standardowym? Odchylenie to ma sens jedynie dla rozkładów gaussowskich (i ich pokrewnych, jak rozkład Poissona lub t-studenta), czyli dla ruchów Browna. Ale jeśli za miarę drogi przyjęlibyśmy średnie odchylenie bezwzględne, to kłopot by się skończył, przy założeniu, że istnieje średnia. No tak, ale w takim razie (jak dociekać to dociekać) jak to się dzieje, że średnie odchylenie bezwzględne może być skończone dla ruchu Levy'ego??? To wydaje się intuicyjnie pozbawione sensu! Przecież i jedna, i druga miara jest jak by nie patrzeć bardzo podobna. Ale podobna nie znaczy taka sama - a diabeł tkwi w szczegółach. Nie chcę poświęcać tu miejsca na wyjaśnienie różnicy, ale odpowiem intuicją. Jeśli uczyliśmy się kiedyś o ciągach, to być może pamiętamy coś takiego jak granica ciągu. Ciągi dzielą się na zbieżne i rozbieżne. Zbieżne ciągi posiadają pewną granicę, tj. kolejne wartości zbiegają do pewnej liczby, natomiast ciągi rozbieżne nie posiadają żadnej granicy. Granica może być wartością liczbową lub po prostu liczbą nieskończoną. Nie zawsze na oko jest łatwo określić czy ciąg będzie dążył do granicy wartościowej, nieskończoności czy też nie będzie do żadnej. Podobnie się dzieje w przypadku odchylenia standardowego i średniego odchylenia bezwzględnego w rozkładzie Levy'ego - to pierwsze zdąża do nieskończoności, a to drugie do pewnej granicy wartościowej.

Ponadto wzór na wariancję może zostać uogólniony, np. poprzez zastąpienie dwójki we wzorze jakąś liczbą większą od 0 i mniejszą od α. Nieco bardziej skomplikowana formuła pozwala również zastąpić dwójkę liczbą α. Można więc mówić o ułamkowym momencie centralnym, który już staje się skończony.

To co komplikuje całą sprawę to jest to, że droga w ruchu Levy'ego podobnie jak w ułamkowym ruchu Browna także skaluje się zgodnie z wykładnikiem Hursta, tj. można ją wyrazić jako t^H! I to jest właśnie punkt, który prowadzi do ogromnego zamieszania, powodującego błędne myślenie, że ułamkowy ruch Browna posiada rozkład Levy'ego. Zanim słownie wyjaśnimy różnicę przyjrzyjmy się następującym obrazkom ruchu cząsteczki w dwuwymiarowej przestrzeni:

Zwykły ruch Browna:



Zwykły ruch Levy'ego:



Na obydwu obrazkach cząsteczka porusza się kompletnie nieprzewidywalnie, przy czym dla ruchu Levy'ego (nazywamy je lotami Levy'ego) dużo częściej następują silne uskoki - zdarzenia rzadkie, które są właśnie odzwierciedleniem nieskończonej wariancji. Zauważmy, że w związku z tymi rzadkimi zdarzeniami ruch cząsteczki jest bardziej rozciągliwy - to oznaka skalowania nie z t^(0.5) ale z t^H. I tu właśnie wchodzi nasza poprzednia idea ułamkowego momentu centralnego: pierwiastek p-tego momentu z p-tego stopnia ( 0 < p < α) skaluje się zgodnie z t^H.

I teraz uwaga, która pozwoli choć trochę zrozumieć ten ułamkowy stopień. Dla ułamkowego ruchu Browna ruch t^H nie wynika z rzadkich zdarzeń. Można by rzec, że "rzadkie zdarzenia" występują ciągle, co oznacza, że ich nie ma - po prostu cząsteczka porusza się szerzej niż dla błądzenia przypadkowego. Właśnie dlatego, że się porusza bez przerwy w taki sposób kolejne zmiany są ze sobą skorelowane.

To jest właśnie ta zależność, która jest potrzebna do zrozumienia znaczenia wykładnika Hursta dla ruchu Levy'ego. Wiemy już, że jest ona wyrażona wzorem: H = 1/α. Nagle coś zaczyna się świecić: wiadomo, że H jest parametrem rozciągliwości ruchu (niezależnie od rozkładu). Dla rozkładu Levy'ego musi więc również mieć swój wkład. Jednocześnie wyjaśnia się znaczenie wykładnika α: jest właśnie miarą rozciągliwości - im mniejszy, tym ruch staje się coraz bardziej rozciągnięty. Gdy jest mniejszy lub równy 1 staje się tak rozciągnięty, że nawet nie może istnieć średnia. Zauważmy, że ma to sens: H = 1/1 lub więcej. Nie musi to zaraz oznaczać, że mamy do czynienia z linią prostą, ponieważ jak już teraz wiemy H nie jest równoznaczne z prawdopodobieństwem kolejnego ruchu. Staje się dopiero, gdy mamy do czynienia z ruchem Browna, tj. w sytuacji - powtarzam to ciągle - gdy istnieje wariancja.

Jeżeli jednak H staje się prawdopodobieństwem warunkowym dopiero dla ułamkowego ruchu Browna, to znaczy, że moglibyśmy dla tego ruchu przyjąć następujący wzór:

H = 1/2 + v

Jeśli v = 0, dostajemy zwykłe błądzenie losowe, lecz gdy v > 0, prawdopodobieństwo "trendu" staje się większe niż 50:50, a gdy v < 0 mniejsze niż 50:50. Skoro jednocześnie wiemy, że dla braku korelacji prawdziwy był wzór H = 1/α, to stwierdzamy, że musi zachodzić następująca zależność:



Wzór ten rzeczywiście jest zawsze prawdziwy, przy czym wyprowadza się go ściśle, a nie tak jak ja to zrobiłem. Wówczas okazuje się, że v to tzw. rząd pochodnej ułamkowej. Właśnie ta pochodna jest istotą każdego ruchu fraktalnego. Połączmy dwa fakty. Po pierwsze wykładnik α nie może być większy od 2. Po drugie pamięć długoterminowa występuje gdy v > 0. Wynika z tego, że zawsze, gdy występuje długa pamięć, H > 1/2. α < 2 spowoduje, że H się zwiększy, zwiększy się rozciągliwość ruchu, a jeśli v > 0, to rozciągliwość zwiększy jeszcze bardziej. Ale część tej rozciągliwości będzie miała swoje źródło w występowaniu rzadkich zdarzeń, a część w długiej pamięci. Właśnie taką sytuacje nazywamy ułamkowym ruchem Levy'ego. A więc H będzie dla tego ruchu większe niż dla ułamkowego ruchu Browna, co stwarza sporą pułapkę. Gdybyśmy obliczyli H za pomocą zwyczajnej analizy R/S, to jeśli próba ma rozkład Levy'ego dostalibyśmy duże H i mielibyśmy błędne przekonanie, że również nieliniowa korelacja jest bardzo silna. Dlatego należy używać zmodyfikowanej analizy R/S, która uwzględnia ułamkowy ruch Levy'ego. Ponieważ dotychczas stosowałem zwykłą analizę R/S, a jednocześnie wiem, że zmiany akcji mają rozkład Levy'ego, cała moja analiza długoterminowych zależności może kłaka nie być warta! Można również sprawdzić bezpośrednio czy występuje pamięć długoterminowa, obliczając pochodną ułamkową, przy czym nie jest to rzecz prosta.

Porównajmy teraz zwykły proces ruchu Levy'ego (oznaczony L), ruch Levy'ego (X) (v = 0) z jego ułamkowym odpowiednikiem (v = 0,3).

ordinary Levy Motion:


fractional Levy Motion:



Podsumujmy. Wyróżniamy 4 warianty:

1. α = 2 i v = 0 - zwykły ruch Browna (oBm - ordinary Brownian motion), gdzie H = 1/2.
2. α = 2 i -1/2 < v < 1/2 - ułamkowy ruch Browna (fBm - fractional Brownian motion), posiadający rozkład normalny, gdzie 0 < H < 1.
3. 0 < α < 2 i v = 0 - zwykły ruch Levy'ego (oLm - ordinary Levy motion), gdzie H = 1/α.
4. 0 < α < 2 i -1/2 < v < 1/2 - ułamkowy ruch Levy'ego (fLm - fractional Levy motion). posiadający rozkład Levy'ego, gdzie H = v + 1/α.

Warianty te zostały poniżej ładnie zilustrowane graficznie:



Dostajemy więc powierzchnię (α,v), która jest ograniczona na górze H = v + 1/α = 1 oraz na dole H = 0. Po prawej stronie α = 2 i -1/2 < v < 1/2 określa fBm. Jak widać jest to szczególny przypadek fLm, który rozciąga się na całą powierzchnię (α,v). Pozioma linia v = 0 koresponduje z oLm. Dla powierzchni v > 0 ruch staje się persystentny, v < 0 antypersystentny. Kropki oznaczone literką a prezentują α = 1,7. Kropki oznaczone b pokazują H = v + 1/α = 0,8. A więc przecięcie a i b przedstawia kombinację, która musi dawać fLm. Widać na dłoni, że samo H > 0,5 nie musi korespondować z długą pamięcią.

Na deser wspomnę, że na zasadzie analogii z multiułamkowym ruchem Browna niedawno zdefiniowano także multiułamkowy ruch Levy'ego, w którym wykładnik Hursta zmienia się w czasie w sposób ciągły. Proces ten stanowi więc uogólnienie ułamkowego ruchu Levy'ego. Ponieważ mamy również do czynienia z uogólnionym multiułamkowym ruchem Browna, w którym wykładnik H zmienia się w sposób nieciągły, możemy się domyślać, że także będzie się wkrótce pisać o uogólnionym multiułamkowym ruchu Levy'ego. To zagadnienie z tych najwyższych współczesnych półek.


Źródło:

1. B.B. Mandelbrot, J. W. Van Ness, Fractional Brownian Motions, Fractional Noises And Applications, 1969;
2. A.V. Chechkin, V. Yu. Gonchar "A Model for Persistent Levy Motion", 1999;
3. E.E. Peters, Teoria chaosu a rynki kapitałowe, W-wa 1997.

środa, 30 czerwca 2010

Klasyka żyje i ma się dobrze

Trochę kłamstwo, ale dobrze brzmi.

Analizując problem efektywności rynku i Uogólnionego Centralnego Twierdzenia Granicznego, dochodzimy do wniosku, że na rynku efektywnym średnie stopy zwrotu powinny posiadać rozkład Levy'ego.

Jedynymi założeniami UCTG była identyczność rozkładów w każdym okresie oraz niezależność stóp zwrotu (nawet nie jest potrzebna skończona średnia). Okazuje się jednak, że nawet niezależność zmiennych jest założeniem zbyt silnym. Na przykład proces stacjonarny ze skończoną pamięcią - gdy zmienne są w pewnym stałym okresie zależne od siebie, przy pewnych warunkach dąży do (wielowymiarowego) rozkładu Levy'ego (Zob. Katarzyna Bartkiewicz and Adam Jakubowski, Stable limits for sums of dependent infinite variance random variables, 1989 lub D.Harrelson C.Houdre, A characterization of m-dependent stationary in finitely divisible sequences with applications to weak convergence, 2001.

A zatem stopa zwrotu w długim okresie na rynku (fraktalnie) efektywnym będzie się charakteryzować rozkładem Levy'ego. Jak się wydaje, na rynku nieefektywnym będzie to rozkład q-Gaussa, gdyż najbardziej ogólne q-Centralne Twierdzenie Graniczne przyjmuje jeszcze mniej restrykcyjne założenia - przede wszystkim zmiany cenowe mogą być silnie oraz nietrywialnie skorelowane (rozkłady te zostały pierwotnie wyprowadzone dla fizyki w przypadku termodynamiki powiązanej z chaosem deterministycznym). Ten ostatni przypadek jednak nas nie interesuje obecnie.

No i teraz uwaga. Skoro stopa zwrotu posiada rozkład Levy'ego, to w ogólnym przypadku nie można stosować klasycznych teorii portfela: Markowitza oraz CAPM, a także modeli wyceny opcji Blacka Sholesa. W modelach tych jako miarę ryzyka stosuje się wariancję, zaś ta dla r. Levy'ego staje się nieskończona pomijając szczególny przypadek gaussowski. Od czasu, gdy zostało to ogłoszone, zwolennicy intuicyjnego podejścia do inwestycji, krytycznie nastawieni do modeli formalnych głośniej lub ciszej poczuli się triumfalnie.

Ale formalna rzeczywistość ekonomiczna, podobnie jak fizyczna, kryje w sobie więcej porządku niż się nam niejednokrotnie wydaje.

W 1997 r. Lofti Belkacem uogólnił teorię portfela Markowitza na stabilne rozkłady Levy'ego. Jeszcze rok wcześniej Belkacem, Levy Vehel i C. Walter uogólnili CAPM dla stabilnego rozkładu Levy'ego. Niewątpliwie jest to jedno z najważniejszych dokonań w teorii finansów. Autor/zy powinien otrzymać za to Nagrodę Nobla.

Jak pamiętamy rozkład Levy'ego charakteryzują różne parametry: c - czynnik skalujący, wykładnik α, dryf (wartość oczekiwana) µ i parametr skośności β. Dla α = 2 i β = 0 otrzymujemy rozkład normalny. Na rynku efektywnym powinniśmy się spodziewać, że rozkład będzie symetryczny, a więc β = 0 oraz że będzie istniała średnia stopa zwrotu, a więc 1 < α < 2. Np. dla β = 0 i α = 1 rozkład redukuje się do rozkładu Cauchy'ego. W tym rozkładzie nie istnieje średnia ani żaden inny moment.

Gdyby ktoś był na tyle dociekliwy, że spytałby dlaczego średnia musi istnieć skoro wariancja nie musi, odpowiedź byłaby następująca. Racjonalny inwestor zawsze powinien się czegoś spodziewać, czegoś oczekiwać po danym instrumencie. Jeśli branża jest ryzykowna, to będzie oczekiwał wyższego średniego zysku, gdyż podczas obranego horyzontu inwestycyjnego branża może się przypadkowo akurat załamywać. A zatem inwestor zawsze będzie miał pewną oczekiwaną stopę zwrotu, czyli właśnie wartość oczekiwaną, którą nazywamy tutaj średnią. Natomiast ryzyko również powinno być określone, jednak przyjęcie wariancji (odchylenia standardowego) jako miary ryzyka jest jedynie matematyczną konwencją, która nie musi być prawidłowa.

Oczywiście najciekawsze jest pytanie, jaką w takim razie powinna być właściwa miara ryzyka, będąca jednocześnie uogólnieniem zwykłej wariancji.

Możemy się spotkać z następującym uogólnieniem odchylenia standardowego:



Zauważmy jednak, że wcale nie jest takie łatwe przeniesienie tego wzoru na teorię portfela. Mamy tam przecież kowariancję, która sama w sobie jest uogólnieniem wariancji (wariancja wynika ze współzależności zmiennej samej ze sobą, stąd α = 2, a kowariancja ze współzależności dwóch zmiennych).

Belkacem wykorzystuje pracę m.in. Samorodnitsky'ego i Taqqu "Stable-Non Gaussian Random Process: Stochastic Models with Infinite Variance", którzy wprowadzają odpowiednie uogólnienia kowariancji na rozkłady stabilne.

Nie ma sensu w tym miejscu przytaczać co to za "cuda". Kiedyś na pewno dokładnie opiszę całą teorię.

Możemy jednak graficznie porównać granicę portfeli efektywnych uzyskaną za pomocą teorii Markowitza z jego uogólnionym odpowiednikiem. Belkacem przyjął do empirycznych studiów 3 wybrane przez siebie spółki z lat 1987 - 1995. Dane dotyczyły dziennych logarytmicznych stóp zwrotu. Ponieważ empirycznie otrzymał, że α = 1,7, to dla niej wykonywał obliczenia, w porównaniu oczywiście z α = 2.



Na powyższym rysunku na osi poziomej tak jak standardowo oznaczone jest ryzyko, na pionowej oczekiwany zysk. Dla α = 2 ryzyko redukuje się do odchylenia standardowego podzielonego przez 2^(0,5). Zwróćmy uwagę, że gaussowska granica G jest nieefektywna dla modelu α = 1,7. Ryzyko jest znacznie mniejsze dla stabilnego rozkładu Levy'ego S. Z rysunku np. wynika, że przy 1% ryzyku, Levy'owska granica portfeli efektywnych pozwala osiągnąć znacznie wyższy oczekiwany zysk (0,115%) niż gaussowska (0,0644%). Stąd utworzone gaussowskie wagi portfelowe nigdy nie będą właściwe.

Skoro krzywa granicy efektywnej jest inna, to inaczej będzie nachylona linia CAPM. Pamiętamy bowiem, że linia CML została utworzona na podstawie granicy portfeli efektywnych:



Na rysunku powyżej widać, że miara ryzyka w modelu CML na osi poziomej jest inaczej oznaczana niż w klasycznym modelu. Jak sądzę, dosłownie oznacza jakby wartość bezwzględną ze stopy zwrotu R, stanowiąc jednocześnie jej zmienność. Wzór na tę miarę jest trochę bardziej skomplikowany niż w zwykłym modelu. Generalnie model CML ma więc następującą postać:



Również SML odpowiednio zmienia nachylenie. Wynika z tego, że znane wszystkim finansistom i inwestorom ryzyko systematyczne oznaczane beta (nie mylić z parametrem oznaczanym beta występującym w rozkładzie Levy'ego) powinno być inaczej liczone, a standardowa miara jest błędna.

Właściwie obliczona oczekiwana stopa zwrotu dzięki CAPM jest ważnym narzędziem nie tylko do obliczania ryzyka inwestycji, ale także do wyceny akcji. Jednym z podstawowych problemów modelu zdyskontowanych wolnych przepływów pieniężnych DCF służącego do wyceny akcji jest obranie właściwej wymaganej stopy zwrotu. Wycena akcji jest oczywiście z definicji szukaniem równowagowej ceny na rynku efektywnym. Dlatego raczej nie powinno być wątpliwości, że podstawienie oczekiwanej stopy zwrotu z CAPM-SML do DCF jest poprawnym posunięciem.


Podsumowanie.

Wśród wielu inwestorów i finansistów ciągle pokutuje pogląd, że klasyczne modele finansów, jak np. CAPM, nie nadają się do wyceny akcji ani ryzyka na rzeczywistym rynku kapitałowym z powodu braku normalności rozkładu stóp zwrotu. Często nawet wyśmiewane są te modele.

Rzeczywiście był czas, gdy klasyka miała gliniane nogi, tak że wydawało się, że nic ją nie uratuje. Ale to już prehistoria. Świat jest bardzo uporządkowany. W fizyce klasyka obowiązuje na pewnym poziomie i nigdy nie zostanie całkowicie porzucona. Podobnie ma się rzecz w ekonomii. Rozkład normalny jest jedynie przybliżeniem rozkładu zjawisk ekonomicznych. Im będziemy bardziej dokładni, tym dostrzeżemy więcej niuansów i odchyleń od tego rozkładu. Naukowcy uogólnili modele klasycznych finansów, przybliżając się nieco do prawdy.

Podobnie w dzisiejszych czasach trwają nieustanne badania nad korelacjami i długą pamięcią w danych. Obecnie najwyższym pułapem analiz finansowych są - mówiąc hasłami - rozkłady q-Gaussa oraz multifraktale, które spełniają swoją rolę także na rynku nieefektywnym. Powstają już teorie portfela oraz modele wyceny opcji uogólniające przedstawiony powyżej obraz świata Levy'ego, czyli przyjmujące rozkłady q-Gaussowskie. Drugą najnowszą gałęzią są multifraktalne fluktuacje. Zaproponowany już z dawna przez Mandelbrota Multifrakalny Model Wyceny Aktywów Kapitałowych (MMAR) został niedawno podłączony do teorii portfela oraz modelu wyceny opcji. Gdy tylko wyguglujemy coś w stylu "generalized portfolio theory", "stable distribution in Black Scholes", "q-gauss Markowitz CAPM" "multifractal portfolio theory"... itp. to dostaniemy oczopląsu. Można jedynie z pokorą pochylić się nad tą ogromną wiedzą i geniuszem ludzkim i stwierdzić: wiem, że nic nie wiem.

Źródło:

1. L. Belkacem, How to select optimal portfolio in α-stable markets, 1997
2. L. Belkacem, L. Vehel, C. Walter, CAPM, Risk and Portfolio Selection in "Stable" Markets, 1996
3. K. Bartkiewicz and A. Jakubowski, Stable limits for sums of dependent infinite variance random variables, 1989
4. D.Harrelson, C.Houdre, A characterization of m-dependent stationary in finitely divisible sequences with applications to weak convergence, 2001.

sobota, 29 maja 2010

Jak rozumieć długą pamięć?

Musimy wreszcie lepiej się przyjrzeć pojęciu pamięci długoterminowej. Wiemy, że jej istnienie wiąże się z trendem. Wspomniałem już jednak wcześniej, że czasu trwania długiej pamięci nie można utożsamiać z długością trendu. Na czym więc polega jej zjawisko?

Można podejść do tego problemu od czysto matematycznego punktu widzenia. Podejście to pozwala zauważyć ścisłą zależność pomiędzy fraktalnością procesu a długą pamięcią. Zrozumielibyśmy wówczas, że długa pamięć nierozerwalnie wiąże się z fraktalami. Doskonale zaczęlibyśmy czuć różnicę pomiędzy trendem (jako dryfem) a długą pamięcią.

Na początek jednak lepiej zacząć od intuicji i przykładów graficznych.

1. Funkcja liniowa



Oto wykres analizy R/S:



Tutaj H = 0.994. Nie może być nic innego - każda kolejna zmiana wartości ma ten sam znak co poprzednia.

2. Funkcja sinus





Dla sinus dostałem H = 0.936 dla całego okresu. A więc zauważmy co się dzieje. Funkcja wydaje się przecież antypersystentna. Dlaczego więc analiza R/S wychwytuje długą pamięć? Żeby to zrozumieć powinniśmy wrócić do wzoru na wariancję i odchylenie standardowe ułamkowego ruchu Browna:



Odchylenie standardowe jest po prostu średnią drogą, jaką pokonuje jakaś cecha zmiennej. Wynika z tego, że im większe H, tym dłuższa jest ta droga. Wiemy, że dla błądzenia przypadkowego H = 0,5. Dla naszego przypadku H = 0,93 oznacza, że średnio zmienna pokonuje dłuższą drogę niż błądzenie losowe. Jeśli zaczniemy powiększać wykres funkcji sinus, zobaczymy, że rzeczywiście tak jest. W dowolnie małym otoczeniu dowolnego punktu kolejna wartość funkcji przyjmie ten sam znak co poprzednia wartość - z bardzo dużym prawdopodobieństwem. To prawdopodobieństwo równałoby się jeden, gdyby nie występujące minima i maksima. Ile wynosi to prawdopodobieństwo? Można powiedzieć, że właśnie H = 0,936. Nie jest to jednak taka oczywista odpowiedź, nie wynika bowiem z definicji prawdopodobieństwa, lecz następujących spostrzeżeń.

Na H powinniśmy patrzeć jak na miarę zmienności. Jeśli w danym czasie ma być pokonana dłuższa droga, to wykres po prostu musi być mniej postrzępiony, a więc mniej zmienny. Jeżeli jednak ma być mniej zmienny, to znaczy, że kolejna zmiana wartości zmiennej z większą szansą będzie miała ten sam znak co poprzednia.

Na przedstawionym wykresie log(R/S) zauważamy, że następuje w pewnym momencie załamanie się linii. Od tego miejsca pamięć długoterminowa szybko zanika, tak że proces staje się wręcz antypersystentny. Dlaczego jednak tak się dzieje, skoro przed chwilą powiedzieliśmy, że w dowolnie małym otoczeniu punktu proces jest prawie zawsze persystentny? Poprzedni wzór na wariancję - również to widzieliśmy - można przedstawić jako:



t > 0, t > s.

Możemy więc analizować różne przedziały drogi od s do t, w której s jest jakimś opóźnieniem. Na wykresie log(R/S) przedziały te są zaznaczone są literką n. I tak dla n = 758 długa pamięć się załamuje. Co to oznacza? Oznacza to, że w takim przedziale proces pokonuje dłuższą drogę niż błądzenie przypadkowe, a w dłuższym przedziale już nie.

Popatrzmy na wykres sinus. Zauważmy, że cykl pamięci kończy się nie w momencie gdy następuje załamanie kierunku - zmiana trendu - ale w momencie, gdy funkcja "przechodzi" cały cykl wzrostów i spadków (n=758). W rzeczywistości nie ma znaczenia od którego punktu startujemy: dopiero gdy sinus pokona nieco ponad cały cykl, wówczas proces staje się antyuporczywy.

Uporczywość istnieje pomimo zmiany trendu, ponieważ błądzenie przypadkowe "nie nadąża" za sinusem, co wynika z większej wariancji, czyli większego H dla sinus. Dopiero kiedy analiza R/S wykrywa, że sinus znowu zaczyna zmieniać kierunek, co u nas wychodzi po punkcie 758, zaczyna "chwytać" powroty do średniej częstsze niż powroty występujące w błądzeniu przypadkowym, co sygnalizuje antyuporczywością.

3. Dla porównania, weźmy bardzo antypersystentną funkcję złożoną jedynie z punktów 1 i 3 (połączonych linią prostą):





Dostajemy H = 0,06. Tutaj jest odwrotnie, ponieważ kolejne zmiany są przeciwnego znaku, dlatego też prawdopodobieństwo warunkowe kontynuacji danego znaku jest bliskie zera.

4. Weźmy przekształcenie sinus:





H = 0,98

Długa pamięć tutaj zanika bardzo wolno z powodu "silnej" gładkości funkcji. Dopiero po 4788 obserwacjach wykres staje się słabo persystentny.

5. Inne przekształcenie sinus





H = 0,665 dla całego okresu. Jednak do punktu załamania H = 1,026. Czas pamięci wynosi n = 158.

Przyjrzyjmy się bliżej temu punktowi:



Przykład ten jest interesujący ponieważ dowodzi, że długa pamięć nie wiąże się z samą cyklicznością funkcji. Przedstawiona wyżej funkcja jest idealnie cykliczna, jednak analiza R/S wychwytuje krótszy okres tej pamięci niż wynosi cykl funkcji.

Jednakże jest to całkowicie poprawny wynik, bowiem funkcja zaczyna powracać do średniej średnio po 158 obserwacjach.

6. Funkcja quasiperiodyczna. Wreszcie najciekawsze, bowiem taka funkcja jest już bardzo bliska chaosowi deterministycznemu.





H = 0,783, E(H) = 0,55, sqrt(1/N) = 0,018, H - E(H) = 0,229 > 0,018

W tym przypadku H jest już na poziomie H dla kursów giełdowych (miesięcznych stóp zwrotu).

Powiększmy ten fragment gdzie przedział n = 199 zawiera długą pamięć, a po nim zaczyna ona zanikać.



Pamiętajmy, że n jest jedynie przedziałem, w którym zmienna pokonuje drogę. Możemy więc punkt startu tego przedziału dowolnie przesuwać, ale sam zakres n musi pozostać stały. I właśnie W TYM ZAKRESIE długa pamięć zostaje wykryta. Przy zwiększeniu n następuje powrót do średniej, tak że proces staje się antyuporczywy.

Ale zwróćmy uwagę, że okres tej pamięci jest jedynie przeciętny. Nigdy nie odgadniemy czy to początek, środek czy koniec okresu spadków lub wzrostów. Jeśli to pojmiemy, to pojmiemy też, że giełda nawet podczas trwania trendu i wykrycia w tym okresie długoterminowej pamięci, jest nieprzewidywalna w tym okresie.

Jedynie co można przewidzieć, to to, że ten sam znak kolejnych zmian obserwacji jest bardziej prawdopodobny niż przeciwny. Jest tak dlatego, że zmienna musi pokonać dłuższą drogę niż błądzenie przypadkowe.

Jeszcze inaczej. Pomimo że trend jest nieprzypadkowy, to tak naprawdę jest... losowy. Innymi słowy długość trendu jest losowa. Każdy kolejny ząbek może być tym ostatnim tylko dlatego, że bierzemy pod uwagę średnią. Może być tak, iż dany trend właśnie osiąga maksimum lub minimum, choć w całym zakresie równym n - a więc w uśrednieniu - kolejny wzrost lub kolejny spadek jest bardziej prawdopodobny.

Ponieważ jednak kolejna obserwacja jest zależna od poprzedniej w tym sensie, że droga staje się dłuższa niż droga błądzenia losowego, to ta obserwacja jest również zależna od wcześniejszych obserwacji, a zatem droga staje się dłuższa od błądzenia losowego w całym przedziale n dopóki analiza R/S wyczuwa długą pamięć.

Nawet więc jeśli następuje silne załamanie, to ponieważ wcześniej droga była dłuższa niż błądzenia przypadkowego, to ma ona jeszcze "zapas" i dopóki nie będzie intensywniejszych powrotów do średniej, proces będzie uznawany za persystentny.

7. Wykres giełdowy S&P500: obserwacje miesięczne od 1933 (odfiltrowana inflacja)





Do momentu utraty pamięci H = 0,787; E(H) = 0,604. Pamięć średnio kończy się po 42 miesiącach. Oznacza to tyle, że hossa lub bessa była tak silna, że nawet gdy następuje odwrócenie trendu, kurs nadal w danym przedziale pokonuje więcej drogi niż błądzenie przypadkowe. I w tym sensie prawdopodobieństwo (uśrednione), że wzrost lub spadek będzie kontynuowany wynosi ok 0,69. Nie możemy uznać, że wynosi 0,79, gdyż wartość oczekiwana wynosi 0,6, a nie 0,5, więc zmniejszam H o 0,1. Natomiast powrót do średniej i zmiana trendu w końcu powoduje, że proces zostaje uznany za błądzenie przypadkowe. Następuje to przeciętnie po 42 miesiącach.

Stopniowo zaczynamy dostrzegać, że nie ma tu żadnych czarów. Wiemy czym jest średnia. Dokładnie tak jak w tym żarcie o psie i trzech nogach. Chaos na giełdzie po prostu skłania nas do przyjęcia koncepcji ułamkowej efektywności rynku.

piątek, 14 maja 2010

Wykładnik Hursta dla dziennych stóp zwrotu - szersza perspektywa

We wpisie "Wykładnik Hursta na GPW dla dziennych stóp zwrotu w kontekście ostatniej hossy": http://gieldowyracjonalista.blogspot.com/2010/04/wykadnik-hursta-na-gpw-dla-dziennych.html przyglądaliśmy się persystencji na GPW w okrojonej perspektywie roku hossy 2009-2010. Zmiany dzienne okazały się kompletnie przypadkowe na poziomie WIG-ów. Trzeba przyznać, że było to dość zaskakujące, ale to co dziś powiem, będzie zupełnym zaskoczeniem.

Przyjrzymy się obecnie wykładnikowi Hursta na naszej giełdzie w dłuższej perspektywie. Zanim przystąpię do wyników, muszę najpierw przyjąć jedno założenie. Otóż chociaż standardowo przyjmuje się, że H jest istotne wtedy gdy H jest większe od E(H) co najmniej o (1/N)^0,5 , gdzie N to liczba obserwacji, to jednak wielokrotnie założenie to nie zgadza się z tym co powinno być. Weźmy taki przykład błądzenia przypadkowego:



Dla tego przykładu H = 0.567. Jest tutaj sporo obserwacji (N = 10000). W takim przypadku E(H) = 0.546. (1/10000)^0,5 = 0,01. Ponieważ H-E(H)=0.021, należałoby uznać, że proces jest persystentny, co byłoby nieprawdą. Faktycznie można byłoby jedynie powiedzieć, że nie ma podstaw do odrzucenia hipotezy o persystencji. Tak czy owak wpadlibyśmy w pułapkę. Z drugiej strony dokładniej analizując ten przypadek, szybko wychodzi na jaw, że ów "błąd" powstaje dla największych podziałów n (nie mylić z N), a dla mniejszych jest "w porządku". Nie bedę tutaj się znęcał nad czytelnikiem i wyjaśniał różnicy pomiędzy N a n, bo należałoby w zasadzie wyjaśnić analizę R/S. Tego typu błędy mogą również wynikać z występowania tzw. krótkoterminowej pamięci Markowa. Pamięć ta uczestniczy w błądzeniu przypadkowym. Pamiętamy iluzoryczne trendy? Tam właśnie ta pamięć występowała. Ale pamięć ta jest przypadkowa, pomimo, że może się nie wydawać taka. Analiza R/S wychwytuje tę pamięć i zalicza do pamięci długoterminowej. Zatem część pamięci długoterminowej jest przypadkowa. Współczynnik autokorelacji rzędu pierwszego będzie miał wartość lekko dodatnią. Jak sobie radzą z tym statystycy? Odejmują od każdej stopy zwrotu w t-tym okresie tę właśnie stopę pomnożoną przez współczynnik autokorelacji liniowej rzędu pierwszego (tj korelacji pomiędzy okresem t-1 a t).

Ja mam wątpliwości co do takiej metody. Przecież długookresowe zależności w pewnym stopniu wynikają z tego co się działo przed chwilą. Dlaczego więc wycinać tę pamięć? Z drugiej strony można odpowiedzieć w ten sposób, że chodzi o odfiltrowanie badania długiej pamięci od krótkiej pamięci. W badaniu tej ostatniej wystarczyłoby zweryfikować istotność współczynnika autokorelacji liniowej.

Rzeczywiście, gdy przeanalizujemy niektóre indeksy, okazuje się, że współczynnik autokorelacji liniowej rzędu pierwszego jest istotny. Przede wszystkim daje się to zauważyć dla WIG, natomiast dla WIG20 jest nieistotny. Wynika z tego, że raczej powinno się go odejmować.

Ja przyjmuję inne rozwiązanie. Po pierwsze uznam, że dla dłuższych N, np. 3 lat (od 2007), H musi być większe od E(H) o co najmniej dwa odchylenia standardowe, tj. 2*(1/N)^0,5. Po drugie będę krytycznie spoglądał na samą wartość H, jeżeli będzie na wykresie widać, że się gwałtownie zmienia. Takie gwałtowne zmiany H są nieprzewidywalne i mogą dawać złudzenie długiej pamięci.


1. ROK 2008-2010:

Początek kwietnia 2008 - koniec kwietnia 2010: (1/N)^0,5 = 0.0445

WIG: H = 0.6145, E(H) = 0.5696, H - E(H) = 0.0449 > 0.445. A więc wydaje się słabo persystentny. W takiej sytuacji powinniśmy wziąć nieco przesunąć zakres, aby się upewnić. W okresie 14.04.2008 - 14.05.2010 otrzymujemy:

H = 0.597, E(H) = 0.5695, H - E(H) = 0.027 < 0.0445. A zatem jednak brak persystnecji. Nie możemy się skupiać na poprzednich wynikach, jeśli nie są stabilne po przesunięciu w czasie.

WIG20: H = 0.560746114814989, E(H) = 0.569586363783655, H - E(H) = -0.00884024896866575. Brak persystencji.

Dalej będę pisał skrótowo.

KGHM: (sqrt(1/N) = 0.0456)

0.588, 0.575, 0.013 < 0.0456. Brak persystencji.

LTS: (sqrt(1/N) = 0.041667

0.653, 0.568, 0.085 > 0.041667. Kurs jest wyraźnie persystentny, gdyż pokonuje odchylenie standardowe dwukrotnie.

Można sprawdzić czy tak silny wynik jest stabilny. Okazuje się, że tak: gdy wziąłem zakres 27.04.2008-27.04.2010; (sqrt(1/N) = 0.0456, dostałem:

0.68, 0.57465, 0.106 > 0.0456.


2. ROK 2007-2010

Początek kwietnia 2007 - koniec kwietnia 2010: 2*(1/N)^0,5 = 0.0728

WIG:

0.60555, 0.5645, 0.041 < 0.0728. Nadal brak persystencji. Dla upewnienia się sprawdziłem dla innych okresów (od marca, potem od maja 2007) i nie ma wątpliwości: cała bessa i hossa do dziś ma przebieg czysto losowy na poziomie zmian dziennych.

WIG20: 2*(1/N)^0,5 = 0.07454

0.5594, 0.569, -0.0099

KGH: 2*(1/N)^0,5 = 0.07454

0.6055, 0.569, 0.0363 < 0.075. Brak persystencji.

LTS: 2*(1/N)^0,5 = 0.07454

0.6179, 0.569, 0.0486 < 0.07454. Brak persystencji. Mimo to, gdyby założyć, że wystarczy tak jak dla roku 2008 jedno odchylenie standardowe, kurs można byłoby uznać za persystentny. Ale ciągle miejmy na względzie tamto błądzenie przypadkowe.

Porównując wykresy obu spółek:



stwierdzamy, że nie jest możliwe wzrokowe ocenienie że kurs LTS jest bardziej uporczywy, a KGH nie. Wydaje się nawet, że jest odwrotnie.


3. ROK 2006 - 2010:

WIG od kwietnia (0.063):

0.6345, 0.561, 0.073 > 0.063. Kurs wreszcie staje się persystentny.

Sprawdziłem jeszcze dla innego zakresu - od maja. Wynik? Prawie się nie zmienił. H zaczyna być stabilne.

WIG20 (0.063):

0.573, 0.561, 0.0118 < 0.063. Brak persystencji.

KGH (0.063):

0.5889, 0.561, 0.028 < 0.063, Brak persystencji.

LTS (0.063):

0.64697, 0.5612, 0.086 > 0.063. Jest persystencja.

Można powiedzieć, że potwierdza się to, co wcześniej widzieliśmy. Lotos już wcześniej miał "oznaki" uporczywości, od 2006 r. nie ma wątpliwości co do tego.

4. ROK 2005 - 2010 (0.056):

WIG:

0.617799041308435, 0.558995330030493, 0.0588037112779417 > 0.056. Jest persystencja.

WIG20:

0.55321208985619, 0.562780058095387, -0.00956796823919659 < 0.056. Brak persystencji.

KGH:

0.604648625570105, 0.562780058095387, 0.041868567474718 < 0.056. Brak persystencji.

Sytuacja się trochę "poprawia". Gdy wziąłem zakres od maja 2005, kurs był na styku persystencji. Jednak wyglądało to bardzo podobnie, jak tamto błądzenie przypadkowe - gwałtowne zmiany H przy większych n.

LTS:

Zaczął być notowany od czerwca 2005. Kurs jest silnie persystentny, sytuacja niewiele się zmienia od 2006 (H = 0.635348813576748).


5. 2000 - 2010

Od początku kwietnia 2000 do końca kwietnia 2010 (0.03984):

WIG:

0.61226607977128, 0.55601710790948, 0.0562489718617999 > 0.03984. Jest persystencja.

WIG20:

0.570836067255322, 0.55601710790948, 0.0148189593458419 < 0.03984. Brak persystencji.

Na początku to było dla mnie zaskoczenie. 10 lat i żadnej persystencji? Przejrzałem raz jeszcze badania K. Jajugi sprzed ponad 10 lat. Zakres badań objął krótki okres czasu, bo 20.10.1994 do 6.05.1997 r. Obliczył i stwierdził, że WIG20 posiada długą pamięć: H = 0.6268, E(H) = 0.5834, N = 630, sqrt(1/N) = 0.0398. Można by stwierdzić, że różnica H - E(H) 0.0434 jest wystarczająca. Gdyby przyjąć za warunek przekroczenie dwóch odchyleń, już by tak nie było.

Ponadto powtórzyłem badanie Jajugi. Z początku wynik wydał się znacznie inny, bo w całym analizowanym okresie H = 0.569. Ale badacze nie patrzą na uśrednione H z całego okresu, bo w pewnym momencie następuje zanik pamięci. Od tego momentu H zaczyna spadać (lub rosnąć gdy występuje antypersystencja). Uwzględniając ten efekt, H wyniósł tyle samo co u Jajugi.

Problem polega na tym, że analizując lata 2000-2010, 2005-2010 i kolejne, nie dostrzegam występowania efektu kontrakcji.

KGH:

0.607775971229617, 0.55601710790948, 0.0517588633201371 > 0.03984. Jest persystencja.
Powtórzyłem badanie dla zakresu od czerwca 2000 r. Nie ma wątpliwości, że KGHM posiada długą pamięć.

Ponieważ WIG20 wydaje się czysto losowy, ciekawy byłem jak spółki o największej kapitalizacji wyglądają dla danego okresu.

PEKAO:

0.522237527408583. Ruletka.

TPSA:

0.504609312119412. Ruletka do kwadratu.

PKO (od listopada 2004):

0.535202730879272. Brak persystencji.

PKN:

0.541530225478429. Brak persystencji.

BZWBK (od czerwca 2001):

0.571663181584447. Brak persystencji.

Na koniec sprawdziłem Asseco Poland i Bioton.

ACP:

0.534018739738203, 0.55601710790948, -0.0219983681712768. Brak persystencji.

BIO (od kwietnia 2005):

0.580544284172451, 0.562780058095387, 0.0177642260770645 < 2*0.02817. Brak persystencji.

A zatem to czego można było się spodziewać. Być może LTS i KGHM są jednym z uporczywych wyjątków w naszej wielkiej 20-ce.

Skorośmy już tak daleko zaszli spróbujmy zbadać persystencję DJIA dla dziennych stóp zwrotu dla okresu od kwietnia 2000 do końca kwietnia 2010.

DJIA:

0.549616331489658, 0.55601710790948, -0.00640077641982195 < 0.03984. Brak persystencji...

Żeby jeszcze mieć pewność, że nie gubię pamięci, zrobiłem analizę R/S dla mniejszego okresu, od początku 2006. Wynik się praktycznie nie zmienił. H = 0.5497, E(H) = 0.5645.

A lata 90-te? Taki boom, to wszyscy myślą, że na pewno tam musiała być pamięć. Niestety. W całym okresie lat 90-tych (styczeń 1990-kwiecień 2000) H = 0,5. Równo.

To może lata 80-te? Też nie były złe. Także nie. H = 0.549 przy E(H) = 0.556.

................................................................................

Czy kolejny mit upada? WIG20 razem z DJIA okazują się zwykłym błądzeniem przypadkowym. Być może wykazują generalnie efektywność w sensie statystycznym. Wnioski nie są jednak aż tak ponure, gdyż można odnaleźć spółki bardziej persystentne. Z pewnością w długim okresie są nimi KGHM i Lotos. Skoro WIG jest w długim terminie persystentny, a jednocześnie kursy największych spółek poruszają się losowo, to możemy wyciągnąć wniosek, że jest sporo spółek mniejszych, których kursy posiadają długą pamięć.

................................................................................

W końcu, wnioski drastycznie się zmieniają, gdy analizujemy dane miesięczne. Wpis nie dotyczy wprawdzie takich badań, lecz w skrócie powiem co wychodzi.

Począwszy od 1933 r. do mniej więcej dziś dla S&P500 dostajemy:

0.786722462053744, 0.604257003706961, 0.182465458346783 > 0.0658. Czyli H empiryczne pokonuje niemal 6 odchyleń standardowych (2*0.0329 = 0.0658). Przedstawiony wynik uwzględnia już zanikającą pamięć, która w tym przypadku wynosi średnio 42 miesiące (u Petersa było to 48 miesięcy).

Ciekawe jest to, że niemal identyczny wynik otrzymałem, gdy wziąłem dane od 1881 r., zaś średnia pamięć wyniosła również 42 miesiące. Świadczy to o nieprzypadkowym okresie pamięci. Natomiast dla danych od 1980 r. dostałem H = 0.697, który również pokonuje dwukrotnie odchylenie standardowe. Tutaj cykliczność nie uwidacznia się zbytnio, choć największe H występuje w przedziale od 20 do 72 miesięcy, a więc średnio faktycznie 46 miesięcy.