Pokazywanie postów oznaczonych etykietą teoria chaosu. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą teoria chaosu. Pokaż wszystkie posty

niedziela, 13 września 2009

Jak powstają cykle i podcykle? Prawdopodobieństwo warunkowe. Część trzecia

W pierwszym artykule z cyklu "Jak powstają cykle?" stwierdzono, iż ze względu na niepewność, trendy powstają i załamują się w przypadkowych momentach, natomiast samo utrzymywanie się nie jest przypadkowe. Ktoś może zripostować: skoro trend zaczyna się przypadkowo i kończy się przypadkowo, to znaczy to samo, że jest przypadkowy. Co więcej, wydaje się, że jeśli cykl można niemal w nieskończoność dzielić na podcykle, to znaczy, że w którymś momencie, przy bardzo małym horyzoncie czasu, początek cyklu połączy się z jego końcem, co prowadzi do wniosku, że sam trend jest przypadkowy.

W praktyce zawsze będzie istnieć pewna nieciągłość pomiędzy kolejnymi transakcjami. Myślę, że nawet teoretycznie pewna nieciągłość musi istnieć - w książce E. Borela "Prawdopodobieństwo i pewność" przeczytałem ciekawą myśl: że ludzie nie są w stanie wyobrazić sobie nie tylko nieskończenie wielkiej liczby, ale także nieskończenie małej liczby.

Wobec tego pierwsze zmiany ceny, które będą ze sobą silnie pozytywnie skorelowane, można zaobserwować. Niech najmniejszą jednostką czasu będzie okres t. Mamy więc sytuację, że z prawdopodobieństwem warunkowym równym 1 dodatnia (ujemna) zmiana ceny akcji z okresu t, spowoduje dodatnią zmianę ceny akcji z okresu t+1. Jest tak, gdy liczba kupujących (na przykład grupa B) przeważa nad liczbą sprzedających. Jednocześnie jednak wiemy, że w którymś z przyszłych okresów trend się zakończy (niepewność ze strony grupy B), jednak nie wiadomo kiedy. Skoro nastąpiło sprzężenie pomiędzy zmianami ceny w okresie t i t+1, możemy się mimo wszystko domyślać, że zmiana kierunku nie nastąpi wcześniej niż w okresie t+2. Przyjmijmy "obiektywnie", że prawdopodobieństwo warunkowe ujemnej (dodatniej) zmiany ceny z okresu t+k, gdzie k>1, pod wpływem dodatniej (ujemnej) zmiany ceny z okresu t+(k-1), wynosi 0,5.

Problem polega na tym, że t jest tylko zmienną. Ktoś wstawi t=0 i jeśli w okresie 0 cena wzrośnie, wtedy w okresie 1 będzie miał pewność, że cena wzrośnie, a w okresie 2 pewność wyniesie tylko 0,5. Z kolei jeśli ktoś wstawi t=1, a wiemy już, że cena w tym okresie wzrosła, wtedy w okresie 2 będzie miał pewność, że cena wzrośnie, co przeczy poprzedniej konkluzji.

Dlatego właśnie wyciągamy średnią: (1+0,5)/2=0,75. I takie jest prawdopodobieństwo warunkowe zmiany ceny akcji. Oczywiście jest to tylko model, w rzeczywistości wystąpi dodatkowy szum, który sprawi, że kolejne stopy zwrotu nie będą maksymalnie skorelowane w okresie t i t+1.

Powyższe rozumowanie wydaje się tłumaczyć, dlaczego wartość oczekiwana stopy zwrotu będzie różna od zera. W rzeczywistości jednak jest trochę inaczej. Zwróćmy uwagę, że posługiwano się tu pojęciem prawdopodobieństwa warunkowego.

Prawdopodobieństwo warunkowe wystąpi wtedy, gdy dwie zmienne lub zdarzenia losowe są od siebie zależne. Jeśli mamy prawdopodobieństwo zdarzenia x oraz y, to jeśli są one zależne, to prawdopodobieństwo, że wystąpi zdarzenie y pod warunkiem, że wystąpiło zdarzenie x jest równe ilorazowi prawdopodobieństwa części wspólnej zdarzeń x,y i prawdopodobieństwa zdarzenia x. Czyli mówi ono jaką część prawdopodobieństwa zdarzenia x stanowi prawdopodobieństwo części wspólnej zdarzeń x i y. Jest tak, ponieważ drugie implikuje pierwsze, a więc podstawą jest warunek i dopiero wtedy liczy się interakcja pomiędzy zdarzeniem y i warunkiem x. A więc mówiąc jeszcze inaczej, prawdopodobieństwo warunkowe zdarzenia y jest prawdopodobieństwem interakcji pomiędzy x i y pod wpływem x. Musimy więc zrozumieć, że nazwa jest trochę myląca: prawdopodobieństwo warunkowe y jest bardziej prawdopodobieństwem interakcji (zależności) zdarzeń niż konkretnego zdarzenia.

Kiedy mówimy, że trend nie jest przypadkowy, mamy na myśli, że występują zależności pomiędzy kolejnymi zmianami kursów. Mamy tu prawdopodobieństwo warunkowe, że kurs podąża w pewnym kierunku pod wpływem tego co się działo wcześniej, ale nie przypadek.

Skoro występuje pojęcie prawdopodobieństwa warunkowego, to również musi istnieć pojęcie warunkowej wartości oczekiwanej (a także warunkowej wariancji). Nie jest nam potrzebne dokładnie wiedzieć, czym jest warunkowa wartość oczekiwana. Intuicyjnie jednak warto ją rozumieć: to wartość oczekiwana jednej zmiennej losowej względem drugiej, czy pod warunkiem drugiej.

Musimy tu uświadomić sobie, że zazwyczaj intuicyjnie umieszczamy charakterystyki zmiennych losowych w pewnym kontekście. Stopa zwrotu jako taka posiada wartość oczekiwaną równą zero. Lecz w rzeczywistości trudno nam oderwać się od kontekstu - jest nim czas i przestrzeń. Aby uzyskać "czystą" wartość oczekiwaną, musimy się oderwać nie tylko od przeszłości, ale także poziomu inflacji i wzrostu gospodarczego. Pomyślmy bowiem: wartość oczekiwana musi wynikać z czystej losowości, rozkładu prawdopodobieństwa, a faktycznie jest tak, że na jej wielkość wpływa przeszłość (tzn. na zmienną Y wpływa zmienna X) oraz koniunktura gospodarcza (Y pod wpływem "inflacji" i "wzrostu gospodarczego"). Warunkowa wartość oczekiwana stopy zwrotu jest niezerowa.

Obecny tok rozumowania prowadzi do wniosku, że zmiana ceny w dowolnym okresie t, w oderwaniu od zmian w okresie t-1 oraz t+1, jest całkowicie losowa i prawdopodobieństwo wzrostu wynosi 0,5. Dlatego trend może się zakończyć w każdej chwili, jeśli nie obrysujemy tej chwili w kontekst. Ale gdy rozpatrujemy ciąg zmian, które są skorelowane, dostajemy prawdopodobieństwo warunkowe kontynuacji trendu większe od 0,5, co oznacza, że prawdopodobieństwo warunkowe odwrócenia trendu czy korekty jest mniejsze od 0,5.

Skąd to wiem? Wiem. Rafał Rak w pracy "Ilościowe charakterystyki fluktuacji i korelacji na polskim rynku akcji" (2008) stwierdza na s. 44, że zachodnie rynki (np. DAX, DJIA) są na skali jednominutowej wysoce persystentne (prawdopodobieństwo warunkowe, że znak stopy zwrotu w danej minucie będzie taki sam jak w poprzedniej minucie = 0,56). Okres jednominutowy jest oczywiście bardzo trudny do wykorzystania przez traderów. Wyniki badań czy to E. Petersa, K. Jajugi, N. Siemieniuka, czy Stawickiego, E. A. Janiaka, Iwony Müller-Frączek niezbicie dowodzą, że wykładnik Hursta w polskich szeregach czasowych stóp zwrotu, który można utożsamić z prawdopodobieństwem warunkowym, jest istotnie większy od 0,5 na różnych skalach czasowych - dziennych, tygodniowych i miesięcznych (w rzeczywistości chodzi tu, że jest większy od wartości oczekiwanej wykładnika Hursta, gdyż operujemy na pewnych próbkach czasowych, więc wyniki są obciążone i z reguły dają wykładnik Hursta większy od 0,5).

Choć moment powstania korekty czy też zmiany kierunku trendu jest losowy, to jednak musimy być świadomi praw probabilistyki. Im dłużej trwa trend, tym większe jest prawdopodobieństwo, że korekta nastąpi teraz. Im dłużej trwa trend, tym większe zyski (straty) osiągają (ponoszą) inwestorzy, tym większą odczuwają pokusę ich realizacji (od strony strat oznacza zwiększoną chęć sprzedaży, ale - dwoiście - zwiększenie zaangażowania kupujących po niższej cenie). Ale jest tu jeszcze jeden aspekt, którego dotąd nie poruszałem. Jeśli grupa B staje się podażą, to mająca zatrzymać korektę grupa D nie musi w rzeczywistości być liczebnie równa grupie B. Kupujących może być coraz mniej lub coraz więcej tylko ze względu na dostępność nowego kapitału.

Gdy włączymy wymiar czasu, ograniczony kapitał grupy D jest ważniejszy niż pokusa kupna czy sprzedaży dla utrzymania się trendu. Grupa B nie przechodzi tak od razu ze strony kupujących na stronę sprzedających, ale stopniowo zmienia swoje nastawienie. Przypadek zdecyduje, w którą stronę podąży cała grupa (na przykład grupa B1 może ciągnąć w stronę podaży, a B2 w stronę popytu). Jeśli natomiast grupy D zabraknie, wówczas nie powstanie długoterminowy, tj. paroletni trend.

Możemy ten problem znowu rozbić. Gdy rozważamy siłę trendu, wtedy istotna jest rola grupy B. Gdy rozważamy długość trendu, czyli czas jego trwania, wtedy istotna jest rola grupy D. W pierwszym przypadku od B zależy po pierwsze siła trendu, po drugie, jak szybko sama ulegnie tej sile i obróci się przeciwko trendowi. W drugim przypadku D będzie hamowała korekcyjne zapędy B, ale liczebność D będzie zależeć od ilości dostępnego kapitału. Dostępność kapitału jest w pewnej mierze zależna zarówno od krajowej jak i światowej koniunktury gospodarczej: poziomu PKB, wzrostu wynagrodzeń, poziomu zatrudnienia. Dlatego przewaga popytu, czyli hossa często zbiega się z okresami poprawy gospodarczej, a bessa - pogorszenia. Podkreślam jednak, że występuje tu jedynie częściowa zależność, a nie całkowita. Tak więc wejście grupy D może zależeć od tego, czy w danym sektorze gospodarki nastąpiła choćby lekka poprawa. Jeśli przedsiębiorcy poprawiają swój status, to część nadwyżki mogą przeznaczyć na inwestycje giełdowe. Ponieważ różne sektory mogą reagować z opóźnieniem, toteż wchodzenie nowego kapitału odbywa się stopniowo. Również spółki, które wypłacają dywidendy dla akcjonariuszy, poprawiając swoje wyniki finansowe, stają się bardziej popularne. W trakcie nadchodzącej recesji, sytuacja się odwraca.

Podsumowując, prawdopodobieństwo warunkowe znaku zmiany ceny akcji pod wpływem poprzedniego znaku zmiany ceny zależy od dwóch czynników: siły trendu oraz czasu jego trwania. Im większa siła trendu oraz im dłuższy czas jego trwania, tym większe prawdopodobieństwo warunkowe zmiany kierunku ceny - korekty. Pierwszy czynnik wynika z chciwości lub ze strachu, drugi czynnik z ograniczoności kapitału przeznaczonego na inwestycje giełdowe. W rzeczywistości zarówno jeden, jak i drugi czynnik zależy od dostępności kapitału. Nikt nie byłby chciwy i nikt nie bałby się ryzykować, gdyby jego kapitał był nieograniczony. W pierwszym jednak przypadku znaczenie ma psychologia, a w drugim ekonomia. Oba wymiary ściśle się ze sobą łączą. Wymiar ekonomii jest wymiarem przestrzeni kapitału. Wymiar psychologii jest wymiarem przestrzeni emocji i intuicyjnego rozumowania (heurystyk). Zauważmy, że wymiar ekonomiczny umożliwia w ogóle lokowanie kapitału, zaś wymiar psychologiczny umożliwia motywację do działania - zakup lub sprzedaż aktywów. W rezultacie kombinacja obydwu wymiarów kreuje prawdopodobieństwo warunkowe. W następnej części zajmiemy się czynnikiem psychologicznym.

czwartek, 16 lipca 2009

Tak, na giełdzie panuje chaos. Ale nietrywialny

1. Pytanie w tytule artykułu "Czy na giełdzie panuje chaos? W kontekście wykładników Lapunowa" sugerowało, że istnieje brak pewności co do chaotyczności naszej giełdy. Jednak okazuje się, że już dość stara publikacja N. Siemieniuka potwierdza stanowisko o chaosie. Dlatego poprawiłem tamten wpis o następujący akapit.

Na dziś można powiedzieć, że polski rynek kapitałowy jest chaotyczny, co wynika z analiz N. Siemieniuka w pracy "Fraktalne właściwości polskiego rynku kapitałowego", Wydawnictwo Uniwersytetu w Białymstoku, Białystok 2001, s. 163. Autor ze względu na dużo mniejszą liczbę danych w porównaniu z zagranicznymi giełdami, brał za okres 1 tydzień. Największy wykładnik Lapunowa został oszacowany na poziomie 0,0046/tydzień. Rynek tracił pamięć po średnio 51 miesiącach, czyli po nieco ponad 4 latach stawał się nieprzewidywalny.

Nietrywialność chaosu na giełdzie polega na istnieniu bardzo małych wartości największego wykładnika Lapunowa. W kontekście procesów stochastycznych występuje długoterminowa pamięć rynku
(0,5 < H < 1). Występują nieokresowe cykle, tj. niemające określonej długości ani skali czasowej. Możemy jedynie wyciągać z nich pewne średnie.

Małe wartości wykładnika Lapunowa świadczą o możliwości przewidywania kierunku giełdy w ciągu danego cyklu. W badaniach Petersa długość cyklu wyniosła ok. 4 lat dla USA i Japonii, jednak należy pamiętać, że była to liczba przeciętna w ciągu długiego okresu badań i dawała jedynie uśrednione wyobrażenie na temat długości cyklu. Zauważmy już przy tym, że takie nazwy jak nadzieja matematyczna czy wartość oczekiwana sama w sobie jest fałszem dla konkretnego wyniku, tutaj długości cyklu. Podobnie jak gra o równym prawdopodobieństwie wygranej i przegranej daje wartość oczekiwaną 0, to w danej grze nigdy nie uzyskamy zera, zawsze albo wygramy, albo przegramy. Musimy wielokrotnie zagrać, aby wyjść na 0. Podobnie powinniśmy patrzeć na badania statystyczne. Musielibyśmy grać wielokrotnie w kolejnych cyklach, aby faktycznie móc w pełni wykorzystać przeciętny 4-letni cykl hossy czy bessy. Ryzyko jest tu podwójne: nie dość, że zawsze płacimy koszty prowizji, których owe badania nie uwzględniają, to przecież nie żyjemy wiecznie i nawet najdalszy horyzont kiedyś się kończy.

2. Ponieważ większość ludzi, a więc i graczy giełdowych skupia się na krótkim horyzoncie czasowym, to właśnie dlatego tak trudno jest długotrwale zarabiać w krótkim okresie czasu. Owa krótkowzroczność wynika z co najmniej dwóch powodów. Pierwszy łączę z umysłem i myśleniem - łatwiej jest wyobrazić sobie najbliższą przyszłość niż dalszą. Dalsza przyszłość staje się coraz bardziej abstrakcyjna i niepewna. Bliska przyszłość jest wyrazista, a przez to wydaje się bardziej rzeczywista. Drugi fakt łączę z emocjonalnością - zarówno najbliższa przeszłość jak i przyszłość silniej wpływa na nastrój i uczucia niż dalsza. Większe emocje są bardziej wyraziste, a przez to wydają się bardziej rzeczywiste. Te więc będą silniej podsuwać decyzje w najbliższej przyszłości. (W ten sposób docieramy do pojęcia heurystyk, o których będę pisał).

3. Podsumowując, ciekawa sytuacja. W krótkim terminie istnieje na giełdzie duży szum, być może uniemożliwiający trwałe zarabianie. W długim terminie wydaje się to bardziej prawdopodobne, jednak tylko w określonych przedziałach czasu (cyklach). Strategia kup i trzymaj bez spoglądania na cykle skazuje nas na ślepy los czy właśnie chaos, gdyż chaotyczność układu po pewnym czasie zaczyna dominować. Wynika z tego, że do trwałych zysków potrzebne jest racjonalne zarządzanie portfelem w dłuższym horyzoncie inwestycyjnym.

Pokazuje to, że giełda to nie prosty układ rozumiany przez ekonomistów jako błądzenie przypadkowe. Twierdzenie, że rynek kapitałowy jest efektywny, bo tak podpowiada logika, jest błędne. Historia nauki już nie raz dowiodła, że "chłopski rozum" to rozum intuicyjny, często posługujący się błędnymi przeświadczeniami, oparty na heurystycznym myśleniu. Przykładem jest mechanika kwantowa i jej nielokalność (zachowania dwóch cząstek oddalonych od siebie na dowolną odległość pozostają ze sobą skorelowane; cząstki są ze sobą splątane pomimo, że nie występuje pomiędzy nimi żadne obserwowalne oddziaływanie) oraz dualny charakter cząstek-fal (cząstka jest jednocześnie falą; w zależności od sytuacji przyjmuje własności cząstki bądź fali). Jeśli chodzi o ekonomię, to już wiemy, że modele liniowe, tak proste i eleganckie, są błędne. Potrzebne jest rozwinięcie w sobie nowej intuicji uwzględniającej nieliniowe zależności i sprzężenia zwrotne, prowadzące do tego, że niewielkie zmiany warunków początkowych wpływają wykładniczo na ewolucję obserwowanego obiektu.

niedziela, 21 czerwca 2009

Chaos a przypadek

Parę lat temu przedstawiłem pewnemu matematykowi parafrazę cytatu znajdującego się w nagłówku bloga : przypadek to porządek w nieporządku, natomiast chaos to nieporządek w porządku. Stwierdził, że się mylę, że jest odwrotnie. Jednak to on się mylił, być może nie rozumiejąc istoty chaosu.

Gdyby wyobrazić sobie przestrzeń, w której znajduje się zbiór przyciągania trajektorii - atraktor, w modelu losowym po pewnym czasie cała przestrzeń byłaby wypełniona trajektoriami. Przypominałoby to gaz rozchodzący się w całej przestrzeni. Jednak długo obserwując częstości pojawiania się trajektorii, zauważylibyśmy powstawanie praw probabilistycznych; trajektorie dążyłyby do pewnej średniej (Prawo Wielkich Liczb), a ta średnia jako zmienna losowa otrzymałaby rozkład gęstości prawdopodobieństwa zbiegający do normalnego (Centralne Twierdzenie Graniczne). Prawa probabilistyczne byłyby więc "wtórne" w stosunku do losowego charakteru samych wartości zmiennych. Porządek jest zawarty w nieporządku.

W modelu chaotycznym wszystkie wartości układu są całkowicie zdeterminowane i wzajemnie skorelowane. Trajektorie zamiast wypełniać całą przestrzeń, wypełniają fraktalnie (ułamkowo) tylko jej część. Przypominałoby to ciało stałe (w której cząsteczki są ze sobą powiązane) zanurzone w przestrzeni. Jednak precyzyjne określenie danej trajektorii jest fizycznie niemożliwe z faktu, że pomiar warunku początkowego musi być dokonany z nieskończoną dokładnością, co jest fizycznie niemożliwe. Starając się startować za każdym razem od tego samego punktu, nie udaje nam się powtórzyć eksperymentu. [Wówczas jedynie można rozpatrywać pewne średnie w czasie cechy charakterystyczne trajektorii chaotycznych. "Taką cechą charakterystyczną może być np. długość trajektorii T w określonym małym obszarze przestrzeni fazowej." (J. Awrejcewicz, Tajemnice nieliniowej dynamiki, Łódź 1997 str. 26). Pojawiają się więc prawa probabistyki tak jak byśmy mieli do czynienia z układem stochastycznym]. Jednak losowość byłaby wtedy wtórna w stosunku do zdeterminowanego charakteru układu. Nieporządek jest zawarty w porządku.

Dlaczego w modelu chaotycznym nieskończona dokładność jest niemożliwa? Wyjaśnienie dotyka mechaniki kwantowej: zasady nieoznaczoności Heisenberga oraz zasady Maxa Bohra. "Każdy stan realny układu określony jest zawsze z pewną niedokładnością i dlatego powinien być opisywany nie za pomocą liczb lecz rozkładu prawdopodobieństwa." (ibidem, str. 1).

W ekonometrii modele dzielą się ogólnie na dwa rodzaje: deterministyczne oraz stochastyczne. Modele dynamiczne, w tym nieliniowe, często utożsamiane z chaotycznymi, są w pełni zdeterminowane. Modele te najczęściej są równaniami różniczkowymi (gdy czas jest ciągły) lub różnicowymi (gdy czas jest okresowy - dyskretny). Popatrzmy na jeden z najstarszych modeli tego typu, układ Lorenza, czyli układ trzech nieliniowych równań różniczkowych modelujący w możliwie najprostszy sposób zjawisko konwekcji termicznej w atmosferze (proces przenoszenia ciepła).



gdzie:

X - amplituda ruchu wywołanego konwekcją
Y - różnica temperatur pomiędzy prądami wstępującymi i zstępującymi
Z - odchylenie spadku temperatury od przebiegu liniowego.
Parametry stojące przy zmiennych są bezwymiarowe i wyrażają kombinację pewnych stałych fizycznych.

Taki układ przejawia chaos, to znaczy jest wrażliwy na zmianę warunków początkowych, tylko przy odpowiednich parametrach.

Pomyślmy, czy analogiczny układ może zostać stworzony dla rynku kapitałowego? W poście "Czy na giełdzie panuje chaos? W kontekście wykładników Lapunowa" opisałem wyniki badań Petersa, które dowodziły istnienia kilkuwymiarowego atraktora na giełdach światowych. Układ Lorenza składa się z 3 wymiarów-zmiennych, podobnie jak rynek amerykański. Peters zauważa, że zmienne obecne w układach fizycznych, takie jak temperatura, ciśnienie powietrza czy gęstość stanowią sumę reakcji układu na inne siły zewnętrzne. Są to jednak globalne zmienne w miarę poddające się pomiarowi. Gorzej jest z rynkami. "Dlatego też trzy zmienne dynamiczne oddziałujące na amerykański rynek akcji (liczba 3 wynika z wymiaru fraktalnego równego w tym przypadku 2,33) nie okażą się łatwymi do identyfikacji lokalnymi czynnikami, takimi jak wskaźnik P/E lub PNB. Siły wprawiające w ruch rynek są raczej globalnymi charakterystykami łączącymi czynniki fundamentalne i techniczne."

Czyli zauważmy dwie rzeczy:

1. Realny nieliniowy układ dynamiczny jest nieprzewidywalny w dłuższym okresie czasu;
2. Nie znamy nawet jednego równania opisującego fluktuację kursów akcji (a muszą być co najmniej 3 równania, co wynika z Twierdzenia Poincare-Bendixona - wyjaśnienie w poście "Czy na giełdzie panuje chaos?")

W związku z dwoma wymienionymi problemami niewątpliwie użyteczne jest stosowanie modeli stochastycznych. Podobnie jak w przypadku modeli deterministycznych, powstały tzw. stochastyczne równania różniczkowe. Są tym bardziej użyteczne, że dają się dość łatwo rozwiązywać w przeciwieństwie nieliniowych modeli dynamicznych, gdzie jak pamiętamy rozwiązań szczególnych (czyli przy danym warunku początkowym) w postaci orbit okresowych jest nieskończenie wiele. (Natomiast istnieje dokładnie jedno rozwiązanie szczególne równania chaotycznego w postaci orbity nieokresowej, lecz nie jesteśmy w stanie podać wzoru na to rozwiązanie ze względu na ową nieokresowość).
Przy czym mówiąc o stochastycznych równaniach należy pamiętać, że przy danym warunku początkowym nie otrzymujemy rozwiązania w postaci konkretnej trajektorii ruchu, ale trajektorię stochastyczną, losową.

Poniższe wzory zaczerpnąłem z książki A.M-Kodzis Modelowanie procesów na rynku kapitałowym za pomocą multifraktali.

Stochastycznym równaniem różniczkowym procesu stochastycznego X(t) nazywamy równanie postaci:



gdzie to wartość oczekiwana, a to odchylenie standardowe.

dB(t) = B(t+dt) - B(t)
B(t) = B(t-1) + z(t)

B(t) - błądzenie losowe,
z(t) - zmienna losowa reprezentująca zakłócenia losowe, ma standardowy rozkład normalny, z(t)~N(0,1).

Prostym stochastycznym równaniem różniczkowym, w którym wartość oczekiwana i odchylenie standardowe są niezależne od przesunięcia w czasie (czyli stałe podczas przesunięcia w czasie) jest tzw. arytmetyczny ruch Browna:



Warto zauważyć, że powyższe równanie ma ekonomiczną interpretację:

zmiana ceny akcji = zmiana procesu "systematycznego" (wartość oczekiwana) + zmiana procesu "losowego" (odchylenie standardowe).

W rzeczywistości oba rozdzielone procesy są losowe, stąd wziął się cudzysłów.

Rozwiązaniem arytmetycznego ruchu Browna (przy danym warunku początkowym X(0) jest arytmetyczny proces ruchu Browna:



Za X(t) możemy przyjąć cenę akcji w t-tym okresie czasu.

Zwykły proces Browna okazuje się niedobrym opisem fluktuacji giełdowych, gdyż kursy w tym modelu mogą przyjmować ujemne wartości.

Jeśli założymy, że wartość oczekiwana (dryf) i zmienność są liniowymi funkcjami zmiennej X(t), wówczas dostajemy tzw. geometryczny ruch Browna:



którego rozwiązaniem przy X(0)>0 jest geometryczny proces ruchu Browna:



Przedstawione stochastyczne równania różniczkowe poprawnie modelują fluktuacje kursów tylko w sytuacji, gdy zmiany cen akcji posiadają rozkład normalny. Wtedy można opisywać stopy zwrotu jedynie za pomocą dwóch parametrów: wartości oczekiwanej i odchylenia standardowego.

Jednak, jeśli mamy do czynienia z układami chaotycznymi, wówczas może się zdarzyć, że stopy zwrotu nie podlegają rozkładowi Gaussa, lecz rozkładowi leptokurtycznemu, to znaczy takiemu, w którym wartości mało prawdopodobne dla rozkładu normalnego występują stosunkowo często. Obserwuje się również, że rozkłady te są prawostronnie skośne, co oznacza, że wzrosty kursów są częstsze niż spadki. Występują także inne własności stóp zwrotu, jak na przykład zjawisko grupowania wariancji, które polega na tym, że zarówno małe, jak i duże zmiany kursu danego instrumentu finansowego występują seriami. (Op.cit. J. Brzeszczyński, R. Kelm, Ekonometryczne modele rynków finansowych, W-wa 2002, str. 37).

W związku z istnieniem odchyleń w rozkładach stóp zwrotu oraz różnorodnością ich cech, powstało wiele modeli, mających zadanie "poprawić" geometryczny proces ruchu Browna. Na przykład K. Jajuga stwierdza, że szeregi czasowe stóp zwrotu charakteryzują się rzadkimi, ale znacznymi wahaniami. W celu wyeliminowania problemu Jajuga proponuje stosować pewne uogólnienie geometrycznego ruchu Browna, który w połączeniu z procesem Poissona potrafi lepiej odzwierciedlić dynamikę cen giełdowych. Proces taki w ekonomicznej interpretacji można zapisać następująco (Zob. K. Jajuga, Ogólny model dynamiki cen finansowych, Dynamiczne modele ekonometryczne, Toruń 2001, artykuł zamieszczony w Internecie, str. 9-11):

zmiana ceny akcji = zmiana procesu “systematycznego” (wartość oczekiwana)
+zmiana procesu „losowego” o częstych, niewielkich wahaniach (wariancja „zwykła”)
+zmiana procesu „losowego” o rzadkich, silnych wahaniach (wariancja „szokowa”).

Z drugiej strony w literaturze przedmiotu podnoszone są głosy, że wariancje stóp zwrotu instrumentów finansowych cechują się wieloma własnościami, a w szczególności niejednorodnością (niestałością w czasie). Na tej bazie powstało wiele konkurencyjnych modeli klasy ARCH (a także ich uogólnienie - GARCH), czyli opartych na procesie autoregresyjnym z warunkową heteroskedastycznością. Heteroskedastyczność oznacza, że wariancja składnika losowego jest zmienna w czasie.

Problem z tymi modelami polega na tym, że nie zakłada się istnienia rozkładu normalnego zmiennej losowej, ale wykorzystuje się parametr w postaci wariancji. Natomiast już wcześniej stwierdziłem, że tam gdzie zmienne losowe nie posiadają rozkładu normalnego lub jego pochodnych (jak np. rozkład t-studenta), tam wariancja i odchylenie standardowe są parametrami sztucznymi.

Albert Einstein odkrył, że w procesie błądzenia przypadkowego droga cząsteczki jest proporcjonalna do pierwiastka czasu:

droga cząsteczki = c*t^0,5, gdzie c - stała.

Łatwo zauważyć podobieństwo tego wzoru do wzoru na odchylenie standardowe.

Jednak Hurst wykazał, że większość zjawisk naturalnych, takich jak wylewy rzek, temperatury, opady, plamy słoneczne, podlega obciążonemu błądzeniu przypadkowemu. (Op. cit. E.E. Peters, Teoria chaosu a rynki kapitałowe, str. 65). Po przeskalowaniu wahań wokół średniego poziomu, powyższy wzór na s nie będzie zawierał liczby 0,5, lecz inną, nazywaną wykładnikiem Hursta, H. Liczba H jest miarą zmienności danej zmiennej. Jeśli 0 < H < 0,5 to system jest antypersystentny, to znaczy jeśli w danym okresie system wychylił się w górę, jest bardziej prawdopodobne, że w następnym okresie wychyli się w dół i na odwrót. Gdy 0,5 < H < 1, mamy do czynienia z szeregiem persystentnym, czyli wzmacniającym trend. Jeśli w danym okresie szereg osiągał dodatnie (ujemne) wartości, to istnieją szanse, że w następnym okresie będą one również dodatnie (ujemne). (Peters, ibidem, str. 67). Dla H = 0,5 brak korelacji pomiędzy obserwacjami.

W standardowym procesie Browna dla "zachowania kształtu" wykresu podczas poszerzania wzdłuż osi czasu a-krotnie, amplitudę należało zwiększyć (a^0,5)-krotnie ("dzwon Gaussa" rozciągał się). Istnieją jednak procesy, dla których podczas poszerzania osi czasu a-krotnie, amplitudę należy powiększyć (a^H)-krotnie, przy czym H mieści się w przedziale (0,1). (Op.cit. A.Mastalerz-Kodzis, ibidem). Właśnie taki proces stochastyczny nazywany jest ułamkowym procesem ruchu Browna. Wzór na ułamkowy (fraktalny) proces ruchu Browna jest "przerażający":



dla t większego lub równego 0.

(Gdyby ktoś chciał wiedzieć co znaczy symbol F bez dolnej kreski już mówię: to funkcja gamma).

Jednak, jak łatwo się domyślić, i te procesy przestały wystarczać w skomplikowanym świecie ruchów cen akcji. Stosunkowo niedawno uogólniono ułamkowy proces ruchu Browna na multiułamkowy proces ruchu Browna. Powstaje on przez zastąpienie wykładnika Hursta, stałego dla całego procesu, funkcją zwaną funkcją Holdera zależną od czasu. (Por. ibidem, str.80). Proces ten generuje tzw. multifraktale. Multifraktal to splot różnych fraktali. Ostatnie lata badań pokazują, że fluktuacje finansowe tworzą o wiele bardziej skomplikowane struktury niż pojedynczy fraktal - multifraktale. W tym sensie można powiedzieć, że klasyczny ruch Browna jest monofraktalem. Należy podkreślić, że mamy na myśli nie fraktal w ścisłym sensie, ale tzw. fraktal losowy. Oznacza to, że na przykład proces ruchu Browna jest procesem samopodobnym: przy powiększeniu części obserwacji zawsze dostajemy dokładnie ten sam rozkład prawdopodobieństwa.
Multiułamkowy proces ruchu Browna jest zdefiniowany wzorem:



W końcu, również model multifraktalny został uogólniony na tzw. uogólniony multiułamknowy proces ruchu Browna. Równanie tego procesu na razie sobie daruję.

Jak widać przechodzimy do coraz to bardziej skomplikowanych modeli. Możliwe, że równania te dalej będą uogólniane. Zauważmy, że płynnie przeszliśmy od pojęcia czystej losowości (klasyczny ruch Browna, który jest szczególnym przypadkiem ułamkowego ruchu Browna) do geometrii fraktalnej (ułamkowy i multiułamkowy ruch Browna). Fraktale okazują się być łącznikiem pomiędzy procesami losowymi a procesami chaotycznymi. W szczególności atraktor chaotyczny jest fraktalem (nie jest to jednak fraktal losowy z powodu deterministycznego charakteru układów chaotycznych). Jak na razie wydaje się, że stochastyczne równania różniczkowe są lepszą drogą do "opanowania" chaosu na giełdzie niż równania nieliniowej dynamiki, których postacie leżą poza naszym zasięgiem.

niedziela, 14 czerwca 2009

Czy żyjemy w atraktorze?



Załóżmy, że tak, a więc że żyjemy w układzie dynamicznym. Możemy utożsamić nasz globalny atraktor z "globalnym przeznaczeniem", a lokalny z "lokalnym przeznaczeniem". Przeznaczenie będzie tu oznaczać, że będziemy zamknięci w pewnym systemie możliwych rozwiązań. Globalność oznacza, że jesteśmy ograniczeni co najmniej genami. Lokalność oznacza, że dopóty dopóki parametry naszego systemu nie ulegną zmianie, nie będziemy w stanie wyjść poza atraktor.

Z powyższego wynika, że przeznaczenie nie może być utożsamiane - co zazwyczaj robimy - z jednym i tylko jednym rozwiązaniem (szczególnym). W świecie równań różniczkowych istnieją dwa typy rozwiązań: ogólne i szczególne. Ogólne rozwiązanie to wszystkie możliwe trajektorie, jakimi możemy podążać. Rozwiązanie szczególne wymaga podania warunków początkowych - jest to dana trajektoria przy danym punkcie początkowym.

Jedną z cech systemu dynamicznego jest występowanie rozwiązań okresowych. Zauważymy to szybko w naszym życiu. Pewne sytuacje, czynności są cykliczne. Na giełdach występują hossy i bessy.

Trajektorie - jako rozwiązania, które muszą być jednoznaczne - nie mogą się przecinać. Twierdzenie Cauchy'go lub Picarda stwierdza, że gdy spełniony jest tzw. warunek Lipschitza (wartość bezwzględna z różnicy x1-x2 danej funkcji pomnożona przez pewną stałą jest większa lub równa wartości bezwzględnej z różnicy wartości tej funkcji f(x1)-f(x2)), to istnieje dokładnie jedno rozwiązanie równania dla warunku początkowego x0. Nie jest to wygórowany warunek, przede wszystkim dlatego, iż posługujemy się tu równaniami różniczkowymi; istnieje również twierdzenie mówiące, że gdy funkcja jest różniczkowalna, wtedy istnieje jednoznaczne rozwiązanie równania dla x0.

Załóżmy, że atraktor jest dwuwymiarowy. Skoro trajektorie nie mogą się przecinać, a zawarte są w pewnym ograniczonym obszarze, to jedyną możliwą drogą jest utworzenie cyklu granicznego lub dążenie do jednego punktu stałego. Stanowi o tym twierdzenie Poincare-Bendixona. Mówiąc krótko, gdybyśmy żyli w dwuwymiarowej przestrzeni fazowej, to albo przeżywalibyśmy ciągle to samo w sposób okresowy, albo dążylibyśmy do tego. Dla każdego wymiaru przestrzeni fazowej, istnieje oddzielny wykładnik Lapunowa (L). Dla orbity okresowej znajdującej się w dwuwymiarowej przestrzeni fazowej, jeden L=0, a drugi L<0. Gdyby każdy z dwóch L<0, dążylibyśmy do jednego stanu, do braku ruchu. Wydaje się, że ani jeden, ani drugi przypadek nie jest realny. Raczej sytuacje życiowe są periodyczne, ale nie do końca. Wydają się chaotyczne (na układ działa pewna okresowa siła wymuszająca). Chaotyczny atraktor musi być co najmniej trójwymiarowy. Wtedy wykładniki Lapunowa takiego układu mają znaki odpowiednio (+,0,-).

Gdy system jest chaotyczny, dla danego warunku początkowego pojawiają się rozwiązania okresowe, lecz jest ich nieskończenie wiele, zatem orbity są niestabilne. Niestabilność i chaotyczność wynika z tego, że gdy już trzy zmienne oddziałują na siebie, automatycznie pojawiają się sprzężenia zwrotne. W życiu występują sprzężenia zwrotne pomiędzy wieloma elementami, stąd - jeśli tylko największy z L>0, życie staje się chaotyczne.

Stąd możemy przejść do drugiej cechy, jaką jest wrażliwość na zmianę warunków początkowych. Nasze teraźniejsze decyzje bardzo silnie oddziałują na naszą przyszłość.

Przykład. Załóżmy, że zaplanowaliśmy (ale tylko w głowie), że pójdziemy w pewne miejsce o określonej godzinie. Wystarczy jednak, że przez krótką chwilę "zapomnimy" o dokładnej porze, jaką wyznaczyliśmy ze względu na jakąś czynność, która nas pochłonęła. Daliśmy sobie więc 5 minut więcej czasu. Przez to, po tych 5-ciu minutach zaczynamy się spieszyć, żeby zdążyć. Pośpiech łatwo prowadzi do błędów: a to coś wylejemy, nie umyjemy się czy nie ubierzemy się dobrze albo wyjdziemy zapominając wziąć ważną rzecz ze sobą. Każdy kolejny błąd kumuluje się. Dając sobie te 5 minut więcej na początku, prawdopodobnie damy sobie jeszcze 2 minuty, a potem jeszcze minutę. Może to spowodować, że spóźnimy się na zaplanowane zajęcie. A gdy się spóźnimy, to zaczynamy się stresować. Emocje prowadzą do kolejnych błędów. Ale gdy dojdzie do emocji, to te jeszcze się nasilają zgodnie ze sprzężeniem zwrotnym.

Oczywiście jest to przykład - powiedzmy negatywny. Może być również pozytywny. Wtedy niewielka poprawa może przynieść w przyszłości wielkie korzyści.

Ale jeśli mówimy o tym negatywnym przykładzie, zauważmy, że jedno wydarzenie w życiu nie doprowadza zazwyczaj do katastrofy (podobnie zresztą jak jedno pozytywne nie przynosi całkowitego sukcesu), dochodzi do punktu krytycznego, a potem następuje powrót do sytuacji wyjściowej (albo zbliżonej do niej) ze względu na występowanie cykliczności w naszym życiu. Jeśli coś się popsuje, często mamy jeszcze szansę to naprawić (albo gdy było dobrze popsuć). Występowanie cykliczności jest skutkiem ograniczoności przestrzeni rozwiązań.

W ten sposób dochodzimy do trzeciej cechy układu chaotycznego, jaką jest ograniczony obszar możliwości. Nie jesteśmy w stanie wyjść poza atraktor, a jeśli nawet wyjdziemy, to szybko do niego wracamy, gdyż jest to zbiór przyciągania. Chwilowe wyjście poza atraktor może być wynikiem siły wymuszającej z zewnątrz układu. Jeśli założyć, że wykładniki Lapunowa przynajmniej niektórych wymiarów systemu są ujemne, wyjaśnia się, dlaczego życie ludzi, którzy przypadkowo wygrali dużą sumę pieniędzy w grach hazardowych, nie zmienia się: siła wymuszająca nie pochodziła od nich samych (od ich pracy), stąd szybko powracają do swoich dawnych nawyków, starego myślenia itp. Podobnie, jeśli spekulant przypadkowo zdobędzie fortunę na giełdzie, jego przeznaczenie się nie zmieni. Robert Kiyosaki napisał, że gdyby zamienić miejscami bogatego i biednego, tak że bogatemu zabrać bogactwo i oddać je biednemu, to po paru latach bogaty znów stałby się bogaty, a biedny znów biedny. Uwolnić się od cech systemu jest trudno.

Aby doszło do zmiany stylu życia, potrzeba zmiany lokalnych parametrów układu. Jeśli osoba postanowiła zmienić swoje życie, na przykład dokonać jakiegoś przedsięwzięcia niemieszczącego się w jej schematach, to musi zacząć pracować przede wszystkim nad sobą. A samo to pracowanie wymaga energii i pracy. Jeśli po czasie efekty tej pracy są widoczne, wówczas parametry się zmieniły. Lokalne przeznaczenie-atraktor zmienia się, co oznacza, że zmieniły się przyzwyczajenia i skłonności. Parametry zmieniają się, gdy pewne wymuszone zachowania powtarzają się, co dowodzi, że należy być konsekwentnym w swoich działaniach. Pokazuje to również, dlaczego jeden dodatkowy kamyk może spowodować rozsypanie się góry kamieni (katastrofę). Kamyk oznacza siłę wymuszającą.

Jaka jest różnica pomiędzy zmianą warunków początkowych a zmianą parametrów układu? Na warunki początkowe mamy silny wpływ - to właśnie jest to, co zrobimy za chwilę i wynika z naszej samoświadomości. Jeśli L>0 to każda zmiana w naszym życiu będzie się potęgować (a właściwie rosnąć wykładniczo), jeśli L=0, zmiana później wyniesie tyle, ile na początku, jeśli L<0, nic się zmieni w naszym życiu, czyli ciągle wracamy do tego samego zachowania. Wartość L zależy od naszej wrażliwości na małą jednorazową zmianę. Z kolei zmiana parametrów systemu odbywa się na poziomie nieświadomości, wymaga niemal zmiany struktury umysłu: charakteru, nawyków, sposobu myślenia. Aby zmienić swoje parametry, potrzeba wysokiej samoświadomości i dużej otwartości umysłu. Zapewne trzeba "widzieć", to co się dzieje poza atraktorem i dążyć do tego. Dodam mimo wszystko, że tego naprawdę trzeba chcieć, bo jeśli nie mamy jasności czego chcemy, wówczas przestajemy kontrolować nasze życie, zdajemy się więc na los. Z kolei globalnych parametrów związanych z "globalnym przeznaczeniem" nie jesteśmy w stanie zmienić. Dlatego jedynie co możemy zrobić, to skupić się na lokalnych parametrach.

W kontekście rynku kapitałowego powstaje ciekawe pytanie czy można na atraktor patrzeć fraktalnie, to znaczy czy "atraktor lokalny" zawiera się w "atraktorze globalnym". Wówczas patrzylibyśmy na każdy cykl jak na osobny atraktor. Wyjście poza atraktor hossy czy bessy wymagałoby wyłamania się z parametrów. Kiedy więc obserwuję, że na giełdzie trwa rajd od kilku miesięcy i trend spadkowy został przełamany, stwierdzam, że parametry bessy zmieniły się, stając się parametrami hossy. Jest wielu takich, którzy twierdzą, że powstał znowu balon, który musi prędzej czy później pęknąć. Giełdę tworzą jednak ludzie ("sprzężeni zwrotnie"), jeśli więc ich "parametry giełdowe" się zmieniły, to można założyć, że nie będzie im tak łatwo powrócić do starych. Siła wymuszająca stałe spadki musi być cykliczna, a nie jednorazowa. Nie zmienia to jednak faktu, że ze względu na okresowość rozwiązań układu, większe spadki będą musiały się pojawić, a ze względu na ich niestabilność - przy założeniu chaotyczności układu - nie wiadomo, kiedy to nastąpi.

poniedziałek, 8 czerwca 2009

Czy na giełdzie panuje chaos? W kontekście wykładników Lapunowa

W poście "Wykładnik Lapunowa jako stopa procentowa nieprzewidalności" (post uległ modyfikacji) wyprowadziłem wzór na wykładnik Lapunowa, a także starałem się wyjaśnić jego istotę. Poruszyłem również problem ograniczoności przestrzeni poruszania się orbit.

Okazuje się, że w chaotycznych układach dynamicznych istnieją orbity okresowe, czyli powtarzające swój ruch i jest ich nieskończenie wiele. Ta nieskończoność oznacza, że okresowość orbit zmienia się, czyli orbity stają się niestabilne. Dla dowolnie różnych warunków początkowych, powstają oczywiście inne orbity. Na przykład w pracy "Analiza i przetwarzanie sygnałów chaotycznych" Z. Galiasa dowodzi się istnienia nieskończenie wielu rozwiązań okresowych w ciągłych układach dynamicznych.

Orbity okresowe powstają dlatego, że trajektorie są ograniczone pewnym obszarem przestrzeni fazowej (muszą kiedyś zawrócić), co wynika z założenia, że mamy do czynienia z układem dyssypatywnym, rozpraszającym energię. Jeśli układy nie są dyssypatywne, trajektorie mogą się rozpraszać do nieskończoności.

Notka: Prigogine wykazał, że procesy dyssypacji mogą zachodzić tylko w układach otwartych, a więc przy nieustannej wymianie masy i energii z otoczeniem. - Por. M.K. Kalinowski w artykule: "Na tropach życia, czyli jak przebiegała ewolucja materii we Wszechświecie", str. 12-13. Kalinowski stwierdza: Wydaje się, że wszystkie układy biologiczne spełniają te warunki; można je zatem traktować jako struktury dyssypatywne, tworzące się na Ziemi w ciągłym strumieniu energii słonecznej.

Niedawno wpadłem na ciekawy artykuł, który nie tylko zgrabnie tłumaczy niektóre zagadnienia teorii chaosu, ale także odnosi ją do rynku kapitałowego: "Identyfikacja chaosu deterministycznego w polskich szeregach finansowych" Jacka Kwiatkowskiego oraz Witolda Orzeszka. Autorzy sprawdzają hipotezę czy na naszej giełdzie panuje chaos. Polecam ten artykuł zainteresowanym, można go ściągnąć z internetu. Sądzę, że przeczytanie tej pracy wraz z "Teorią Chaosu a rynki kapitałowe" E.E. Petersa (która niektóre kwestie pomija) może dać solidne pojęcie o teorii chaosu.

Jest sporo metod badających występowanie chaosu. Chciałbym zademonstrować metodę wykorzystującą wykładniki Lapunowa.

Jak pamiętamy, wzór na błąd końcowy trajektorii w układzie dynamicznym wynosi
błąd początkowy*exp(L*n),
gdzie n to liczba okresów lub iteracji, a L - wykładnik Lapunowa.

Zlogarytmujmy to wyrażenie obustronnie i przekształćmy:

ln(błąd końcowy) = ln(błąd początkowy*exp(L*n))
ln(błąd końcowy) = ln(błąd początkowy) + ln(exp(L*n))
ln(błąd końcowy) = ln(błąd początkowy) + L*n

Dostajemy więc funkcję regresji liniowej, w której n jest zmienną niezależną, a L jest nachyleniem funkcji (postać funkcji y=a+bx). Jest to bardzo ważna informacja. Jeśli znamy błąd końcowy dla t-tej iteracji, to po dokonaniu kilku iteracji - kiedy to błąd końcowy rośnie - automatycznie poznamy wartość L.

Powstaje więc pytanie, jak znaleźć błąd końcowy przy obliczaniu trajektorii kursu, nie znając przecież równania ruchu.

Kiedy mówimy, że dwa dowolnie bliskie punkty początkowe "rozjeżdżają się" wykładniczo w przestrzeni fazowej, to musimy dokładnie zrozumieć czym jest przestrzeń fazowa.

Z Wikipedii:

Przestrzeń fazowa – w matematyce i fizyce, przestrzeń wszystkich możliwych stanów w jakich może znajdować się badany układ. Każdy stan układu jest jednym punktem tej przestrzeni.
(...)
Przestrzeń fazowa jest zwykle wielowymiarowa i każdy stopień swobody układu jest reprezentowany jako jej osobny wymiar. Kombinacja parametrów układu w danej chwili odpowiada więc położeniu punktu w tej przestrzeni. Jeśli ewolucja układu jest w pełni zdeterminowana przez te parametry, można wyznaczyć w przestrzeni trajektorię złożoną z kolejnych stanów w jakich będzie się znajdował układ. Kształty tych trajektorii pozwalają dokładnie opisywać różne własności układu.

Dla prostych układów, takich jak cząstka poruszająca się w jednym kierunku, przestrzeń fazowa może mieć mało wymiarów, np. dwa – położenie i prędkość. W ogólności wymiar przestrzeni fazowej może być bardzo duży.


Tak więc, jeśli osobnymi wymiarami są położenie i prędkość, to trzeba zauważyć, że zmienne niezależne opisujące dany wymiar są ze sobą pośrednio związane: prędkość zależy od przebytej przez ciało drogi, a droga od położenia.

Gdy badamy szeregi czasowe kursów akcji, to zmienna w postaci kursu stanowi analogię charakterystyki ruchu w układzie fizycznym; tak jak fundamentem do opisania ruchu ciała jest znajomość prędkości i położenia, tak fundamentem do opisania fluktuacji kursowych są kursy akcji w kolejnych jednostkach czasu. Zamiast mówić o jednej zmiennej w postaci ceny akcji, możemy powiedzieć o wielu zmiennych w postaci ceny akcji w kolejnych okresach. Każdy kolejny t-ty okres rodzi kolejny t-ty wymiar, czyli kolejną zmienną. Jednocześnie wszystkie zmienne zależą od siebie, każdy kurs wpływa na następny. Każda dalsza zmienna cenowa jest pośrednio zależna od dużo wcześniejszych zmiennych.

Z powyższego wynika, że zastępujemy zmienną przestrzenną zmienną czasową. Skoro tak, to dwa dowolnie bliskie czasowo punkty będą się rozchodzić wykładniczo w przestrzeni fazowej.

Bierzemy więc dany kurs okresu 1 i patrzymy jak szereg czasowy ewoluuje w kolejnych okresach (1,2,...T). Następnie bierzemy kurs z okresu 2 i znów patrzymy, jak szereg ewoluuje (2,...T+1). Powtarzamy ten proces n-1 razy. Czyli

(1,2,...T)
(2,...T+1)
(3,...T+2)
...
(n...(T+n-1)).

W ten sposób otrzymujemy n "nadokresów", co znaczy, że otrzymujemy n-wymiarowy szereg czasowy. Dzięki znajomości elementów każdego wymiaru, możemy utworzyć trajektorię szeregu. 1-wymiarowy szereg byłby złożony z (1,2,...T) elementów. Obserwowalibyśmy ewolucję kursu w T okresach. 2-wymiarowy szereg byłby złożony z elementów odpowiednio dla każdego wymiaru (1,2,...T) i (2,...T+1). Ewolucja odbywałaby się również w T okresach, ponieważ każdemu elementowi pierwszego wymiaru możemy przypisać element z drugiego wymiaru. W ogólności otrzymujemy więc n-wymiarowy kurs akcji w T okresach, czyli trajektorii o T iteracjach.

Powstaje praktyczne pytanie, ile należy uwzględnić wymiarów, czyli ile dokonać czasowych przesunięć. Pamiętamy, że wszystkie trajektorie danego dyssypatywnego układu dynamicznego, niezależnie od warunków początkowych, dążą do pewnego zbioru ograniczonego, czyli atraktora (znajdującego się w przestrzeni fazowej). Jeśli więc atraktor jest strukturą n-wymiarową, to trajektorie muszą być n-wymiarowe. Jeśli zatem zaczniemy wprowadzać nowe wymiary, a atraktor przy pewnym wymiarze przestanie się zmieniać, to znaczy, że trajektoria nie dociera do kolejnych wymiarów. Jest to tzw. twierdzenie Takensa o zanurzaniu. K. Jajuga w pracy "Teoria chaosu w analizie finansowych szeregów czasowych - aspekty teoretyczne i badania empiryczne" pisze:

Określenie wymiaru atraktora odbywa się przez zwiększanie wymiaru szeregu danych, zwanego wymiarem zanurzenia oraz określenie dla każdego z otrzymywanych szeregów danych wymiaru korelacyjnego. Gdy przy kolejnym zwiększeniu wymiaru danych wymiar korelacyjny nie zwiększa się, oznacza to, że jest to właśnie poszukiwany wymiar.

Wymiar nazywany jest korelacyjnym, gdyż zmienne, jak pisałem, są skorelowane.

Edgar E. Peters w swojej znanej książce stwierdza:

liczba wymiarów atraktora nie zmienia się tak długo, jak długo umieszczamy go przestrzeni wyższej niż on sam. Płaszczyzna wytyczona w trójwymiarowej przestrzeni w dalszym ciągu ma dwa wymiary. (...) W prawdziwym błądzeniu przypadkowym brak korelacji między punktami, w związku z czym wypełniają one przestrzeń, w której zostają umieszczone wskutek przypadkowych ruchów na wszystkie strony (...) Gaz umieszczony w większej przestrzeni rozprzestrzenia się się do chwili, aż wypełni całą dostępną objętość.
(str. 152)

W tym fragmencie podkreślono różnicę jaką można zaobserwować pomiędzy procesem chaotycznym a losowym.

Pierwszy sposób, jaki się nasuwa przy weryfikacji hipotezy istnienia chaosu, polega na sprawdzeniu czy trajektorie zdążają do n-wymiarowego atraktora na podstawie zanurzania ich w kolejnych wymiarach. W tym celu oblicza się wymiar korelacyjny. K. Jajuga w cytowanej pracy dokonuje tego dla giełdy warszawskiej, jednak dla małej częstości danych i dla bardzo młodej giełdy (20.10.1994-6.05.1997). Wyniki są takie, że "przy analizie rezultatów wymiaru korelacyjnego widać brak wyraźnej zbieżności wymiaru korelacyjnego do jakiejkolwiek liczby przy zwiększaniu wymiaru zanurzenia."

Wróćmy jednak do początkowego zagadnienia, a mianowicie do obliczenia wykładnika Lapunowa. Zauważmy, że gdy rozwinęliśmy swoją analizę na n wymiarów, musimy uwzględnić ten fakt przy obliczaniu L. Mianowicie, dla każdego wymiaru istnieje osobny wykładnik Lapunowa. Dwie trajektorie mogą się rozbiegać lub zbiegać z różnych punktów widzenia - różnych wymiarów.

Okazuje się, że najwyższy wykładnik świadczy o występowaniu lub niewystępowaniu chaosu. Jeśli jest on dodatni, atraktor staje się chaotyczny. Problem polega na tym, że nie wiemy w którym wymiarze szukać najwyższego wykładnika. Powstał tzw. algorytm Wolfa, który umożliwia obliczenie tzw. lokalnego wykładnika Lapunowa. Nie będziemy jednak tego rozważać.

Weźmy za to średnią z odległości dwóch różnych stanów (punktów trajektorii) w n wymiarach i zobaczmy jak ta odległość ewoluuje. Jak już wiemy, po zlogarytmowaniu, powinniśmy dostać funkcję liniową, zależną od kolejnych iteracji. W dalszych iteracjach odległość między stanami powinna się ustabilizować, gdyż pozostają one w atraktorze (funkcja liniowa pozostaje, tylko zmienia się jej nachylenie). Oto rysunek reprezentujący logarytm średnich odległości trajektorii dla tzw. odwzorowania logistycznego wzięty z pracy Kwiatkowskiego i Orzeszka:



Z rysunku można wysnuć, że odwzorowanie logistyczne jest układem chaotycznym.

Jeśli okazałoby się, że układ jest czysto losowy, nachylenie funkcji nie będzie stałe (funkcja nie będzie liniowa), czyli L będzie się zmieniać w kolejnych iteracjach i stanie się zmienną losową podlegającą rozkładowi normalnemu. Ponieważ, gdy zwiększamy wymiar (ilość) czasu, zmienna będzie posiadać większy zasięg "ruchu", rozkład normalny ulega dyfuzji w czasie - wraz z nową jednostką czasu, wariancja zmiennej L rośnie liniowo w czasie. Liniowy wzrost wynika z tego, że średnio rzecz biorąc w każdym okresie procesu losowego o niezależnych zmiennych wariancja powinna być identyczna. Czyli suma dwóch okresów powinna dać sumę dwóch wariancji w tych okresach, suma n okresów -> sumę n wariancji. Sumę wariancji w n okresach można zapisać jako n*wariancja. Literka n jest stałym nachyleniem funkcji liniowej, a wariancja jej zmienną.

Z powyższego wynika, że odchylenie standardowe - pierwiastek z wariancji - rośnie wraz z pierwiastkiem z czasu. Jednakże pamiętamy, że skupiamy się na logarytmie odchyleń, to znaczy obliczamy logarytm błędu końcowego. Z kolei łatwo się przekonać (na przykład korzystając z arkusza kalkulacyjnego), że wykres logarytmu z n iteracji wygląda identycznie jak logarytm pierwiastka z n iteracji, lecz ten drugi ma dwukrotnie zmniejszoną skalę. Wynika to z własności logarytmów:
log(n^0,5) = 0,5*log(n). Oto niezwykłe możliwości tych tworów matematycznych.

Co to oznacza? Możemy stworzyć wykres logarytmu odchylenia standardowego reprezentującego funkcję logarytmu kolejnych iteracji. Jeśli obserwacje potwierdzą, że wraz z każdą iteracją logarytm błędu końcowego jest faktycznie funkcją logarytmiczną (a pamiętamy, że dla układu dynamicznego logarytm błędu końcowego jest funkcją liniową), to mamy "pewność", że L jest zmienną losową, czyli nasz układ jest błądzeniem przypadkowym.

Kwiatkowski i Orzeszko badali występowanie chaosu w indeksie WIG w okresie od lipca 1994 do 15 stycznia 2001, składającym się 1618 obserwacji. Nie są to więc najnowsze dane. Oto graficzny wynik analizy i jego opis:



Autorzy również poddają badaniu średni kurs dolara NBP. Pominę już ten rysunek, bo jest podobny.

Oto wnioski autorów:

Analizując rysunki 5 i 6 można stwierdzić, że zarówno dla kursu WIG, jak i dla dziennego, średniego kursu dolara NBP występuje brak wyraźnej zależności liniowej między logarytmem średnich odległości sąsiednich stanów a liczbą iteracji. Współrzędne punktów układają się wzdłuż krzywej logarytmicznej przecząc tym samym hipotezie, że badane zjawiska są generowane przez chaotyczne układy dynamiczne.

Wnioski identyczne jak K. Jajugi.

Czy powyższe oznacza brak chaosu? Nie. Po pierwsze ja z rysunku nie widzę czy po kilku iteracjach funkcja staje się liniowa czy faktycznie jest logarytmiczna. Ale załóżmy, że autorzy dobrze zinterpretowali wyniki (które nie opierają na rysunkach, lecz na liczbach). Po drugie należy zadać pytanie czy liczba danych jest wystarczająca. Wiąże się z tym problem wymiaru zanurzenia. Wymiar zanurzenia w przedstawionych badaniach wyniósł 2 i 5. Skąd wiadomo czy giełda nie jest układem o 10, 20 czy 100 wymiarach? Żeby to jednak sprawdzić, należy mieć dużo większą próbkę, gdyż kolejne wymiary wynikają z szeregów czasowych.

Jednak wydaje się, że tak wielkie wymiary raczej nie występują. Wymiar korelacyjny jest dobrym przybliżeniem wymiaru fraktalnego. Wymiary fraktalne, czyli ułamkowe, stanowią przejście pomiędzy wymiarami całkowitymi. Dla wymiaru 0 < D < 1 dostajemy coś pomiędzy punktem a prostą. Dla 1 < D < 2 dostajemy coś pomiędzy prostą a płaszczyzną. Chodzi o to, że gdy zaczniemy powiększać dany obszar okaże się, że nie zastaniemy w pierwszym przypadku linii ciągłej, tylko zbiór małych odcinków; ani w drugim płaszczyzny, tylko zbiór poprzedzielanych płaszczyzn (np. prostokątów). Te po powiększeniu znów okazują się zbiorem fragmentów mniejszych obszarów.

Peters obliczył na podstawie danych od stycznia 1950 do lipca 1989 między innymi wymiar fraktalny indeksu S&P500 (D=2,33), od 1959 do 1990 MSCI Japonii (D=3,05), MSCI Niemiec (D=2,41) i SCI Wielkiej Brytanii (D=2,41). Oznacza to, że możliwe jest modelowanie dynamiki rynku USA za pomocą 3 zmiennych, Japonii za pomocą 4 zmiennych, a Niemiec 3 zmiennych. Peters stwierdza, że badane rynki są systemami o małej liczbie wymiarów, co "stwarza obiecującą perspektywę dla dalszych badań: są to systemy dające się rozwiązywać i można mieć nadzieję, że w niedalekiej przyszłości uda się nam te rozwiązania znaleźć" (str. 166).

Już z powyższego akapitu można wysnuć, że skoro wymiar fraktalny przestrzeni fazowej został wyznaczony, a ten stanowi przybliżenie wymiaru korelacyjnego, wymiar korelacyjny mówi o liczbie stopni swobody układu (czyli "niezależnych" zmiennych), to razem to oznacza, że atraktor istnieje.
Giełda amerykańska, japońska, niemiecka i brytyjska były w okresie badawczym systemami dynamicznymi zadanymi tylko kilkoma zmiennymi.


Z tego też wynika, że wykładnik Lapunowa (jako nachylenie funkcji liniowej) powinien dążyć do pewnej stałej. Tak rzeczywiście jest dla wymienionych rynków. Obliczenia Petersa wskazują, że największy wykładnik Lapunowa L1 S&P500 dąży do 0,0241. Oznacza to, że znając stopę zwrotu po 1 okresie, tracimy zdolność do prognozowania po okresie równym 1/0,0241, czyli po niecałych 42 okresach.

Peters nie wyjaśnia zbyt dobrze, skąd bierze się taka relacja. Zapewne chodzi o to, że liczba 1 oznacza 100%, czyli błąd całkowity - całkowitą nieprzewidywalność. Ile trzeba przemnożyć przez 2,41%, czyli średni błąd, aby dostać błąd kompletny 100%? Właśnie przez 100/2,41 = 41,5. Peters bierze za okres 1 miesiąc, co powoduje, że w USA tracimy zdolność do prognozowania po ok. 4 latach. Czyli tyle, ile często trwa dany cykl (występuje długoterminowa pamięć). Dla Wielkiej Brytanii L1 = 0,028 (pamięć 36 miesięcy), Japonii L1 = 0,0228 (44 miesiące). Systemy te w okresie badawczym były więc chaotyczne (chaos występuje, gdy L>0). Dla rynku niemieckiego danych okazuje się za mało.

Choć danych w polskich szeregach finansowych, w porównaniu z USA, jest mało, dobrze byłoby odnaleźć aktualne wyniki badań występowania chaosu na GPW.

Na dziś można powiedzieć, że polski rynek kapitałowy jest chaotyczny, co wynika z analiz N. Siemieniuka w pracy "Fraktalne właściwości polskiego rynku kapitałowego", Wydawnictwo Uniwersytetu w Białymstoku, Białystok 2001, s. 163. Autor ze względu na dużo mniejszą liczbę danych w porównaniu z zagranicznymi giełdami, brał za okres 1 tydzień. Największy wykładnik Lapunowa został oszacowany na poziomie 0,0046/tydzień. Czyli rynek tracił pamięć po 218 tygodniach, czyli 55 miesiącach.

sobota, 23 maja 2009

Teoria logperiodyczna

Dziś chciałbym pobieżnie zweryfikować jedną teorię naukową - teorię funkcji logperiodycznej. Najpierw jednak zacytuję dwa fragmenty artykułów poświęconych ekonofizyce. W artykułach tych fizycy szczycą się swoimi osiągnięciami w prognozowaniu cen instrumentów finansowych. Czy rzeczywiście nie muszą zachowywać pokory?

Fragment artykułu z serwisu Racjonalista.pl (strona http://www.racjonalista.pl/index.php/s,38/t,8977):

Fizycy chronią nasze portfele (18-09-2006)

Na początku maja tego roku warszawska giełda przeżyła kryzys. Dzięki analitykom finansowym inwestorzy nie stracili fortun, a kryzys nie zamienił się w krach gospodarczy. "To również zasługa fizyków" - przekonywał uczestników X Festiwalu Nauki prof. UW dr hab. Ryszard Kutner z Instytutu Fizyki Doświadczalnej. Kiedy narastający giełdowy bąbel pękł, ceny walorów finansowych drastycznie spadły. Te zdarzenia były oczekiwane i jeszcze zanim nastąpił spadek, inwestorom można było powiedzieć, jak mają się zachować.

"Dziś wiemy, że najlepszą strategią kryzysową jest strategia przetrwania. Najlepiej nie robić nic i czekać, aż rynek wróci do normy po okresie załamania" - mówi Kutner. Jak podkreśla, skuteczne i precyzyjne przewidywanie zdarzeń na światowych giełdach od setek lat stanowiło marzenie naukowców - nie tylko matematyków czy ekonomistów, ale również fizyków.

Ekonofizyka jako wydzielona dziedzina wiedzy, pojawiła się w drugiej połowie lat 80-tych. Dziś liczne grono ekonofizyków, opierając się na regułach matematyczno-fizycznych, analizuje układy złożone, jakimi są rynki finansowe, i ruchy masowe, jakie się tam odbywają.

Obrazowym przykładem zastosowania praw fizyki do analizy rynkowej, są badania nad zjawiskiem relaksacji, czyli reakcji na osiągnięcie przez indeks giełdowy punktu maksymalnego. "Porównujemy zachowania inwestorów do reakcji biopolimeru, na przykład ciasta makowcowego, na rozciąganie. Na tej podstawie budujemy wzór funkcji, która doskonale opisuje to zjawisko giełdowe" - tłumaczy Kutner.

Wkład fizyków w badania nad rynkiem finansowym datuje się już na XVI wiek. Profesor przypomina m.in. dokonania Mikołaja Kopernika, czy Isaaca Newtona. "Jestem w stanie przewidzieć ruchy planet we Wszechświecie, ale nie ludzkie emocje" - miał powiedzieć Newton, oceniając giełdę w kategorii zjawisk nieprzewidywalnych. "Zdanie wypowiedziane przez ojca współczesnej fizyki, po tym, jak przegrał na giełdzie cały swój majątek, sparafrazowane stanowi podstawową zasadę giełdy: +Nie ma zysku bez ryzyka+" - mówi Kutner.

Kolejni wielcy fizycy próbowali zmienić to powszechne przekonanie. Poprzez skomplikowane funkcje i wykresy opisywali owe nieprzewidywalne emocje. Karl Gauss (Niemiec) stworzył pierwszy w historii fundusz powierniczy (fundusz wdów po profesorach). Sformułował zasadę budowy i dywersyfikacji portfela giełdowego, która pozwala zminimalizować ryzyko operacji finansowych. Włoch Vilifredo Pareto odkrył z kolei, że zjawiska rynkowe podlegają pewnym określonym zasadom matematycznym. Wszystko, co jest odchyleniem od tej zasady (rozkładu Pareto) świadczy to tym, że zadziałały czynniki pozarynkowe.
Louis Bachelier (Francuz) dokonał przełomu w analizie rynków finansowych, opracowując metodę precyzyjnej analizy giełdy. Cenę uznał za cząstkę, a inwestorów przyrównał do atomów, które cząstce tej oddają swój pęd. W zależności od kierunku ruchu atomów, cena rośnie lub maleje.
Na tworzenie coraz lepszych instrumentów giełdowych również niebagatelny wpływ mieli fizycy. To oni stworzyli opcje (instrumenty, które dają szansę zarobienia, nie zobowiązując jednocześnie do zawarcia nieopłacalnej transakcji).

"Wszystkie te teorie, choć ułatwiły analizę finansową, pozwalają jedynie zmniejszyć ryzyko i je oszacować. Nie podają jednak recepty na zarobienie pieniędzy" - podsumowuje Kutner. "Dziś łatwiej nam przewidywać kryzysy i hossy. Potrafimy wyciągać wnioski z analizy zachowań inwestorów w czasie. Udało się stworzyć funkcje, które niemal bezbłędnie opisują ludzkie emocje" - dodaje.



Tekst z drugiej połowy 2006 r. Nikt wtedy jeszcze "nie marzył" o takiej bessie, jaka przyszła rok później. Czy fizycy ją przewidzieli? Niestety nie natrafiłem na taką wypowiedź.

A teraz danie główne, czyli teoria logperiodyczna. Zacytuję wywiad zamieszczony na stronie http://www.forum.gpwinfo.pl/showthread.php?t=2227:

Fizycy twierdzą, że potrafią prognozować wartość indeksów giełdowych

Rozmawiał: Mariusz Zawadzki 31-07-2003, ostatnia aktualizacja 31-07-2003 17:16

Wywiad z pionierem ekonofizyki w Polsce, profesorem Stanisławem Drożdżem.

Mariusz Zawadzki: Dlaczego fizycy nagle uwierzyli że mają szansę zrozumieć rynki finansowe lepiej niż zawodowi ekonomiści?

Prof. Stanisław Drożdż*: - To nie jest kwestia wiary. Od dawna wiemy, że świat finansów zachowuje się podobnie jak natura. Np. zmiany cen na rynkach finansowych. Przypominają ruch cząsteczki umieszczonej w cieczy i poddawanej ogromnej liczbie przypadkowych "kopnięć" otaczających ją cząstek.

Ale to trochę rozczarowujące: zatem giełda to zupełny chaos, podobnie jak ruch cząsteczek?

- Natura lubi chaos...

Tylko że w chaosie trudno o prognozy...

- Ale ja nie twierdzę, że łatwo! Zacznijmy od przykładu. Pokażę panu dwa wykresy pracy serca: pierwszy - regularny sinusoidalny i drugi - trochę zakłócony, nieregularny, zygzakowaty. Zdrowe serce opisuje ten drugi.

Chaos jest receptą na zdrowie?

- Właśnie. Praca serca powinna mieć składową regularną, której się spodziewamy, ale powinna mieć też składową chaotyczną. Serce musi być elastyczne - np. kiedy zdenerwujemy się, musi przeskoczyć z jednego typu aktywności do drugiego, dostarczyć więcej tlenu do mózgu. Udział składowej chaotycznej okazuje się w tym przypadku zbawienny.

Ale w pracy serca regularność dominuje nad chaosem. Tymczasem wykresy giełdowe często przypominają bazgroły trzylatka...

- Fakt. Choć w przypadku rynku finansowego trudniej jest wychwycić składową regularną i na tej podstawie prognozować przyszłość, to jednak jest to możliwe. Krachu roku 2000 spodziewałem się już rok wcześniej.

Ale dlaczego giełda miałaby podlegać prawom natury? Może po prostu podąża za gospodarką i polityką?

- Myślę, że giełda to znacznie więcej, niż zwykliśmy sądzić. Kiedy mówię o giełdzie, myślę o liczbach. A te liczby odzwierciedlają globalną społeczną świadomość. Jeśli przyjmiemy, że coś takiego istnieje.

Czym miałaby być?

- Spróbujmy porównać ludzkość do mózgu. Świadomość jest atrybutem całego mózgu, nie pojedynczych neuronów, których mamy kilkanaście miliardów. Neurony są dość przypadkowo połączone, ale każde dwa kontaktują się przez najwyżej kilku pośredników. Te połączenia są najbardziej istotne. One powodują, że powstają globalne wzorce aktywności. Świadomość w mózgu jest dopiero globalna.

Teraz spojrzyjmy na nas. Jesteśmy takimi odpowiednikami neuronów. Podobnie jak neuron - każdy z nas jest tylko nieświadomym uczestnikiem globalnych zdarzeń. Podobnie jak neurony - i nas liczy się w miliardach. Ostatnie badania pokazują, że człowiek od człowieka jest oddalony o pięć do sześciu podań ręki. Były takie symulacje: losowo wybierano dwóch ludzi i sprawdzano, ilu pośredników potrzebują, żeby się skontaktować.

- Badając mózg, nasłuchujemy fal mózgowych, którymi porozumiewają się neurony. Dla mnie jedynym odpowiednikiem tych fal, jeśli chodzi o społeczności ludzkie, przynajmniej jedynym dostępnym dla nas w postaci liczb, są parametry finansowe. Być może, nasłuchując ich kiedyś, nauczymy się docierać do faktów, które istnieją w globalnej świadomości. Świadomości niedostępnej dla pojedynczych osobników.

Co z tego w praktyce wynika? Jak wy, ekonofizycy, przewidujecie trendy giełdowe?

- Rynek finansowy, podobnie jak natura, balansuje na granicy między porządkiem a chaosem. Cała sztuka to wychwycić ów porządek. Najlepsze kwalifikacje mają ku temu fizycy. Są doświadczeni w badaniu złożonych układów dynamicznych, np. górskich lawin czy ruchów skorupy ziemskiej prowadzących do trzęsień ziemi. A mechanizm tych zjawisk jest dość podobny do krachów giełdowych. Trzęsienie ziemi to nagłe uwolnienie naprężeń skorupy ziemskiej. Naprężenia na giełdzie są wtedy, kiedy wszyscy inwestorzy czują, że hossa się kończy, że wszystko zmierza w jednym kierunku. W kierunku punktu krytycznego.

Co to jest punkt krytyczny?

- To punkt, gdzie układ jest bardzo wrażliwy nawet na minimalną zmianę parametrów. Taka wrażliwość jest możliwa na styku regularności i chaosu. Ideę krytyczności dobrze oddaje pryzma piasku. Gdy usypujemy górę z ziarenek, nic z początku się nie dzieje. Aż do czasu, gdy góra osiągnie maksymalne nachylenie i bardziej stroma już nie będzie. To nachylenie krytyczne. Teraz wystarczy ziarenko piasku, by spowodować lawinę. I choć częściej będziemy mieli małe "lokalne" lawinki, to raz na jakiś czas jedno jedyne ziarenko spowoduje wielką "globalną" lawinę. Pryzma staje się układem w stanie krytycznym. Jedno ziarenko może odmienić wszystko.

Ale jak punkt krytyczny, czyli krach, przewidzieć?

- Jedną z dróg jest teoria log-periodyczności, którą się zajmuję. Pewne fragmenty wykresu indeksu giełdowego powtarzają się cyklicznie - to one stanowią czynnik deterministyczny. Wykresy notowań indeksów giełdowych wahają się w górę i w dół. Ale im bliżej krachu, tym wahania są częstsze, a kolejne lokalne minima są bliżej siebie. Choć wykres idzie generalnie w górę, gracze wykazują coraz większą nerwowość. Z moich badań wynika, że skoro różnica między aktualnym minimum a poprzednim wynosiła np. cztery lata, to kolejne może nastąpić po okresie dwa razy krótszym, czyli po dwóch latach. Jeszcze kolejne - po roku itd. W ten sposób pojedyncze wahnięcia (powtarzające się fragmenty wykresu) są coraz krótsze, aż zbliżają się do zera. Wtedy jesteśmy w punkcie krytycznym.

To podejrzanie proste...

- Ale to nie koniec niespodzianek. Wykresy indeksów giełdowych mają cechę samopodobieństwa: ich fragmenty mogą być jakby miniaturką całości. Kiedyś zrobiłem eksperyment z finansistą, który zajmuje się krótkoterminową spekulacją w dużym banku europejskim. Pokazałem mu dwa wykresy zmian indeksu: jeden w skali trzech godzin, drugi w skali roku. Nie odgadł, który jest który. Jeśli do fragmentu wykresu wieloletniego przyłożymy lupę, widzimy to samo i takie same prawa tam obowiązują. Krachy w skali mikro i makro można prognozować, używając tych samych technik.

Czy Pan gra na giełdzie?

Proszę o następne pytanie.

Jakie ma Pan dla nas prognozy na najbliższe lata?

- Zrobiłem analizę od roku 1800. Za podstawę wziąłem amerykański indeks Standard&Poor 500, który jest obliczany od lat 30. ubiegłego wieku. We wcześniejszym okresie użyłem indeksu zrekonstruowanego przez historyków ekonomii. Wszystkie krachy w latach 1800-2003 znajdziemy "przewidziane" na krzywej log-periodycznej. Bieżąca recesja jest głęboka i może potrwać aż do końca 2004. Najbliższe maksimum, znacznie wyższe niż to z roku 2000, osiągniemy po roku 2010. Około roku 2025 możemy się spodziewać dramatycznego punktu krytycznego i recesji nieporównywalnej z jakąkolwiek znaną z historii.

Co to może oznaczać?

- Być może koniec systemu finansowego w obecnej postaci. Kiedyś pieniądz był oparty na parytecie złota, teraz w ogóle nie ma żadnego parytetu. Staje się coraz bardziej nierzeczywisty, plastikowy, już go prawie nie oglądamy. W Ameryce zadłużenie społeczeństwa (tzw. mortgage debt) przekroczyło pięć bilionów dolarów, podwajając się w ciągu ostatnich dziesięciu lat. To nie może trwać w nieskończoność. Ta pęczniejąca bańka musi kiedyś pęknąć.

Patrzy pan na giełdę w oderwaniu od wskaźników gospodarczych. Nie boi się Pan posądzenia o szarlatanerię?

- Powtarzam - giełda to nie tylko gospodarka. Czynników mających na nią wpływ są miliony. Pewnie zresztą dlatego, że jest tych czynników tak nieprawdopodobnie wiele, to cechy systemów złożonych spotykanych w fizyce się tu manifestują. Jak w przypadku ruchów skorupy ziemskiej. Ale ze względu na liczbę czynników, nie ma sensu analizować ich z osobna.


Również na tej stronie został przedstawiony wykres indeksu S&P500 od roku 1800:



Gdy popatrzymy na ostatnią częśc wykresu i porównamy z faktycznym stanem:



Zgodnie z teorią logperiodyczną pomiędzy rokiem 2000 a 2020 wystąpił jeden krach - ten z lat 2000-2002, ale gdzie się podział ten NASZ wielki krach rozpoczęty w 2007? "Bieżąca recesja jest głęboka i może potrwać aż do końca 2004. Najbliższe maksimum, znacznie wyższe niż to z roku 2000, osiągniemy po roku 2010. Około roku 2025 możemy się spodziewać dramatycznego punktu krytycznego i recesji nieporównywalnej z jakąkolwiek znaną z historii." Profesor kompletnie się pomylił: nowa hossa zaczęła się od początku 2003 r, trwała prawie 5 lat i wtedy się rozpoczęła katastrofa.

Warto jednak zauważyć coś paradoksalnego - gdy pada pytanie o to, co znaczyć będzie owa recesja, profesor mówi o rzeczy niesamowicie aktualnej (sztuczność pieniądza, zadłużenie), lecz jest to prognoza makroekonomiczna, a nie oparta na wykresach. Profesor nie przewidział, że zapaść nastąpi o wiele szybciej.

I jeszcze na koniec przytoczę wykres z bloga W. Białka, który w jednym poście również przytacza powyższy cytat, tyle że w kontekście ropy naftowej:



A faktyczny wykres ropy jest następujący:



I znowu podobnie - wszystko działało dopóki teoria logperiodyczna nie ujrzała światła dziennego. A może to przypadek? Nie będziemy się w to zagłębiać. Wiemy na pewno, że teoria słabo zadziałała - nie przewidziała ceny baryłki dochodzącej do 140 $, ani potężnego spadku, gdy cena dochodziła do 30 $. Można niby bronić teorii, że pokazała pewną średnią, ale co pożytecznego w takiej prognozie?

Wątpię, żeby teoria logperiodyczna przestała działać ze względu na brak uwzględnienia "samej siebie". To co się stało na rynkach finansowych w 2007 i 2008 r. było odzwierciedleniem nadchodzącego kryzysu finansowego, aż w końcu ogólnogospodarczego (prawdopodobnie efekt spadku dostarczania kredytów firmom i indywidualnym osobom przez banki). Po prostu teoria ta jest dużym (zbytnim?) uproszczeniem rzeczywistości. Wystarczy porównać dokładniej wykresy indeksu S&P500 i funkcji logperiodycznej w poprzednich latach. Lata 1920-1933 również nie zostały dobrze wyprognozowane. W innych okresach jest również wiele odstępstw. Należy jednak przyznać, że pomimo tych odstępstw giełda w jakiś sposób powracała w okolicę ścieżki wyznaczonej przez teorię.

środa, 20 maja 2009

Wykładnik Lapunowa jako stopa procentowa nieprzewidywalności

Dziś chciałbym pokazać, dlaczego wykładnik Lapunowa może stać się ważnym elementem w finansach. Pokażemy, że stanowi on "stopę procentową nieprzewidywalności" danego aktywa. Jednocześnie wyjaśni się, skąd bierze się funkcja exp we wzorze na wzrost odległości między dwiema trajektoriami.

Stopa procentowa r jest ceną uzyskania i trzymania pieniądza. Trzymanie pieniądza wiąże się z wymiarem czasu, a zatem r jest ceną czasu. Czas możemy podzielić na okresy 0,1,...n. Początkowy kapitał x z okresu 0 zostaje powiększony w okresie 1 o x*r. W drugim okresie posiadamy już x+x*r, a więc ten kapitał staje się znów początkowy w stosunku do drugiego okresu i powiększony o x*r, czyli uzyskujemy:

t=2 (x+x*r)+(x+x*r)*r = (x+x*r)(1+r) = x(1+r)(1+r)=x(1+r)^2.

Każdy kolejny okres zostaje w analogiczny sposób potraktowany:

t=3 x(1+r)^2+(x(1+r)^2)*r = (x(1+r)^2)(1+r) = x(1+r)^3
...
...
t=n x(1+r)^n

Powyższe odwzorowanie można uogólnić, jeśli chcemy uwzględnić kapitalizację częstszą niż raz na okres t (czyli najczęściej miesięczną lub kwartalną). Wówczas każdy t-ty okres dzieli się na m podokresów. W sumie otrzymujemy m*n podokresów. Jeśli r jest roczną stopą procentową, to r/m będzie miesięczną lub kwartalną stopą procentową. Zatem wartość przyszła ze wszystkich podokresów wyniesie:

x(1+r/m)^(m*n)

Jeśli tylko m dąży do nieskończoności, otrzymamy wzór na kapitalizację ciągłą x*e^(r*n):



Pamiętamy, że odległość pomiędzy dwiema orbitami (trajektoriami) układu dynamicznego, zachowuje się zgodnie ze wzorem exp(L*n), gdzie L=r, L - współczynnik Lapunowa. Wykładnik L nie jest więc stopą procentową aktywa, lecz zmiany (wartości) aktywa:

zmiana warunków po t-tym okresie czasu = (zmiana warunku początkowego w okresie 0)*exp(t*L).

Istnieje ścisły związek pomiędzy stopą procentową r a stopą zwrotu (inaczej efektywną stopą procentową) R:

efektywna stopa procentowa = R = (wartość przyszła - wartość dzisiejsza)/wartość dzisiejsza.

Czyli w naszym przykładzie:



Przekształćmy to wyrażenie:

R+1 = exp(r*n)
ln(R+1)=r*n.

A więc



Ponieważ R można zapisać jako [P(n)-P(0]/P(0), gdzie P(t) - cena aktywa a okresie t, to

R+1 = P(n)/P(0), czyli indeks ze stopy zwrotu.

Ostatecznie:

r = (ln(P(n)/P(0))/n

Wyrażenie ln(P(n)/P(0)) nazywa się logarytmiczną stopą zwrotu.

Znaczenie praktyczne logarytmicznej stopy zwrotu jest ogromne, można bowiem bezpośrednio dodawać do siebie poszczególne stopy zwrotu (na przykład z różnych akcji - błędem jest dodawanie zwykłych arytmetycznych stóp podawanych przez serwisy), co nie jest możliwe w przypadku arytmetycznych stóp zwrotu, czyli R.

Aby L=r, we wzorze na R za P(t) należy podstawić P(t2)-P(t1), gdzie P(t2)-P(t1) oznacza błąd pomiaru lub prognozy, co oznacza różnicę wartości w t-tym okresie czasu pod wpływem błędów w warunkach początkowych. Czyli stopa R musi wyrażać się już wzorem:



Poprawny jest nadal wzór:

R = exp(r*n)-1, jeśli tylko błąd P(t2)-P(t1) nie wynosi zero.

Zaś wykładnik L:



Powinienem zapisać, że t=0, ponieważ zaczynamy od okresu 0:



Przewidzenie ruchu kursu wydaje się więc zadaniem niewykonalnym, jeśli L>0. Po pierwsze trzeba by na podstawie danych z przeszłości potrafić wyznaczyć dokładną drogę, po której poruszał się kurs. Czy tylko na podstawie samych zmian kursu (które często zmieniają się szybciej niż co minutę) będziemy w stanie wyznaczyć odwzorowanie generujące trajektorię kursu? Jeśli będziemy chcieli tylko w przybliżeniu oszacować kurs, nasze wysiłki zdadzą się na nic. Jeśli L=0,2, a błąd w warunku początkowym wyniesie 1 grosz, czyli 0,01 zł, to teoretyczny błąd po 100 okresach wyniesie exp(0,2*100)*0,01=4851651,95 zł. A więc błąd po 100 okresach równa się 4,85 mln zł. Jeśli 1 okres to minuta, to błąd ten wyniesie już po 100 minutach. Jak to możliwe? Czy tak wielkie odchylenie nie jest jakimś fałszem?

Poniżej przedstawię, skąd tak naprawdę biorą się tak duże odchylenia po n iteracjach.

Najpierw definiujemy L jako średnią wartość logarytmu pochodnej wzdłuż trajektorii P. Czyli chcemy wiedzieć, jak średnio zmienia się trajektoria kursu po n iteracjach (n okresach) pod wpływem pewnego początkowego błędu.



Dlaczego bierzemy średnią logarytmu, a nie po prostu średnią? Ze względu na własności logarytmów. Suma logarytmów jest równa logarytmowi iloczynu jego wyrazów:

ln(dP(n)/dP(n-1)+ln(dP(n-1)/dP(n-2)+...+(ln(dP(1)/dP(0) =
ln(dP(n)/dP(n-1)*dP(n-1)/dP(n-2)*...ln(dP(1)/dP(0) = ln(dP(n)/dP(0))

Czyli mamy nasz poprzedni wzór:



Inaczej możemy to zapisać (poprzednio już to widzieliśmy), że
L=1/n*ln(P(n2)-P(n1)])/[P(t2)-P(t1).

Niech b oznacza błąd początkowy. Możemy zapisać, że

P(n2)=[P po n-tej iteracji](b) - wartość końcowa, gdy wystąpił błąd na początku
P(n1)=[P po n-tej iteracji](0) - wartość końcowa, gdy nie wystąpił błąd na początku
P(02)=P(b) - wartość początkowa z błędem na początku
P(01)=P(0) - wartość początkowa bez błędu

Z definicji pochodnej otrzymujemy (różnica P(b)-P(0)=dP(b)=b):

([P po n-tej iteracji](b)-[P po n-tej iteracji](0))/b = dP(n)/dP(0)
([P po n-tej iteracji](b)-[P po n-tej iteracji](0) = dP(n)/dP(0)*b

Ponieważ L = 1/n*ln(dP(n)/dP(0)) to dP(n)/dP(0) = exp(n*L).

Stąd wzór:

błąd po n-tej iteracji = exp(n*L)*(błąd w okresie 0).

Zapiszmy to jeszcze raz bo to ważne:



Można powiedzieć, że wyprowadziliśmy ten sam wzór na błąd po raz drugi. Jednak należy zauważyć, że o ile drugi sposób jest dużo precyzyjniejszy, to nie wyjaśnia w sposób teoretyczny stosowania logarytmów, a jedynie techniczny.

Połączenie obu sposobów daje pełny obraz na temat L. Stopa procentowa nieprzewidywalności okazuje się średnią logarytmu pochodnej błędu pomiaru dla kapitalizacji ciągłej. Chociaż moglibyśmy się uprzeć i zastosować wzór na kapitalizację dyskretną. Różniczki wynikające z definicji wykładnika Lapunowa mogą bowiem zostać zastąpione różnicami. Mając do czynienia z odwzorowaniem jednowymiarowym (a więc po prostu cena dnia następnego zależy tylko od ceny bieżącej), dla początkowego błędu 0,01 zł, kapitalizacji dziennej dającej dzienną stopę procentową +0,03 (roczna stopa procentowa wyniosłaby 10,8, r/360=0,03=>r=10,8), po miesiącu błąd by się dopiero podwoił
(0,01*(1+0,03)^30 = 0,024). A więc dla błędu 10 gr, błąd wyniósłby po tym samym czasie 24 grosze. Ale po roku początkowy błąd 10 gr wyniósłby już 4182,16 zł.

Należy jednak zwrócić uwagę, że błędy o jakich mówimy, stanowią raczej miernik niemożliwości prognozowania niż faktyczne wartości odchyleń. Zacytuję fragment pracy "Analiza i przetwarzanie sygnałów chaotycznych" Z. Galiasa, który we wstępie ogólnie pisze czym są układy chaotyczne. Autor ogranicza się do dyssypatywnych układów, czyli takich, w których energia zostaje rozproszona - w takich układach rozwiązania znajdują się w pewnej kuli, której już nie opuszczą.

Przez chaos w takich układach będziemy rozumieć nieregularne zachowanie, które wydaje się być przypadkowe, ale takie nie jest. Przypadkowość ta jest wynikiem wrażliwości trajektorii na warunki początkowe objawiająca się w tym, że dwie trajektorie startujące z dowolnie bliskich punktów, w przypadku układu chaotycznego, zwykle wykładniczo oddalają się od siebie, pozostając równocześnie w ograniczonym obszarze przestrzeni fazowej, i po pewnym czasie stają się nieskorelowane. Układ chaotyczny jest to najprościej mówiąc układ generujący przebiegi ograniczone posiadający własności wrażliwości na warunki początkowe.

Podkreśla się w tym fragmencie, że trajektorie pozostają w pewnym ograniczonym obszarze przestrzeni. Obszar ten można utożsamić z atraktorem, czyli przyciągaczem trajektorii. Wynika z tego, że trajektorie nie fruną sobie w nieskończoność, ale zawijają się wokół siebie. Dlatego, nawet jeśli wystartujemy z dwóch dowolnie bliskich punktów początkowych, to utworzone dwie trajektorie pomimo wykładniczego oddalania się, będą po pewnym czasie się zbliżać, a potem znów się oddalą. Nie wiemy jednak jak i kiedy.

Dlatego w obliczeniach wykładnika Lapunowa nie należy obejmować momentów zbliżania się orbit, czyli kontrakcji, ponieważ arbitralnie ustalamy, aby wykładnik mierzył siłę oddalania się, a nie zbliżania orbit.

niedziela, 17 maja 2009

Trójkąty, kliny, wahadło tłumione i wykładnik Lapunowa

Chciałbym powrócić na chwilę do wykładnika Lapunowa L, o którym pisałem w swoim pierwszym poście. Pamiętamy, że Lapunow odkrył, iż o chaotyczności układu dynamicznego decyduje wykładnik liczby e, tzn. exp(t*L), gdzie t to czas. Jeśli L jest dodatni, dostajemy układ chaotyczny, jeśli zerowy, trajektorie (orbity) pozostają w stałych odstępach równych warunkom początkowym, natomiast, gdy jest ujemny, orbita zmierza do stabilnego punktu. Nie będziemy dziś dochodzić, jak Lapunow odkrył, że o odległości dwóch trajektorii decyduje funkcja exp. Wkrótce jednak poruszę i ten temat.

Skupmy się na ujemnym L. Otóż przykładem układu charakteryzującego się takim L jest tłumione wahadło. Początkowa siła dostarcza energii kinetycznej wahadłu, które z czasem oddaje tę energię do otoczenia na skutek działania oporu powietrza (tarcia powietrza) i siły grawitacji. Wahadło dąży więc do pewnego punktu stabilnego.

Zauważmy, że istnieje analogia na rynku akcji. Początkowo na rynek wchodzą gracze i swoją siłą dostarczają energii w postaci kapitału. Warto na marginesie odnotować, że energia, czyli zdolność do wykonania pracy jest analogonem kapitału. Kapitał (pieniądz, człowiek, nieruchomości) jest również zdolnością do wykonania pracy. Wzrost kapitału powoduje, że kurs akcji i obroty giełdowe rosną. Ale ponieważ kapitał został dostarczony tylko raz, kurs akcji zaczyna się wahać, zdążając do pewnego stabilnego punktu.

Rozumiemy to w ten sposób, że ci początkowi gracze, którzy dostarczyli kapitału, stanowią jedyną energię dla układu kursu akcji i wszelkie dalsze ruchy kursu odbywają się na podstawie zleceń tylko tych graczy. Ponieważ energia kinetyczna zostaje oddana do otoczenia, tak samo kapitał ulega dyfuzji - co ma dwoisty efekt: albo cena spada (popyt zachowuje więc część kapitału zawartego w spadku ceny dla siebie), albo rośnie (podaż ucieka stopniowo z zarobkiem). Cena więc się waha i dąży do pewnego stabilnego punktu. Jeśli podaż sprzedaje po wyższej cenie, to ucieknie z giełdy, a więc nie będzie sił do dalszej wyprzedaży waloru. Popyt będzie chciał "się odegrać" i kupić po niższej cenie. Gdy dostanie oczekiwaną niższą cenę, nie będzie miał motywacji, aby dokonywać dalszych zleceń kupna. Przeciwstawne siły popytu i podaży wygasają. Kurs akcji zamiera - pamiętamy bowiem o założeniu, że nowi gracze nie wchodzą.

Zaznajomieni z analizą techniczną, szybko dostrzegą tu analogię z trójkątami i klinami. Jednak w tych formacjach zakłada się, że w końcowej fazie formowania się trójkąta czy klina, następuje tzw. wybicie z trójkąta lub klina - górą lub dołem. Jednocześnie zakłada się często, że obroty giełdowe spadają (a na koniec rosną). Wynikałoby z tego, że zakłada się, że w końcowej fazie spadku aktywności giełdowej następuje wejście nowej grupy graczy. I wszystko zaczyna się od początku.

Okazuje się więc, że wykładnik Lapunowa łączy się z analizą techniczną. Szerzej będę o tym pisał w kolejnych postach.

Jak to jednak wygląda w praktyce? Jeśli chodzi o notowanie dzienne, idealnych trójkątów czy klinów nie ma zbyt wiele. Spójrzmy na wykres Trakcji na początku 2009 roku:



Powstał tzw. trójkąt prostokątny zniżkujący, zakończony wybiciem w górę. Takich trójkątów można jednak szukać ze świeczką, a pomimo tego, przedstawiony układ trójkąta nie jest reprezentatywny, gdyż analiza techniczna prezentuje najczęściej sytuację, gdy trójkąt (klin) jest swego rodzaju korektą-przerwą w trwającym trendzie, a więc kierunek trójkąta (klina) (góra albo dół) jest przeciwny do ogólnej tendencji kursu.

Lepiej sytuacja wygląda na wykresach intraday, np. WIG20 z dnia 19.05.09:



W tym przypadku teoria zadziałała. Po przejrzeniu wykresów intraday dojdziemy do wniosku, że w wielu sytuacjach sprawdza się zależność wynikająca z AT, choć w sposób nierównomierny. Jak to uzasadnić? Otóż że w przypadku wykresów intraday założenie odnośnie stałej liczby spekulantów jest bardziej realne. Podczas formowania się trójkąta i klina, ci sami gracze kupują i sprzedają sobie papiery, nie wnosząc już nowego kapitału na giełdę. Stopniowo opuszczają rynek i jeśli ogólny trend jest rosnący, nowy kapitał przybywa dopiero po pewnym czasie. Popyt, który wcześniej chciał taniej kupić, tym razem przekształci się w podaż, aby drożej sprzedać.