niedziela, 28 czerwca 2009

Oscylator stochastyczny w praktyce

Popatrzmy na poniższy fragment wykresu Lotosu:



Zarówno RSI jak i STS wykazują dywergencję w stosunku do kursu spółki. Zgodnie z teorią powinny nastąpić teraz spadki. A co się stało?



Nastąpił potężny wzrost i dopiero daleko potem spadki, których nie można tłumaczyć "opóźnieniem". Co ciekawe, dodatkowo wolumen silnie spadł w początkowym okresie, co powinno potwierdzać prognozę spadku trendu. Po tym spadku wolumenu nastąpił silny wzrost kursu, któremu już towarzyszył wzrost wolumenu.

Teoria kompletnie się nie sprawdziła.

A to przykład PKNORLEN:



Również można dostrzec dywergencję i idealną sytuację do kupna akcji. A tu psikus...

I jeszcze na koniec przykład PKOBP:



Tutaj trend zwyżkujący okazał się dużo lepszym miernikiem prognozy niż dość wysublimowana koncepcja dywergencji.

Zgodnie z kryterium falsyfikacjonizmu Poppera, aby teoria mogła być uznana za naukową, "musi być możliwe obalenie empirycznego systemu naukowego przez doświadczenie" (Karl R. Popper, Logika odkrycia naukowego, W-wa 1977, s. 40). Popper uznaje, że "dla metody empirycznej charakterystyczne jest to, że system podlegający sprawdzaniu dostępny jest falsyfikacji na wszystkie dające się pomyśleć sposoby. Cel tej metody polega nie na ratowaniu życia nie dających się utrzymać systemów, lecz przeciwnie, na rzuceniu ich wszystkich w wir najzaciekliwszej walki o przetrwanie i wybranie tego, który w porównaniu z innymi okaże się najlepiej przystosowany." (Op. cit., ibidem, s. 41). Warto tu odnotować, że Popper spogląda realistycznie na metody badawcze (które mogą być zawierać błędy lub też występować pewne zewnętrzne zakłócenia). Stwierdza, że nie wystarczy jedno wydarzenie, aby obalić całą teorię. Musi wystąpić zjawisko powtarzalne, obalające teorię. (Por. ibidem, s. 74).

Sądzę, że trzy przykłady łamania teorii już o czymś świadczą. Czy to znaczy, że w rozpatrywanym kontekście analiza techniczna została obalona? Nie. Po pierwsze zostało jedynie obalone stanowisko, że analiza techniczna zawsze się sprawdza. Powtarzam jednak, że AT jest nauką statystyczną, jej przewidywania są prognozami odnotowywanymi z danym prawdopodobieństwem. Oznacza to, że aby obalić AT należy wykazać, że częstość jej niesprawdzania się wynosi co najmniej 50%. Gdy na przykład pobieżnie badałem metodę RSI dla INGBSK, stwierdziłem, że jej poprawność jest większa od 50%. Być może, gdybym wykonał dokładniejsze badania, wyszłoby mi blisko 50:50, ale na dziś zakładam, że RSI (dla ING) jest dość dobrym wskaźnikiem trendu. Opis testu jest zawarty w poście "RSI w praktyce". Co więcej, gdy ostatnio dokonałem tego typu analiz dla innych spółek, wyniki okazały się zbliżone: poprawność sygnałów RSI w sensie co najmniej kilku dni naprzód mieści się w przedziale 55-60%.

Po drugie, moje analizy zawierały, podobnie jak w przypadku metody RSI, pewne założenia: linia %K jest 15-okresowa, %D jest 5-okresowa, a poziom wykupienia to 80 i wyprzedaży 20. Zawsze można kalibrować parametrami.

Jak to więc wygląda dla STS?

Doszedłem do kilku ciekawych wniosków. Pierwszy jest taki, że nie ma co zawracać sobie głowy samymi poziomami wykupienia i wyprzedaży. Do tego lepiej nadaje się RSI. STS jest bardzo wrażliwy na skrajne wartości, co wynika z jego konstrukcji. Ale wiemy, że w przypadku STS poziomy wykupienia i wyprzedaży są jedynie dodatkiem. Istotne są dywergencje i punkty przecięcia linii %K z %D.

Według Murphy'ego sygnał występuje, gdy zarówno występuje dywergencja, jak i przecięcie obu linii. Jednak dywergencje są stosunkowo rzadkie. Ostatnia cena zamknięcia we wzorze STS sprawia, że wskaźnik ten porusza się najczęściej tak jak kurs, wobec czego najczęściej kolejne ekstrema kursu są kolejnymi ekstremami wskaźnika.

Dlatego - oto drugi wniosek - zrobiłem analizę oddzielną dla dywergencji oraz dla punktów przecięcia się linii K i D.

Dywergencje:
Sporządziłem analizę dla INGBSK od początku roku 2000 do końca czerwca 2009. Znalazłem zaledwie 22 widocznych na oko dywergencji dla notowań dziennych. Ale spośród tych 22 sygnałów, aż 16/18 dało prawidłowy sygnał. Zapis 16/18 oznacza, że do dwóch nie jestem do końca przekonany. Tak czy inaczej wyszło na to, że istnieje ponad 70% szansy, że dywergencja daje trafną prognozę. Szczerze mówiąc, sam się dziwię, że wynik jest aż tak pozytywny. Ale tak mi wyszło. Przy czym należy dodać, że tylko 8 sygnałów dotyczyło kupna, z czego 1 był niepoprawny, a 2 były nie do końca przekonujące.

Punkty przecięcia linii K i D:

Sporządziłem analizę dla INGBSK od początku roku 2004 do końca czerwca 2009 (notowania dzienne). Pozytywny sygnał wystąpił, gdy co najmniej kilka dni naprzód kurs ruszał tak, jak wskazywał STS w okolicach poziomów kupna i wyprzedaży. Wynik znów zaskakuje: na 91 sygnałów 55 sygnałów było poprawnych (60%) i 36 fałszywych (40%). 60% pewności to bardzo dużo na giełdzie.

Zdaję sobie jednak sprawę z pewnej subiektywności tego badania. Nie wiem również czy dla innych spółek wyniki są aż tak zadowalające.

Trzeci wniosek to swego rodzaju odkrycie. Popatrzmy na poniższy wykres:



Występuje dywergencja, którą zapoczątkowuje przecięcie od dołu linii D przez K. Zgodnie z dywergencją kurs, pomimo okresu spadku, potem zaczyna wspinaczkę. Co z tego wynika? Obrońcy AT zawsze znajdą sposób, by wykazać prawidłowość swojej teorii. Pomimo, że przecięcie się K i D powinno prognozować wzrost kursu, to jeszcze należy uwzględnić występowanie dywergencji pozytywnej, oznaczającej, że dopiero wkrótce zaczną się wzrosty. Zauważmy: aby wystąpił sygnał kupna, linia K musi przeciąć niemalejącą linię D i dalej ruszać w górę. Jeśli jednak tak się właśnie dzieje, a kurs spada (czyli wydaje się, że STS nie działa), oznacza to, że powstała dywergencja (czyli jednak wskaźnik działa)! Oczywiście, skoro ta powstała, to wzrost kursu nastąpi trochę później. W końcu kiedyś będzie korekta. Jeśli jednak korekta tak szybko nie następuje, jak powinna, to co się stanie? Oczywiście linia K przetnie linię D, ale tym razem od góry, dając sygnał sprzedaży... Jak by nie patrzeć, zawsze AT zwycięża, ile tylko zmienimy punkt widzenia.

Pomimo wskazanej kontrowersji, należy przyznać, że skoro oddzieliłem w swoim badaniu problem dywergencji od punktów przecięć K i D i zarówno jedna, jak i druga metoda przyniosła odpowiedź, że generowane przez nią sygnały nie są "idealnie" losowe (w sensie istnienia prawdopodobieństwa 50:50), na dziś mój subiektywny (na przykład nie uwzględniam prowizji) wniosek samego mnie zaskakuje: oscylator stochastyczny w okresie badawczym mógł przynieść ponadprzeciętne (czyli większe od metody kup i trzymaj) krótkookresowe zyski.

sobota, 27 czerwca 2009

Oscylator stochastyczny

1. Czym jest oscylator stochastyczny?

Analitycy techniczni na co dzień, bez zastanowienia, używają tzw. oscylatora stochastycznego. My się jednak przyjrzymy bardziej szczegółowo znaczeniu tego narzędzia. Najpierw poznamy definicję słów tworzących tę nazwę.

Oscylator - układ fiz. (mech., elektr.), wykonujący drgania wokół położenia równowagi trwałej(http://encyklopedia.pwn.pl)

Proces stochastyczny - rodzina zmiennych losowych określonych na pewnej przestrzeni probabilistycznej o wartościach w pewnej przestrzeni mierzalnej (op. cit. http://pl.wikipedia.org/wiki/Proces_stochastyczny).

Tak więc, oscylator stochastyczny (Stochastic - STS) jest narzędziem wykrywającym losowe wahania zmiennej wokół poziomu równowagi.

Na marginesie dodam, że niestety w analizie technicznej tworzone są pojęcia mieszające się ze sobą, które stają się pogmatwane. Na przykład J.J. Murphy w "Analizie technicznej rynków finansowych" dokładnie omawia różne typy oscylatorów i jednym z nich jest oscylator stochastyczny. Jest dla mnie nieporozumieniem nazywanie jednego oscylatora stochastycznym a innych nie. W zasadzie wszystkie oscylatory analizy technicznej są stochastyczne, gdyż analiza techniczna opiera się na statystyce. Kogo bowiem obchodzi, że jakiś autor nazwał swój wskaźnik tak a nie inaczej? Gdyby tak miało być w matematyce, to ta dziedzina kompletnie by się załamała pod ciężarem niejednolitości i niejednoznaczności. Analiza techniczna w obecnej formie jest zdecydowanie niedoskonała. Paradoksalnie właśnie przez to ma wielu zwolenników, bo przecież każdy wskaźnik może być interpretowany na własny sposób.

"Wskaźnik STS bazuje na spostrzeżeniu, że podczas trendów wzrostowych ceny zamknięcia kształtują się na ogół blisko górnej granicy swych wahań, zaś w trendach spadkowych zbliżają się do dolnej granicy tego zakresu. W tym oscylatorze używa się dwóch linii- %K i %D." (http://pl.wikipedia.org/wiki/Oscylator_stochastyczny).

Wzór na linię %K:



Murphy za x wstawia 14.

%D to 3-okresowa średnia linii %K

2. Interpretacja

Interpretacja pozostaje podobna jak w przypadku RSI: stosuje się zarówno pojęcie poziomu wykupienia/wyprzedania, jak i dywergencji. Zauważmy, że gdy ostatnia cena zamknięcia będzie się zbliżać do maksimum, ułamek będzie dążył do 1 (100%). Gdy cena będzie się zbliżać do minimum, ułamek będzie dążył do 0. Za poziom wykupienia najczęściej bierze się 80, za poziom wyprzedania 20. Większy zasięg poziomów niż dla RSI wynika z tego, że STS jest zbyt wrażliwy na zmiany, co wynika z jego konstrukcji.
Ponadto w interpretacji uwzględnia się dodatkowo linię %D, czego nie ma w metodzie RSI; Murphy pisze nawet, że %D jest ważniejsza od %K. Jeśli została utworzona dywergencja pomiędzy ceną akcji a linią %D (tzn. cena akcji i %D średnio rzecz biorąc zachowują się przeciwnie), wówczas "sygnał kupna lub sprzedaży pojawia się w chwili, gdy szybsza linia K przecina wolniejszą linię D" (J.J. Murphy, ibidem, s. 216).



3. Różnica pomiędzy STS a RSI

Różnica pomiędzy STS a RSI polega po pierwsze na tym, że we wzorze STS występują nie zmiany ceny, ale jej konkretne wartości: ostatnia cena zamknięcia, najniższa i najwyższa cena w danym okresie. Dlatego właśnie zakres wahań jest przedstawiony jako różnica zmiennych (tutaj cen) a nie suma (zmian cen), co było słuszne dla RSI. Po drugie %K w przeciwieństwie do RSI nie opiera się w ogóle na średnich, co znaczy przyjęcie założenia, że same ceny mają wpływ na przyszłość. RSI okazuje się bardziej stochastyczny niż STS!

4. Czy to ma sens?

Aby rozwiązać powyższy problem, w metodzie STS stosuje się uśrednioną linię %K, czyli %D, choć ta ostatnia to nic innego jak wygładzenie linii %K. W końcu łączy się obydwie linie - jeżeli K przecina od dołu rosnącą linię D, możemy się spodziewać zwyżki kursu, jeśli K przecina od góry opadającą D - zniżki. W tej konstrukcji nie ma niczego zaczarowanego. W analizie technicznej uznaje się, że jeśli szybszy wskaźnik przecina w danym kierunku wolniejszy, to znaczy, że powstaje lub umacnia się dany trend. Przyjmuje się konwencję, że, statystycznie rzecz biorąc, jeśli wolniejsza średnia wskaźnika podąża w danym kierunku, a sam wskaźnik ją przecina, to znaczy, że sam "chce iść" w tym kierunku (coś na zasadzie siły bezwładności). Należy jednak pamiętać, że wszelkie określenia, jak "chce iść" są personifikacją stworzoną dla potrzeb intuicyjnego zrozumienia zagadnień, które w rzeczywistości są suchą analizą statystyczną.

Czysty statystyk prawdopodobnie pogardziłby STS i jego interpretacją. Co to za proces stochastyczny, który przyjmuje za wiarygodne konkretne wartości zmiennej losowej? Linia %D nieco poprawia tę sytuację, ale przecież w interpretacji K ma przebijać D. Z drugiej strony o punkcie przebicia linii D przez K można myśleć nie jak o faktycznym punkcie, od którego umacnia się trend, lecz jak o pewnej reprezentacji umacniania się trendu.

Wspomnę tutaj o Tharpie i jego bardzo znanej książce "Giełda, wolność i pieniądze. Poradnik spekulanta". Tharp na początku swojej książki przedstawia obciążenia oceny sytuacji rynkowej, czyli heurystyki. Temat heurystyk jest długi i wkrótce go poruszę. Jedną z heurystyk jest złudzenie reprezentacji. "Ludzie zakładają, że, gdy coś ma reprezentować coś innego, jest ono w rzeczywistości tym, co reprezentuje".

Musimy więc zdystansować się do wiedzy, którą wtłaczają nam do głowy podręczniki analizy technicznej. Punkt przecięcia D i K powinien nas informować, że kurs akcji, indeks znajduje się w pewnym obszarze "prowzrostowym" ("prospadkowym"), to znaczy mającym tendencję do wzrostu (spadku). Tendencja wiąże się z pojęciem prawdopodobieństwa. Jeśli częstości historyczne wskazują na powtarzalność określonych schematów, prawdopodobieństwo ich pojawienia się wzrasta. Identycznie powinniśmy odnosić się do analogicznych postulatów AT, na przykład kiedy rosnący (spadający) kurs akcji przebija rosnącą (spadającą) średnią 15, 30 i 45-dniową, co winno świadczyć o formowaniu/wzmacnianiu trendu.

5. Podsumowanie.

STS stanowi narzędzie, które informuje o oscylacjach kursu pomiędzy poziomem minimum a maksimum danego okresu. Składa się z dwóch linii: %K oraz jej średniej %D. Teoretycznie %K jest gorsze od RSI, gdyż jego konstrukcja opiera się na dwóch skrajnych wartościach ceny w pewnym okresie, co może prowadzić do wielu błędnych sygnałów. Istnienie trendów samo w sobie kreuje kolejne maksima albo minima. Mało sugestywne jest więc założenie, że dwie skrajne wartości ceny z niedalekiej przeszłości będą mieć znaczenie dla fluktuacji w niedalekiej przyszłości, gdy trwa trend. Mimo wszystko, jeśli wielu uczestników używa tego narzędzia, może zadziałać na zasadzie samospełniającej się przepowiedni. Z pewnością STS pomocny może być w sytuacji, gdy trend jest horyzontalny. Należy również dodać, że dość przekonująca jest uśredniona linia K, czyli D, która może zastępować wstęgę Bollingera.

niedziela, 21 czerwca 2009

Chaos a przypadek

Parę lat temu przedstawiłem pewnemu matematykowi parafrazę cytatu znajdującego się w nagłówku bloga : przypadek to porządek w nieporządku, natomiast chaos to nieporządek w porządku. Stwierdził, że się mylę, że jest odwrotnie. Jednak to on się mylił, być może nie rozumiejąc istoty chaosu.

Gdyby wyobrazić sobie przestrzeń, w której znajduje się zbiór przyciągania trajektorii - atraktor, w modelu losowym po pewnym czasie cała przestrzeń byłaby wypełniona trajektoriami. Przypominałoby to gaz rozchodzący się w całej przestrzeni. Jednak długo obserwując częstości pojawiania się trajektorii, zauważylibyśmy powstawanie praw probabilistycznych; trajektorie dążyłyby do pewnej średniej (Prawo Wielkich Liczb), a ta średnia jako zmienna losowa otrzymałaby rozkład gęstości prawdopodobieństwa zbiegający do normalnego (Centralne Twierdzenie Graniczne). Prawa probabilistyczne byłyby więc "wtórne" w stosunku do losowego charakteru samych wartości zmiennych. Porządek jest zawarty w nieporządku.

W modelu chaotycznym wszystkie wartości układu są całkowicie zdeterminowane i wzajemnie skorelowane. Trajektorie zamiast wypełniać całą przestrzeń, wypełniają fraktalnie (ułamkowo) tylko jej część. Przypominałoby to ciało stałe (w której cząsteczki są ze sobą powiązane) zanurzone w przestrzeni. Jednak precyzyjne określenie danej trajektorii jest fizycznie niemożliwe z faktu, że pomiar warunku początkowego musi być dokonany z nieskończoną dokładnością, co jest fizycznie niemożliwe. Starając się startować za każdym razem od tego samego punktu, nie udaje nam się powtórzyć eksperymentu. [Wówczas jedynie można rozpatrywać pewne średnie w czasie cechy charakterystyczne trajektorii chaotycznych. "Taką cechą charakterystyczną może być np. długość trajektorii T w określonym małym obszarze przestrzeni fazowej." (J. Awrejcewicz, Tajemnice nieliniowej dynamiki, Łódź 1997 str. 26). Pojawiają się więc prawa probabistyki tak jak byśmy mieli do czynienia z układem stochastycznym]. Jednak losowość byłaby wtedy wtórna w stosunku do zdeterminowanego charakteru układu. Nieporządek jest zawarty w porządku.

Dlaczego w modelu chaotycznym nieskończona dokładność jest niemożliwa? Wyjaśnienie dotyka mechaniki kwantowej: zasady nieoznaczoności Heisenberga oraz zasady Maxa Bohra. "Każdy stan realny układu określony jest zawsze z pewną niedokładnością i dlatego powinien być opisywany nie za pomocą liczb lecz rozkładu prawdopodobieństwa." (ibidem, str. 1).

W ekonometrii modele dzielą się ogólnie na dwa rodzaje: deterministyczne oraz stochastyczne. Modele dynamiczne, w tym nieliniowe, często utożsamiane z chaotycznymi, są w pełni zdeterminowane. Modele te najczęściej są równaniami różniczkowymi (gdy czas jest ciągły) lub różnicowymi (gdy czas jest okresowy - dyskretny). Popatrzmy na jeden z najstarszych modeli tego typu, układ Lorenza, czyli układ trzech nieliniowych równań różniczkowych modelujący w możliwie najprostszy sposób zjawisko konwekcji termicznej w atmosferze (proces przenoszenia ciepła).



gdzie:

X - amplituda ruchu wywołanego konwekcją
Y - różnica temperatur pomiędzy prądami wstępującymi i zstępującymi
Z - odchylenie spadku temperatury od przebiegu liniowego.
Parametry stojące przy zmiennych są bezwymiarowe i wyrażają kombinację pewnych stałych fizycznych.

Taki układ przejawia chaos, to znaczy jest wrażliwy na zmianę warunków początkowych, tylko przy odpowiednich parametrach.

Pomyślmy, czy analogiczny układ może zostać stworzony dla rynku kapitałowego? W poście "Czy na giełdzie panuje chaos? W kontekście wykładników Lapunowa" opisałem wyniki badań Petersa, które dowodziły istnienia kilkuwymiarowego atraktora na giełdach światowych. Układ Lorenza składa się z 3 wymiarów-zmiennych, podobnie jak rynek amerykański. Peters zauważa, że zmienne obecne w układach fizycznych, takie jak temperatura, ciśnienie powietrza czy gęstość stanowią sumę reakcji układu na inne siły zewnętrzne. Są to jednak globalne zmienne w miarę poddające się pomiarowi. Gorzej jest z rynkami. "Dlatego też trzy zmienne dynamiczne oddziałujące na amerykański rynek akcji (liczba 3 wynika z wymiaru fraktalnego równego w tym przypadku 2,33) nie okażą się łatwymi do identyfikacji lokalnymi czynnikami, takimi jak wskaźnik P/E lub PNB. Siły wprawiające w ruch rynek są raczej globalnymi charakterystykami łączącymi czynniki fundamentalne i techniczne."

Czyli zauważmy dwie rzeczy:

1. Realny nieliniowy układ dynamiczny jest nieprzewidywalny w dłuższym okresie czasu;
2. Nie znamy nawet jednego równania opisującego fluktuację kursów akcji (a muszą być co najmniej 3 równania, co wynika z Twierdzenia Poincare-Bendixona - wyjaśnienie w poście "Czy na giełdzie panuje chaos?")

W związku z dwoma wymienionymi problemami niewątpliwie użyteczne jest stosowanie modeli stochastycznych. Podobnie jak w przypadku modeli deterministycznych, powstały tzw. stochastyczne równania różniczkowe. Są tym bardziej użyteczne, że dają się dość łatwo rozwiązywać w przeciwieństwie nieliniowych modeli dynamicznych, gdzie jak pamiętamy rozwiązań szczególnych (czyli przy danym warunku początkowym) w postaci orbit okresowych jest nieskończenie wiele. (Natomiast istnieje dokładnie jedno rozwiązanie szczególne równania chaotycznego w postaci orbity nieokresowej, lecz nie jesteśmy w stanie podać wzoru na to rozwiązanie ze względu na ową nieokresowość).
Przy czym mówiąc o stochastycznych równaniach należy pamiętać, że przy danym warunku początkowym nie otrzymujemy rozwiązania w postaci konkretnej trajektorii ruchu, ale trajektorię stochastyczną, losową.

Poniższe wzory zaczerpnąłem z książki A.M-Kodzis Modelowanie procesów na rynku kapitałowym za pomocą multifraktali.

Stochastycznym równaniem różniczkowym procesu stochastycznego X(t) nazywamy równanie postaci:



gdzie to wartość oczekiwana, a to odchylenie standardowe.

dB(t) = B(t+dt) - B(t)
B(t) = B(t-1) + z(t)

B(t) - błądzenie losowe,
z(t) - zmienna losowa reprezentująca zakłócenia losowe, ma standardowy rozkład normalny, z(t)~N(0,1).

Prostym stochastycznym równaniem różniczkowym, w którym wartość oczekiwana i odchylenie standardowe są niezależne od przesunięcia w czasie (czyli stałe podczas przesunięcia w czasie) jest tzw. arytmetyczny ruch Browna:



Warto zauważyć, że powyższe równanie ma ekonomiczną interpretację:

zmiana ceny akcji = zmiana procesu "systematycznego" (wartość oczekiwana) + zmiana procesu "losowego" (odchylenie standardowe).

W rzeczywistości oba rozdzielone procesy są losowe, stąd wziął się cudzysłów.

Rozwiązaniem arytmetycznego ruchu Browna (przy danym warunku początkowym X(0) jest arytmetyczny proces ruchu Browna:



Za X(t) możemy przyjąć cenę akcji w t-tym okresie czasu.

Zwykły proces Browna okazuje się niedobrym opisem fluktuacji giełdowych, gdyż kursy w tym modelu mogą przyjmować ujemne wartości.

Jeśli założymy, że wartość oczekiwana (dryf) i zmienność są liniowymi funkcjami zmiennej X(t), wówczas dostajemy tzw. geometryczny ruch Browna:



którego rozwiązaniem przy X(0)>0 jest geometryczny proces ruchu Browna:



Przedstawione stochastyczne równania różniczkowe poprawnie modelują fluktuacje kursów tylko w sytuacji, gdy zmiany cen akcji posiadają rozkład normalny. Wtedy można opisywać stopy zwrotu jedynie za pomocą dwóch parametrów: wartości oczekiwanej i odchylenia standardowego.

Jednak, jeśli mamy do czynienia z układami chaotycznymi, wówczas może się zdarzyć, że stopy zwrotu nie podlegają rozkładowi Gaussa, lecz rozkładowi leptokurtycznemu, to znaczy takiemu, w którym wartości mało prawdopodobne dla rozkładu normalnego występują stosunkowo często. Obserwuje się również, że rozkłady te są prawostronnie skośne, co oznacza, że wzrosty kursów są częstsze niż spadki. Występują także inne własności stóp zwrotu, jak na przykład zjawisko grupowania wariancji, które polega na tym, że zarówno małe, jak i duże zmiany kursu danego instrumentu finansowego występują seriami. (Op.cit. J. Brzeszczyński, R. Kelm, Ekonometryczne modele rynków finansowych, W-wa 2002, str. 37).

W związku z istnieniem odchyleń w rozkładach stóp zwrotu oraz różnorodnością ich cech, powstało wiele modeli, mających zadanie "poprawić" geometryczny proces ruchu Browna. Na przykład K. Jajuga stwierdza, że szeregi czasowe stóp zwrotu charakteryzują się rzadkimi, ale znacznymi wahaniami. W celu wyeliminowania problemu Jajuga proponuje stosować pewne uogólnienie geometrycznego ruchu Browna, który w połączeniu z procesem Poissona potrafi lepiej odzwierciedlić dynamikę cen giełdowych. Proces taki w ekonomicznej interpretacji można zapisać następująco (Zob. K. Jajuga, Ogólny model dynamiki cen finansowych, Dynamiczne modele ekonometryczne, Toruń 2001, artykuł zamieszczony w Internecie, str. 9-11):

zmiana ceny akcji = zmiana procesu “systematycznego” (wartość oczekiwana)
+zmiana procesu „losowego” o częstych, niewielkich wahaniach (wariancja „zwykła”)
+zmiana procesu „losowego” o rzadkich, silnych wahaniach (wariancja „szokowa”).

Z drugiej strony w literaturze przedmiotu podnoszone są głosy, że wariancje stóp zwrotu instrumentów finansowych cechują się wieloma własnościami, a w szczególności niejednorodnością (niestałością w czasie). Na tej bazie powstało wiele konkurencyjnych modeli klasy ARCH (a także ich uogólnienie - GARCH), czyli opartych na procesie autoregresyjnym z warunkową heteroskedastycznością. Heteroskedastyczność oznacza, że wariancja składnika losowego jest zmienna w czasie.

Problem z tymi modelami polega na tym, że nie zakłada się istnienia rozkładu normalnego zmiennej losowej, ale wykorzystuje się parametr w postaci wariancji. Natomiast już wcześniej stwierdziłem, że tam gdzie zmienne losowe nie posiadają rozkładu normalnego lub jego pochodnych (jak np. rozkład t-studenta), tam wariancja i odchylenie standardowe są parametrami sztucznymi.

Albert Einstein odkrył, że w procesie błądzenia przypadkowego droga cząsteczki jest proporcjonalna do pierwiastka czasu:

droga cząsteczki = c*t^0,5, gdzie c - stała.

Łatwo zauważyć podobieństwo tego wzoru do wzoru na odchylenie standardowe.

Jednak Hurst wykazał, że większość zjawisk naturalnych, takich jak wylewy rzek, temperatury, opady, plamy słoneczne, podlega obciążonemu błądzeniu przypadkowemu. (Op. cit. E.E. Peters, Teoria chaosu a rynki kapitałowe, str. 65). Po przeskalowaniu wahań wokół średniego poziomu, powyższy wzór na s nie będzie zawierał liczby 0,5, lecz inną, nazywaną wykładnikiem Hursta, H. Liczba H jest miarą zmienności danej zmiennej. Jeśli 0 < H < 0,5 to system jest antypersystentny, to znaczy jeśli w danym okresie system wychylił się w górę, jest bardziej prawdopodobne, że w następnym okresie wychyli się w dół i na odwrót. Gdy 0,5 < H < 1, mamy do czynienia z szeregiem persystentnym, czyli wzmacniającym trend. Jeśli w danym okresie szereg osiągał dodatnie (ujemne) wartości, to istnieją szanse, że w następnym okresie będą one również dodatnie (ujemne). (Peters, ibidem, str. 67). Dla H = 0,5 brak korelacji pomiędzy obserwacjami.

W standardowym procesie Browna dla "zachowania kształtu" wykresu podczas poszerzania wzdłuż osi czasu a-krotnie, amplitudę należało zwiększyć (a^0,5)-krotnie ("dzwon Gaussa" rozciągał się). Istnieją jednak procesy, dla których podczas poszerzania osi czasu a-krotnie, amplitudę należy powiększyć (a^H)-krotnie, przy czym H mieści się w przedziale (0,1). (Op.cit. A.Mastalerz-Kodzis, ibidem). Właśnie taki proces stochastyczny nazywany jest ułamkowym procesem ruchu Browna. Wzór na ułamkowy (fraktalny) proces ruchu Browna jest "przerażający":



dla t większego lub równego 0.

(Gdyby ktoś chciał wiedzieć co znaczy symbol F bez dolnej kreski już mówię: to funkcja gamma).

Jednak, jak łatwo się domyślić, i te procesy przestały wystarczać w skomplikowanym świecie ruchów cen akcji. Stosunkowo niedawno uogólniono ułamkowy proces ruchu Browna na multiułamkowy proces ruchu Browna. Powstaje on przez zastąpienie wykładnika Hursta, stałego dla całego procesu, funkcją zwaną funkcją Holdera zależną od czasu. (Por. ibidem, str.80). Proces ten generuje tzw. multifraktale. Multifraktal to splot różnych fraktali. Ostatnie lata badań pokazują, że fluktuacje finansowe tworzą o wiele bardziej skomplikowane struktury niż pojedynczy fraktal - multifraktale. W tym sensie można powiedzieć, że klasyczny ruch Browna jest monofraktalem. Należy podkreślić, że mamy na myśli nie fraktal w ścisłym sensie, ale tzw. fraktal losowy. Oznacza to, że na przykład proces ruchu Browna jest procesem samopodobnym: przy powiększeniu części obserwacji zawsze dostajemy dokładnie ten sam rozkład prawdopodobieństwa.
Multiułamkowy proces ruchu Browna jest zdefiniowany wzorem:



W końcu, również model multifraktalny został uogólniony na tzw. uogólniony multiułamknowy proces ruchu Browna. Równanie tego procesu na razie sobie daruję.

Jak widać przechodzimy do coraz to bardziej skomplikowanych modeli. Możliwe, że równania te dalej będą uogólniane. Zauważmy, że płynnie przeszliśmy od pojęcia czystej losowości (klasyczny ruch Browna, który jest szczególnym przypadkiem ułamkowego ruchu Browna) do geometrii fraktalnej (ułamkowy i multiułamkowy ruch Browna). Fraktale okazują się być łącznikiem pomiędzy procesami losowymi a procesami chaotycznymi. W szczególności atraktor chaotyczny jest fraktalem (nie jest to jednak fraktal losowy z powodu deterministycznego charakteru układów chaotycznych). Jak na razie wydaje się, że stochastyczne równania różniczkowe są lepszą drogą do "opanowania" chaosu na giełdzie niż równania nieliniowej dynamiki, których postacie leżą poza naszym zasięgiem.

piątek, 19 czerwca 2009

Sprzedać czy nie sprzedać

Długo zastanawiałem się, czy sprzedać INGBSK. Z jednej strony RSI pokazuje stan wykupienia akcji. Na marginesie dodam, że zdaniem J.J. Murphy'ego "pierwsze pojawienie się oscylatora w strefie wykupienia lub wyprzedania jest zwykle tylko ostrzeżeniem. Sygnałem wymagającym szczególnej uwagi jest drugie wejście oscylatora w tę niebezpieczną strefę." Poniższy wykres pokazuje, że obecnie mamy do czynienia z drugą fazą. Z drugiej strony kurs wreszcie przebił długookresowy trend spadkowy.



Niby trend jest ważniejszy, ale właśnie - paradoksalnie - to on powoduje duże straty spekulantów. Ostatni 3,5-miesięczny trend nie był spokojny, jednolity. Gdzieś w połowie tego okresu nachylenie wzrostu nagle wzrosło. Gwałtowne wzrosty powodują gwałtowne spadki. Oto przykłady kursu ING z bliższej i dalszej przeszłości, począwszy od końca hossy 2007:









Wczoraj okazałem się zachłanny, chcąc dziś sprzedać ING po 365. Kurs otworzył się na 359 i dalej spadał. Dziś więc wydałem na jutro polecenie sprzedaży za 359.

Moje wątpliwości nie polegają na tym, że ING spadnie, bo tego jestem niemal pewien, ale na tym, że spadek może być krótki ze względu na przebicie linii trendu niedźwiedzia.

Oczywiście nie byłoby problemu, gdyby nie koszty transakcyjne. Nie ma sensu sprzedawać tylko dlatego, że się oczekuje chwilowych spadków. Nie ma wątpliwości, że decyzja o momencie sprzedaży jest dużo trudniejsza niż o momencie kupna.

Pomyślałem więc o teorii wyjaśniającej, dlaczego niektóre wskaźniki, jak RSI lepiej sygnalizują kupno niż sprzedaż (o kilka punktów procentowych). Być może gracze mniej chętnie sprzedają akcje ze względu na koszty transakcyjne. Gdy kupują akcje, to wchodzą na rynek z konkretnym celem zarabiania i prowizję wliczają w koszty inwestycji. Ale gdy już posiadają akcje i widzą, że ceny ciągle rosną, działają zgodnie ze schematem: "Pozwalam zyskom rosnąć" i tak szybko nie wychodzą z rynku, pomimo oznak przesilenia, gdyż nie chcą płacić niepotrzebnie prowizji maklerskich. Powoduje to, że albo granice wykupienia i wyprzedaży są asymetryczne: wyprzedaż w okolicy 30%, wykupienia powyżej 70%, na przykład 80-85%, albo - tak jak pisze Murphy - realne spadki dokonują się po dotarciu RSI kilka razy z rzędu w strefę wykupienia 70.

Gdyby przyjąć poziom 80 jako poziom wykupienia, to faktycznie ING powinienem dalej trzymać. Ale swoją koncepcję powinienem najpierw zweryfikować na podstawie częstości sygnałów z przeszłości, a potem decydować. Patrząc na oko, kalibracja przedziałem 80-85 daje dość dobre rezultaty, filtrując błędne sygnały sprzedaży. Gdyby jednak przyjąć, że RSI musi kilka razy pokonać wartość 70, to już powinienem się zastanawiać nad sprzedażą. Mimo wszystko zaryzykuję i sprzedam (stopa zwrotu ok. 60% w 2 miesiące to nie jest źle).

niedziela, 14 czerwca 2009

Czy żyjemy w atraktorze?



Załóżmy, że tak, a więc że żyjemy w układzie dynamicznym. Możemy utożsamić nasz globalny atraktor z "globalnym przeznaczeniem", a lokalny z "lokalnym przeznaczeniem". Przeznaczenie będzie tu oznaczać, że będziemy zamknięci w pewnym systemie możliwych rozwiązań. Globalność oznacza, że jesteśmy ograniczeni co najmniej genami. Lokalność oznacza, że dopóty dopóki parametry naszego systemu nie ulegną zmianie, nie będziemy w stanie wyjść poza atraktor.

Z powyższego wynika, że przeznaczenie nie może być utożsamiane - co zazwyczaj robimy - z jednym i tylko jednym rozwiązaniem (szczególnym). W świecie równań różniczkowych istnieją dwa typy rozwiązań: ogólne i szczególne. Ogólne rozwiązanie to wszystkie możliwe trajektorie, jakimi możemy podążać. Rozwiązanie szczególne wymaga podania warunków początkowych - jest to dana trajektoria przy danym punkcie początkowym.

Jedną z cech systemu dynamicznego jest występowanie rozwiązań okresowych. Zauważymy to szybko w naszym życiu. Pewne sytuacje, czynności są cykliczne. Na giełdach występują hossy i bessy.

Trajektorie - jako rozwiązania, które muszą być jednoznaczne - nie mogą się przecinać. Twierdzenie Cauchy'go lub Picarda stwierdza, że gdy spełniony jest tzw. warunek Lipschitza (wartość bezwzględna z różnicy x1-x2 danej funkcji pomnożona przez pewną stałą jest większa lub równa wartości bezwzględnej z różnicy wartości tej funkcji f(x1)-f(x2)), to istnieje dokładnie jedno rozwiązanie równania dla warunku początkowego x0. Nie jest to wygórowany warunek, przede wszystkim dlatego, iż posługujemy się tu równaniami różniczkowymi; istnieje również twierdzenie mówiące, że gdy funkcja jest różniczkowalna, wtedy istnieje jednoznaczne rozwiązanie równania dla x0.

Załóżmy, że atraktor jest dwuwymiarowy. Skoro trajektorie nie mogą się przecinać, a zawarte są w pewnym ograniczonym obszarze, to jedyną możliwą drogą jest utworzenie cyklu granicznego lub dążenie do jednego punktu stałego. Stanowi o tym twierdzenie Poincare-Bendixona. Mówiąc krótko, gdybyśmy żyli w dwuwymiarowej przestrzeni fazowej, to albo przeżywalibyśmy ciągle to samo w sposób okresowy, albo dążylibyśmy do tego. Dla każdego wymiaru przestrzeni fazowej, istnieje oddzielny wykładnik Lapunowa (L). Dla orbity okresowej znajdującej się w dwuwymiarowej przestrzeni fazowej, jeden L=0, a drugi L<0. Gdyby każdy z dwóch L<0, dążylibyśmy do jednego stanu, do braku ruchu. Wydaje się, że ani jeden, ani drugi przypadek nie jest realny. Raczej sytuacje życiowe są periodyczne, ale nie do końca. Wydają się chaotyczne (na układ działa pewna okresowa siła wymuszająca). Chaotyczny atraktor musi być co najmniej trójwymiarowy. Wtedy wykładniki Lapunowa takiego układu mają znaki odpowiednio (+,0,-).

Gdy system jest chaotyczny, dla danego warunku początkowego pojawiają się rozwiązania okresowe, lecz jest ich nieskończenie wiele, zatem orbity są niestabilne. Niestabilność i chaotyczność wynika z tego, że gdy już trzy zmienne oddziałują na siebie, automatycznie pojawiają się sprzężenia zwrotne. W życiu występują sprzężenia zwrotne pomiędzy wieloma elementami, stąd - jeśli tylko największy z L>0, życie staje się chaotyczne.

Stąd możemy przejść do drugiej cechy, jaką jest wrażliwość na zmianę warunków początkowych. Nasze teraźniejsze decyzje bardzo silnie oddziałują na naszą przyszłość.

Przykład. Załóżmy, że zaplanowaliśmy (ale tylko w głowie), że pójdziemy w pewne miejsce o określonej godzinie. Wystarczy jednak, że przez krótką chwilę "zapomnimy" o dokładnej porze, jaką wyznaczyliśmy ze względu na jakąś czynność, która nas pochłonęła. Daliśmy sobie więc 5 minut więcej czasu. Przez to, po tych 5-ciu minutach zaczynamy się spieszyć, żeby zdążyć. Pośpiech łatwo prowadzi do błędów: a to coś wylejemy, nie umyjemy się czy nie ubierzemy się dobrze albo wyjdziemy zapominając wziąć ważną rzecz ze sobą. Każdy kolejny błąd kumuluje się. Dając sobie te 5 minut więcej na początku, prawdopodobnie damy sobie jeszcze 2 minuty, a potem jeszcze minutę. Może to spowodować, że spóźnimy się na zaplanowane zajęcie. A gdy się spóźnimy, to zaczynamy się stresować. Emocje prowadzą do kolejnych błędów. Ale gdy dojdzie do emocji, to te jeszcze się nasilają zgodnie ze sprzężeniem zwrotnym.

Oczywiście jest to przykład - powiedzmy negatywny. Może być również pozytywny. Wtedy niewielka poprawa może przynieść w przyszłości wielkie korzyści.

Ale jeśli mówimy o tym negatywnym przykładzie, zauważmy, że jedno wydarzenie w życiu nie doprowadza zazwyczaj do katastrofy (podobnie zresztą jak jedno pozytywne nie przynosi całkowitego sukcesu), dochodzi do punktu krytycznego, a potem następuje powrót do sytuacji wyjściowej (albo zbliżonej do niej) ze względu na występowanie cykliczności w naszym życiu. Jeśli coś się popsuje, często mamy jeszcze szansę to naprawić (albo gdy było dobrze popsuć). Występowanie cykliczności jest skutkiem ograniczoności przestrzeni rozwiązań.

W ten sposób dochodzimy do trzeciej cechy układu chaotycznego, jaką jest ograniczony obszar możliwości. Nie jesteśmy w stanie wyjść poza atraktor, a jeśli nawet wyjdziemy, to szybko do niego wracamy, gdyż jest to zbiór przyciągania. Chwilowe wyjście poza atraktor może być wynikiem siły wymuszającej z zewnątrz układu. Jeśli założyć, że wykładniki Lapunowa przynajmniej niektórych wymiarów systemu są ujemne, wyjaśnia się, dlaczego życie ludzi, którzy przypadkowo wygrali dużą sumę pieniędzy w grach hazardowych, nie zmienia się: siła wymuszająca nie pochodziła od nich samych (od ich pracy), stąd szybko powracają do swoich dawnych nawyków, starego myślenia itp. Podobnie, jeśli spekulant przypadkowo zdobędzie fortunę na giełdzie, jego przeznaczenie się nie zmieni. Robert Kiyosaki napisał, że gdyby zamienić miejscami bogatego i biednego, tak że bogatemu zabrać bogactwo i oddać je biednemu, to po paru latach bogaty znów stałby się bogaty, a biedny znów biedny. Uwolnić się od cech systemu jest trudno.

Aby doszło do zmiany stylu życia, potrzeba zmiany lokalnych parametrów układu. Jeśli osoba postanowiła zmienić swoje życie, na przykład dokonać jakiegoś przedsięwzięcia niemieszczącego się w jej schematach, to musi zacząć pracować przede wszystkim nad sobą. A samo to pracowanie wymaga energii i pracy. Jeśli po czasie efekty tej pracy są widoczne, wówczas parametry się zmieniły. Lokalne przeznaczenie-atraktor zmienia się, co oznacza, że zmieniły się przyzwyczajenia i skłonności. Parametry zmieniają się, gdy pewne wymuszone zachowania powtarzają się, co dowodzi, że należy być konsekwentnym w swoich działaniach. Pokazuje to również, dlaczego jeden dodatkowy kamyk może spowodować rozsypanie się góry kamieni (katastrofę). Kamyk oznacza siłę wymuszającą.

Jaka jest różnica pomiędzy zmianą warunków początkowych a zmianą parametrów układu? Na warunki początkowe mamy silny wpływ - to właśnie jest to, co zrobimy za chwilę i wynika z naszej samoświadomości. Jeśli L>0 to każda zmiana w naszym życiu będzie się potęgować (a właściwie rosnąć wykładniczo), jeśli L=0, zmiana później wyniesie tyle, ile na początku, jeśli L<0, nic się zmieni w naszym życiu, czyli ciągle wracamy do tego samego zachowania. Wartość L zależy od naszej wrażliwości na małą jednorazową zmianę. Z kolei zmiana parametrów systemu odbywa się na poziomie nieświadomości, wymaga niemal zmiany struktury umysłu: charakteru, nawyków, sposobu myślenia. Aby zmienić swoje parametry, potrzeba wysokiej samoświadomości i dużej otwartości umysłu. Zapewne trzeba "widzieć", to co się dzieje poza atraktorem i dążyć do tego. Dodam mimo wszystko, że tego naprawdę trzeba chcieć, bo jeśli nie mamy jasności czego chcemy, wówczas przestajemy kontrolować nasze życie, zdajemy się więc na los. Z kolei globalnych parametrów związanych z "globalnym przeznaczeniem" nie jesteśmy w stanie zmienić. Dlatego jedynie co możemy zrobić, to skupić się na lokalnych parametrach.

W kontekście rynku kapitałowego powstaje ciekawe pytanie czy można na atraktor patrzeć fraktalnie, to znaczy czy "atraktor lokalny" zawiera się w "atraktorze globalnym". Wówczas patrzylibyśmy na każdy cykl jak na osobny atraktor. Wyjście poza atraktor hossy czy bessy wymagałoby wyłamania się z parametrów. Kiedy więc obserwuję, że na giełdzie trwa rajd od kilku miesięcy i trend spadkowy został przełamany, stwierdzam, że parametry bessy zmieniły się, stając się parametrami hossy. Jest wielu takich, którzy twierdzą, że powstał znowu balon, który musi prędzej czy później pęknąć. Giełdę tworzą jednak ludzie ("sprzężeni zwrotnie"), jeśli więc ich "parametry giełdowe" się zmieniły, to można założyć, że nie będzie im tak łatwo powrócić do starych. Siła wymuszająca stałe spadki musi być cykliczna, a nie jednorazowa. Nie zmienia to jednak faktu, że ze względu na okresowość rozwiązań układu, większe spadki będą musiały się pojawić, a ze względu na ich niestabilność - przy założeniu chaotyczności układu - nie wiadomo, kiedy to nastąpi.

poniedziałek, 8 czerwca 2009

Czy na giełdzie panuje chaos? W kontekście wykładników Lapunowa

W poście "Wykładnik Lapunowa jako stopa procentowa nieprzewidalności" (post uległ modyfikacji) wyprowadziłem wzór na wykładnik Lapunowa, a także starałem się wyjaśnić jego istotę. Poruszyłem również problem ograniczoności przestrzeni poruszania się orbit.

Okazuje się, że w chaotycznych układach dynamicznych istnieją orbity okresowe, czyli powtarzające swój ruch i jest ich nieskończenie wiele. Ta nieskończoność oznacza, że okresowość orbit zmienia się, czyli orbity stają się niestabilne. Dla dowolnie różnych warunków początkowych, powstają oczywiście inne orbity. Na przykład w pracy "Analiza i przetwarzanie sygnałów chaotycznych" Z. Galiasa dowodzi się istnienia nieskończenie wielu rozwiązań okresowych w ciągłych układach dynamicznych.

Orbity okresowe powstają dlatego, że trajektorie są ograniczone pewnym obszarem przestrzeni fazowej (muszą kiedyś zawrócić), co wynika z założenia, że mamy do czynienia z układem dyssypatywnym, rozpraszającym energię. Jeśli układy nie są dyssypatywne, trajektorie mogą się rozpraszać do nieskończoności.

Notka: Prigogine wykazał, że procesy dyssypacji mogą zachodzić tylko w układach otwartych, a więc przy nieustannej wymianie masy i energii z otoczeniem. - Por. M.K. Kalinowski w artykule: "Na tropach życia, czyli jak przebiegała ewolucja materii we Wszechświecie", str. 12-13. Kalinowski stwierdza: Wydaje się, że wszystkie układy biologiczne spełniają te warunki; można je zatem traktować jako struktury dyssypatywne, tworzące się na Ziemi w ciągłym strumieniu energii słonecznej.

Niedawno wpadłem na ciekawy artykuł, który nie tylko zgrabnie tłumaczy niektóre zagadnienia teorii chaosu, ale także odnosi ją do rynku kapitałowego: "Identyfikacja chaosu deterministycznego w polskich szeregach finansowych" Jacka Kwiatkowskiego oraz Witolda Orzeszka. Autorzy sprawdzają hipotezę czy na naszej giełdzie panuje chaos. Polecam ten artykuł zainteresowanym, można go ściągnąć z internetu. Sądzę, że przeczytanie tej pracy wraz z "Teorią Chaosu a rynki kapitałowe" E.E. Petersa (która niektóre kwestie pomija) może dać solidne pojęcie o teorii chaosu.

Jest sporo metod badających występowanie chaosu. Chciałbym zademonstrować metodę wykorzystującą wykładniki Lapunowa.

Jak pamiętamy, wzór na błąd końcowy trajektorii w układzie dynamicznym wynosi
błąd początkowy*exp(L*n),
gdzie n to liczba okresów lub iteracji, a L - wykładnik Lapunowa.

Zlogarytmujmy to wyrażenie obustronnie i przekształćmy:

ln(błąd końcowy) = ln(błąd początkowy*exp(L*n))
ln(błąd końcowy) = ln(błąd początkowy) + ln(exp(L*n))
ln(błąd końcowy) = ln(błąd początkowy) + L*n

Dostajemy więc funkcję regresji liniowej, w której n jest zmienną niezależną, a L jest nachyleniem funkcji (postać funkcji y=a+bx). Jest to bardzo ważna informacja. Jeśli znamy błąd końcowy dla t-tej iteracji, to po dokonaniu kilku iteracji - kiedy to błąd końcowy rośnie - automatycznie poznamy wartość L.

Powstaje więc pytanie, jak znaleźć błąd końcowy przy obliczaniu trajektorii kursu, nie znając przecież równania ruchu.

Kiedy mówimy, że dwa dowolnie bliskie punkty początkowe "rozjeżdżają się" wykładniczo w przestrzeni fazowej, to musimy dokładnie zrozumieć czym jest przestrzeń fazowa.

Z Wikipedii:

Przestrzeń fazowa – w matematyce i fizyce, przestrzeń wszystkich możliwych stanów w jakich może znajdować się badany układ. Każdy stan układu jest jednym punktem tej przestrzeni.
(...)
Przestrzeń fazowa jest zwykle wielowymiarowa i każdy stopień swobody układu jest reprezentowany jako jej osobny wymiar. Kombinacja parametrów układu w danej chwili odpowiada więc położeniu punktu w tej przestrzeni. Jeśli ewolucja układu jest w pełni zdeterminowana przez te parametry, można wyznaczyć w przestrzeni trajektorię złożoną z kolejnych stanów w jakich będzie się znajdował układ. Kształty tych trajektorii pozwalają dokładnie opisywać różne własności układu.

Dla prostych układów, takich jak cząstka poruszająca się w jednym kierunku, przestrzeń fazowa może mieć mało wymiarów, np. dwa – położenie i prędkość. W ogólności wymiar przestrzeni fazowej może być bardzo duży.


Tak więc, jeśli osobnymi wymiarami są położenie i prędkość, to trzeba zauważyć, że zmienne niezależne opisujące dany wymiar są ze sobą pośrednio związane: prędkość zależy od przebytej przez ciało drogi, a droga od położenia.

Gdy badamy szeregi czasowe kursów akcji, to zmienna w postaci kursu stanowi analogię charakterystyki ruchu w układzie fizycznym; tak jak fundamentem do opisania ruchu ciała jest znajomość prędkości i położenia, tak fundamentem do opisania fluktuacji kursowych są kursy akcji w kolejnych jednostkach czasu. Zamiast mówić o jednej zmiennej w postaci ceny akcji, możemy powiedzieć o wielu zmiennych w postaci ceny akcji w kolejnych okresach. Każdy kolejny t-ty okres rodzi kolejny t-ty wymiar, czyli kolejną zmienną. Jednocześnie wszystkie zmienne zależą od siebie, każdy kurs wpływa na następny. Każda dalsza zmienna cenowa jest pośrednio zależna od dużo wcześniejszych zmiennych.

Z powyższego wynika, że zastępujemy zmienną przestrzenną zmienną czasową. Skoro tak, to dwa dowolnie bliskie czasowo punkty będą się rozchodzić wykładniczo w przestrzeni fazowej.

Bierzemy więc dany kurs okresu 1 i patrzymy jak szereg czasowy ewoluuje w kolejnych okresach (1,2,...T). Następnie bierzemy kurs z okresu 2 i znów patrzymy, jak szereg ewoluuje (2,...T+1). Powtarzamy ten proces n-1 razy. Czyli

(1,2,...T)
(2,...T+1)
(3,...T+2)
...
(n...(T+n-1)).

W ten sposób otrzymujemy n "nadokresów", co znaczy, że otrzymujemy n-wymiarowy szereg czasowy. Dzięki znajomości elementów każdego wymiaru, możemy utworzyć trajektorię szeregu. 1-wymiarowy szereg byłby złożony z (1,2,...T) elementów. Obserwowalibyśmy ewolucję kursu w T okresach. 2-wymiarowy szereg byłby złożony z elementów odpowiednio dla każdego wymiaru (1,2,...T) i (2,...T+1). Ewolucja odbywałaby się również w T okresach, ponieważ każdemu elementowi pierwszego wymiaru możemy przypisać element z drugiego wymiaru. W ogólności otrzymujemy więc n-wymiarowy kurs akcji w T okresach, czyli trajektorii o T iteracjach.

Powstaje praktyczne pytanie, ile należy uwzględnić wymiarów, czyli ile dokonać czasowych przesunięć. Pamiętamy, że wszystkie trajektorie danego dyssypatywnego układu dynamicznego, niezależnie od warunków początkowych, dążą do pewnego zbioru ograniczonego, czyli atraktora (znajdującego się w przestrzeni fazowej). Jeśli więc atraktor jest strukturą n-wymiarową, to trajektorie muszą być n-wymiarowe. Jeśli zatem zaczniemy wprowadzać nowe wymiary, a atraktor przy pewnym wymiarze przestanie się zmieniać, to znaczy, że trajektoria nie dociera do kolejnych wymiarów. Jest to tzw. twierdzenie Takensa o zanurzaniu. K. Jajuga w pracy "Teoria chaosu w analizie finansowych szeregów czasowych - aspekty teoretyczne i badania empiryczne" pisze:

Określenie wymiaru atraktora odbywa się przez zwiększanie wymiaru szeregu danych, zwanego wymiarem zanurzenia oraz określenie dla każdego z otrzymywanych szeregów danych wymiaru korelacyjnego. Gdy przy kolejnym zwiększeniu wymiaru danych wymiar korelacyjny nie zwiększa się, oznacza to, że jest to właśnie poszukiwany wymiar.

Wymiar nazywany jest korelacyjnym, gdyż zmienne, jak pisałem, są skorelowane.

Edgar E. Peters w swojej znanej książce stwierdza:

liczba wymiarów atraktora nie zmienia się tak długo, jak długo umieszczamy go przestrzeni wyższej niż on sam. Płaszczyzna wytyczona w trójwymiarowej przestrzeni w dalszym ciągu ma dwa wymiary. (...) W prawdziwym błądzeniu przypadkowym brak korelacji między punktami, w związku z czym wypełniają one przestrzeń, w której zostają umieszczone wskutek przypadkowych ruchów na wszystkie strony (...) Gaz umieszczony w większej przestrzeni rozprzestrzenia się się do chwili, aż wypełni całą dostępną objętość.
(str. 152)

W tym fragmencie podkreślono różnicę jaką można zaobserwować pomiędzy procesem chaotycznym a losowym.

Pierwszy sposób, jaki się nasuwa przy weryfikacji hipotezy istnienia chaosu, polega na sprawdzeniu czy trajektorie zdążają do n-wymiarowego atraktora na podstawie zanurzania ich w kolejnych wymiarach. W tym celu oblicza się wymiar korelacyjny. K. Jajuga w cytowanej pracy dokonuje tego dla giełdy warszawskiej, jednak dla małej częstości danych i dla bardzo młodej giełdy (20.10.1994-6.05.1997). Wyniki są takie, że "przy analizie rezultatów wymiaru korelacyjnego widać brak wyraźnej zbieżności wymiaru korelacyjnego do jakiejkolwiek liczby przy zwiększaniu wymiaru zanurzenia."

Wróćmy jednak do początkowego zagadnienia, a mianowicie do obliczenia wykładnika Lapunowa. Zauważmy, że gdy rozwinęliśmy swoją analizę na n wymiarów, musimy uwzględnić ten fakt przy obliczaniu L. Mianowicie, dla każdego wymiaru istnieje osobny wykładnik Lapunowa. Dwie trajektorie mogą się rozbiegać lub zbiegać z różnych punktów widzenia - różnych wymiarów.

Okazuje się, że najwyższy wykładnik świadczy o występowaniu lub niewystępowaniu chaosu. Jeśli jest on dodatni, atraktor staje się chaotyczny. Problem polega na tym, że nie wiemy w którym wymiarze szukać najwyższego wykładnika. Powstał tzw. algorytm Wolfa, który umożliwia obliczenie tzw. lokalnego wykładnika Lapunowa. Nie będziemy jednak tego rozważać.

Weźmy za to średnią z odległości dwóch różnych stanów (punktów trajektorii) w n wymiarach i zobaczmy jak ta odległość ewoluuje. Jak już wiemy, po zlogarytmowaniu, powinniśmy dostać funkcję liniową, zależną od kolejnych iteracji. W dalszych iteracjach odległość między stanami powinna się ustabilizować, gdyż pozostają one w atraktorze (funkcja liniowa pozostaje, tylko zmienia się jej nachylenie). Oto rysunek reprezentujący logarytm średnich odległości trajektorii dla tzw. odwzorowania logistycznego wzięty z pracy Kwiatkowskiego i Orzeszka:



Z rysunku można wysnuć, że odwzorowanie logistyczne jest układem chaotycznym.

Jeśli okazałoby się, że układ jest czysto losowy, nachylenie funkcji nie będzie stałe (funkcja nie będzie liniowa), czyli L będzie się zmieniać w kolejnych iteracjach i stanie się zmienną losową podlegającą rozkładowi normalnemu. Ponieważ, gdy zwiększamy wymiar (ilość) czasu, zmienna będzie posiadać większy zasięg "ruchu", rozkład normalny ulega dyfuzji w czasie - wraz z nową jednostką czasu, wariancja zmiennej L rośnie liniowo w czasie. Liniowy wzrost wynika z tego, że średnio rzecz biorąc w każdym okresie procesu losowego o niezależnych zmiennych wariancja powinna być identyczna. Czyli suma dwóch okresów powinna dać sumę dwóch wariancji w tych okresach, suma n okresów -> sumę n wariancji. Sumę wariancji w n okresach można zapisać jako n*wariancja. Literka n jest stałym nachyleniem funkcji liniowej, a wariancja jej zmienną.

Z powyższego wynika, że odchylenie standardowe - pierwiastek z wariancji - rośnie wraz z pierwiastkiem z czasu. Jednakże pamiętamy, że skupiamy się na logarytmie odchyleń, to znaczy obliczamy logarytm błędu końcowego. Z kolei łatwo się przekonać (na przykład korzystając z arkusza kalkulacyjnego), że wykres logarytmu z n iteracji wygląda identycznie jak logarytm pierwiastka z n iteracji, lecz ten drugi ma dwukrotnie zmniejszoną skalę. Wynika to z własności logarytmów:
log(n^0,5) = 0,5*log(n). Oto niezwykłe możliwości tych tworów matematycznych.

Co to oznacza? Możemy stworzyć wykres logarytmu odchylenia standardowego reprezentującego funkcję logarytmu kolejnych iteracji. Jeśli obserwacje potwierdzą, że wraz z każdą iteracją logarytm błędu końcowego jest faktycznie funkcją logarytmiczną (a pamiętamy, że dla układu dynamicznego logarytm błędu końcowego jest funkcją liniową), to mamy "pewność", że L jest zmienną losową, czyli nasz układ jest błądzeniem przypadkowym.

Kwiatkowski i Orzeszko badali występowanie chaosu w indeksie WIG w okresie od lipca 1994 do 15 stycznia 2001, składającym się 1618 obserwacji. Nie są to więc najnowsze dane. Oto graficzny wynik analizy i jego opis:



Autorzy również poddają badaniu średni kurs dolara NBP. Pominę już ten rysunek, bo jest podobny.

Oto wnioski autorów:

Analizując rysunki 5 i 6 można stwierdzić, że zarówno dla kursu WIG, jak i dla dziennego, średniego kursu dolara NBP występuje brak wyraźnej zależności liniowej między logarytmem średnich odległości sąsiednich stanów a liczbą iteracji. Współrzędne punktów układają się wzdłuż krzywej logarytmicznej przecząc tym samym hipotezie, że badane zjawiska są generowane przez chaotyczne układy dynamiczne.

Wnioski identyczne jak K. Jajugi.

Czy powyższe oznacza brak chaosu? Nie. Po pierwsze ja z rysunku nie widzę czy po kilku iteracjach funkcja staje się liniowa czy faktycznie jest logarytmiczna. Ale załóżmy, że autorzy dobrze zinterpretowali wyniki (które nie opierają na rysunkach, lecz na liczbach). Po drugie należy zadać pytanie czy liczba danych jest wystarczająca. Wiąże się z tym problem wymiaru zanurzenia. Wymiar zanurzenia w przedstawionych badaniach wyniósł 2 i 5. Skąd wiadomo czy giełda nie jest układem o 10, 20 czy 100 wymiarach? Żeby to jednak sprawdzić, należy mieć dużo większą próbkę, gdyż kolejne wymiary wynikają z szeregów czasowych.

Jednak wydaje się, że tak wielkie wymiary raczej nie występują. Wymiar korelacyjny jest dobrym przybliżeniem wymiaru fraktalnego. Wymiary fraktalne, czyli ułamkowe, stanowią przejście pomiędzy wymiarami całkowitymi. Dla wymiaru 0 < D < 1 dostajemy coś pomiędzy punktem a prostą. Dla 1 < D < 2 dostajemy coś pomiędzy prostą a płaszczyzną. Chodzi o to, że gdy zaczniemy powiększać dany obszar okaże się, że nie zastaniemy w pierwszym przypadku linii ciągłej, tylko zbiór małych odcinków; ani w drugim płaszczyzny, tylko zbiór poprzedzielanych płaszczyzn (np. prostokątów). Te po powiększeniu znów okazują się zbiorem fragmentów mniejszych obszarów.

Peters obliczył na podstawie danych od stycznia 1950 do lipca 1989 między innymi wymiar fraktalny indeksu S&P500 (D=2,33), od 1959 do 1990 MSCI Japonii (D=3,05), MSCI Niemiec (D=2,41) i SCI Wielkiej Brytanii (D=2,41). Oznacza to, że możliwe jest modelowanie dynamiki rynku USA za pomocą 3 zmiennych, Japonii za pomocą 4 zmiennych, a Niemiec 3 zmiennych. Peters stwierdza, że badane rynki są systemami o małej liczbie wymiarów, co "stwarza obiecującą perspektywę dla dalszych badań: są to systemy dające się rozwiązywać i można mieć nadzieję, że w niedalekiej przyszłości uda się nam te rozwiązania znaleźć" (str. 166).

Już z powyższego akapitu można wysnuć, że skoro wymiar fraktalny przestrzeni fazowej został wyznaczony, a ten stanowi przybliżenie wymiaru korelacyjnego, wymiar korelacyjny mówi o liczbie stopni swobody układu (czyli "niezależnych" zmiennych), to razem to oznacza, że atraktor istnieje.
Giełda amerykańska, japońska, niemiecka i brytyjska były w okresie badawczym systemami dynamicznymi zadanymi tylko kilkoma zmiennymi.


Z tego też wynika, że wykładnik Lapunowa (jako nachylenie funkcji liniowej) powinien dążyć do pewnej stałej. Tak rzeczywiście jest dla wymienionych rynków. Obliczenia Petersa wskazują, że największy wykładnik Lapunowa L1 S&P500 dąży do 0,0241. Oznacza to, że znając stopę zwrotu po 1 okresie, tracimy zdolność do prognozowania po okresie równym 1/0,0241, czyli po niecałych 42 okresach.

Peters nie wyjaśnia zbyt dobrze, skąd bierze się taka relacja. Zapewne chodzi o to, że liczba 1 oznacza 100%, czyli błąd całkowity - całkowitą nieprzewidywalność. Ile trzeba przemnożyć przez 2,41%, czyli średni błąd, aby dostać błąd kompletny 100%? Właśnie przez 100/2,41 = 41,5. Peters bierze za okres 1 miesiąc, co powoduje, że w USA tracimy zdolność do prognozowania po ok. 4 latach. Czyli tyle, ile często trwa dany cykl (występuje długoterminowa pamięć). Dla Wielkiej Brytanii L1 = 0,028 (pamięć 36 miesięcy), Japonii L1 = 0,0228 (44 miesiące). Systemy te w okresie badawczym były więc chaotyczne (chaos występuje, gdy L>0). Dla rynku niemieckiego danych okazuje się za mało.

Choć danych w polskich szeregach finansowych, w porównaniu z USA, jest mało, dobrze byłoby odnaleźć aktualne wyniki badań występowania chaosu na GPW.

Na dziś można powiedzieć, że polski rynek kapitałowy jest chaotyczny, co wynika z analiz N. Siemieniuka w pracy "Fraktalne właściwości polskiego rynku kapitałowego", Wydawnictwo Uniwersytetu w Białymstoku, Białystok 2001, s. 163. Autor ze względu na dużo mniejszą liczbę danych w porównaniu z zagranicznymi giełdami, brał za okres 1 tydzień. Największy wykładnik Lapunowa został oszacowany na poziomie 0,0046/tydzień. Czyli rynek tracił pamięć po 218 tygodniach, czyli 55 miesiącach.

piątek, 5 czerwca 2009

Wstęga Bollingera - ujęcie praktyczne

Poprzedni wywód o wstędze Bollingera miał charakter teoretyczny. Obecnie skupię się na przekonaniu czytelników, że wstęga jest słabym miernikiem analizy technicznej. Oto wykres WIG20 w przeciągu 2 ostatnich lat (początek czerwca 2007-początek czerwca 2009), wraz z nałożoną nań wstęgą Bollingera i odchyleniem standardowym indeksu:



Czerwony wykres to 20-dniowa wstęga Bollingera, czyli ta sugerowana przez J.J. Murphy'ego. Niebieski wykres to 20-dniowe odchylenie standardowe, a czarny to WIG20. Pierwszy rzut oka może dać przeświadczenie, że wstęga jest wspaniałym miernikiem, bowiem indeks prawie zawsze pozostaje w jej obrębie.

Jest to błędne myślenie. Nieświadomie używamy heurystyk, które często sprowadzają nasze sądy na manowce.

Porównajmy wykres WIG20, wstęgi i odchylenia standardowego. Zauważamy, że gdy tylko indeks zmienia kierunek krótkoterminowego trendu, odchylenie standardowe wzrasta. A ponieważ wzrasta, to cała wstęga rozszerza się. Kurs może iść więc zarówno w górę, jak i w dół, a wstęga go obejmie. Im kurs silniej zmieni kierunek, tym większe prawdopodobieństwo, że nastąpi korekta - zmiana w przeciwną stronę. Ale odchylenie standardowe już szybciej rośnie i wstęga mocniej zwiększa zasięg, co powoduje, że niezależnie od kierunku zwrotu, kurs pozostanie w obrębie wstęgi. Jest to tym bardziej prawdopodobne, gdy wstęga zawiera dwa odchylenia standardowe. Nie ma to jednak wiele wspólnego z rozkładem normalnym, tylko ogólnym rachunkiem prawdopodobieństwa.

Używanie odchylenia standardowego jako miary zmienności samo w sobie zwiększa prawdopodobieństwo, że "ogarniemy" obszar wartości zmiennej. Nie jest to jednak podyktowane teoretyczną podstawą (jeśli rozkład gęstości nie jest normalny), a jedynie matematyczną ekwilibrystyką. Odchylenie to jest przypadkiem tzw. średniej potęgowej, w której wyrazy podnosi się do k-tej potęgi, dzieli przez liczbę wyrazów i z całości wyciąga pierwiastek k-tego rzędu. Oczywiste, że im większe k, tym większa powstanie średnia, a więc większe prawdopodobieństwo objęcia empirycznej zmienności. Stąd wydaje się, że odchylenie standardowe "działa", choć w rzeczywistości można byłoby użyć na przykład czwartej czy szóstej potęgi zamiast drugiej.

Jak duże jest prawdopodobieństwo, że wartość zmiennej trafi w obszar danego momentu centralnego niezależnie od rozkładu gęstości prawdopodobieństwa? Wprowadźmy twierdzenie Czebyszewa i jego szczególny przypadek - twierdzenie Markowa.

Twierdzenie Czebyszewa (Źródło: Wikipedia)

Dla każdej zmiennej losowej, X spełniającej warunek P{X<0}=0, o wartości oczekiwanej E(X), dla każdego e > 0 (e = epsilon) zachodzi:



Jeśli za wartość oczekiwaną indeksu WIG20 przyjmiemy średnią kroczącą = 1900 pkt, to prawdopodobieństwo, że indeks przekroczy na przykład e=2000 pkt jest mniejsze od 1900/2000=0,95.

Zauważmy, że jeśli e = wartość oczekiwana zmiennej X, to prawdopodobieństwo jej przekroczenia jest mniejsze od 1, jeśli e = 2*wartość oczekiwana, mniejsze od 0,5 itd.

Twierdzenie Markowa:

Dla każdej zmiennej losowej X o wartości oczekiwanej E(X) i dla każdego e>0 oraz p>0:



Dowód:

Nierówność Markowa wynika bezpośrednio z podstawienia w Nierówności Czebyszewa |X|^p zamiast X oraz e^p zamiast e.
Jest tak ponieważ |X|^p > e^p <=> X > e.


Gdy więc za p podstawimy 2, dostaniemy relację pomiędzy odchyleniem przeciętnym a wariancją. Czy jednak czemuś to konkretnemu służy? Nie bardzo, znów sztuka dla sztuki. Wystarczyłoby posługiwać się samym odchyleniem przeciętnym (twierdzeniem Czebyszewa) i stwierdzić, że prawdopodobieństwo przekroczenia dwóch odchyleń przeciętnych jest mniejsze niż 0,5, a trzech 0,33.

Ale jeśli chcemy, możemy tego samego podstawienia dokonać dla dowolnego momentu centralnego, a więc też ich pierwiastków. Tak więc prawdopodobieństwo, że odległość kursu od jego średniej kroczącej przekroczy na przykład dwa odchylenia standardowe jest mniejsze niż 0,5, a trzy mniejsze od 0,33. Tym samym dowodzimy, że (niezależnie od rozkładu gęstości prawdopodobieństwa kursu) prawdopodobieństwo, że kurs znajdzie się w zasięgu wstęgi Bollingera przy założeniu stałości średniej kroczącej, jest większe niż 0,5. Z poprzednich rozważań wynika, że prawdopodobieństwo to będzie większe niż w przypadku odchylenia przeciętnego. Nie zmienia to jednak faktu, że podejście oparte na odchyleniu standardowym pozostaje w tym kontekście sztuką dla sztuki.

czwartek, 4 czerwca 2009

Czym jest wstęga Bollingera oraz problem z odchyleniem standardowym

Zgodnie z zapowiedzią omówię znany wskaźnik techniczny, wstęgę Bollingera. Wstęga Bollingera jest związana z odchyleniem standardowym ceny instrumentu finansowego. Jak wiemy odchylenie standardowe uważa się za miernik zmienności zmiennej losowej. Stanowi pierwiastek kwadratowy z wariancji zmiennej losowej.

Wstęga Bollingera składa się z dwóch części: linii górnej, czyli sumy średniej kroczącej (SK(C(t),n), gdzie C(t) to cena w okresie t, n to liczba okresów branych pod uwagę) i odchylenia standardowego ceny waloru oraz linii dolnej, czyli różnicy średniej kroczącej i odchylenia standardowego ceny waloru. Na portalu bossa.pl wzór na wstęgę Bollingera jest następujący:



Dlaczego odchylenie standardowe jest pomnożone przez 2? J.J. Murphy w "Analizie technicznej rynków finansowych" stwierdza, że "przy stosowaniu dwóch odchyleń standardowych 95 procent danych cenowych znajdzie się pomiędzy dwiema wstęgami." Autor jednak tej kwestii nie rozszerza. W rzeczywistości będzie to prawda tylko w sytuacji, gdy rozkład gęstości prawdopodobieństwa zmiennej losowej będzie rozkładem normalnym. Wówczas około 68% wartości zmiennej znajduje się w odległości jednego odchylenia standardowego od średniej, około 95,5% w odległości dwóch odchyleń standardowych i około 99,7% w odległości trzech (reguła trzech sigm). (Patrz wikipedia http://pl.wikipedia.org/wiki/Rozk%C5%82ad_normalny). Zauważmy więc, że jeśli średnia krocząca ma mieć rozkład normalny, to "już bardziej losowa" być nie może. Trochę to zaprzecza idei analizy technicznej o tym, że ceny - a więc i ich średnie - nie zachowują się losowo.

Poza tym zakłada się, że w pewnym przedziale czasowym średnia krocząca kursu jako wartość oczekiwana jest stała. W rzeczywistości wiemy, że parametry rozkładu kursów zmieniają się, czyli same są zmiennymi. Idea odchylenia standardowego wydaje się więc tu sztuczna, bo ono nie istnieje jako wartość. Na tym rzecz polega, że średnia krocząca kroczy, nie może więc być stała. Po prostu sztucznie zakłada się pewien okres względnej stałości parametrów rozkładu. Murphy stwierdza, że najczęściej używa się 20-dniowej średniej. Myślę, że 20 dni to może być trochę za dużo. I faktycznie, gdy się przyjrzymy wykresom kursów i indeksów zobaczymy, że przy n=20 dla wstęgi kurs często przekracza jej wartość, choć zaraz wraca w jej obręb - jest to jednak efekt dopasowania się wstęgi do kursu.

Ogólniejszą wątpliwość stanowi używanie narzędzia, jakim jest odchylenie standardowe. W statystyce wprowadza się jego definicję bez żadnego uzasadnienia, choć jego wzór nie jest banalny. Bardziej intuicyjnym jest przecież odchylenie przeciętne, które bezpośrednio ukazuje odchylenie od średniej raz w jedną, raz w drugą stronę.

Wydaje się, że teoretyczne uzasadnienie odchylenia standardowego jest dwojakie:
1. wykorzystuje się je w metodzie najmniejszych kwadratów oraz innych zadaniach optymalizacyjnych (wariancja daje się łatwo różniczkować);
2. postać funkcji gęstości rozkładu normalnego zawiera parametr odchylenia standardowego.

Jednak ani kurs akcji, ani jego stopa zwrotu nie podlega rozkładowi normalnemu. Kurs obiera często kierunek dół lub góra i wówczas na długo nie powraca do poprzednich poziomów. Wartość oczekiwana i wariancja są zmienne w czasie (niestacjonarne) i są jedynie funkcjami czasu. Okazuje się również, że podobna sytuacja występuje dla samych stóp zwrotu. Choć rozkłady stóp zwrotu przypominają już bardziej rozkład normalny, to nadal pojawiają się tzw. grube ogony - często występują wartości, które dla rozkładu normalnego są bardzo mało prawdopodobne. Opieranie się na Centralnych Twierdzeniach Granicznych (np. Lindenberga-Levy'ego), które uzasadniają założenie normalności, jest błędne, gdyż twierdzenia te same przyjmują pewne ekonomicznie nierealne założenia, np. stałość rozkładów prawdopodobieństwa zmiennych w próbie losowej.

Istnieje oczywiście ścisła zależność pomiędzy dowolnymi funkcjami gęstości prawdopodobieństwa a momentami zmiennej losowej (drugi moment centralny to wariancja). Elementem łączącym jest funkcja charakterystyczna zmiennej losowej. Funkcja charakterystyczna zmiennej losowej X jest to wartość oczekiwana funkcji exp(itX), gdzie i - jednostka urojona, t - zmienna rzeczywista. Można zatem ją zapisać jako:



A stąd dla rozkładu ciągłego zachodzi:



gdzie f(x) to funkcja gęstości prawdopodobieństwa.

Łatwo zauważyć, że pierwsza pochodna funkcji charakterystycznej musi dać po prostu i*[całka z (x*exp(itx)*funkcja gęstości)]. Po podstawieniu t=0 i podzieleniu tego wyrażenia przez i, dostaniemy pierwszy moment zwykły, czyli wartość oczekiwaną E(X).
Druga pochodna wynosi
i^2*[całka z (x^2*exp(itx)*funkcja gęstości)]. Znów podstawiając t=0 i dzieląc tym razem całe wyrażenie przez i^2, dostaniemy drugi moment zwykły, E(X^2).
W sumie zauważamy, że zachodzi wzór:



Tylko że nawet takie matematyczne wygibasy nie dają bezpośredniego wzoru na odchylenie standardowe. Należy dopiero wykorzystać wzór na wariancję V(X)=E(X^2)-[E(X)]^2, co wymaga tylko podstawienia, gdyż wcześniej obliczyliśmy pierwszy i drugi moment zwykły. W ten sposób dowodzi się, że parametr zawarty we wzorze funkcji gęstości rozkładu normalnego świadczący o odchyleniu zmiennej X od wartości oczekiwanej jest równy właśnie odchyleniu standardowemu.
Ewentualną sztuczką jest od początku poszukiwanie V(Y), gdzie Y=X-E(X). Jeśli E(X)=0, to V(Y)=V(X). I oczywiście na koniec wyciągamy pierwiastek kwadratowy z wariancji.

Nie ma w tych zależnościach niczego nadzwyczajnego. Po prostu funkcja exp jest interesująca w tym sensie, że pochodna z niej lub całka zawsze daje znowu ją samą. Niewielka zmiana jej argumentu prowadzi do zmiany wartości exp i ta zmiana jest znów opisana funkcją exp. Wtedy różniczkowana exp mająca stałą w wykładniku będzie dawać coraz "większe" pochodne. I robi się ten x, potem x^2 itd. Żeby to wszystko działało trzeba dodatkowo usunąć samą f. exp podstawiając 0 za t i jeszcze całość podzielić przez i^k (a więc pozbyć się liczb urojonych) oraz wyciągnąć pierwiastek k-tego rzędu. Mam więc wrażenie, że momenty zmiennej losowej powstają z tych zależności trochę przypadkowo.

Wniosek jest więc taki, że wstęga Bollingera to sztuka dla sztuki i lepiej się nią nie sugerować zbyt poważnie (czyli że kurs pozostanie we wstędze lub że wybicie ze wstęgi świadczy o nowym trendzie - takie są bowiem interpretacje tego wskaźnika). Wynika to przede wszystkim z faktu braku normalności rozkładu stóp zwrotu, a tym bardziej kursów akcji.
------------------------------------------------------------------------------------
P.S. Na marginesie dodam, że wariancja jest powszechnie uznawana za analogon momentu bezwładności używanego w fizyce. (Stąd właśnie nazwa moment). Jego wzór dla punktu materialnego wyraża się I = m*r^2, gdzie m - masa punktu, a r - odległość punktu od środka układu (ciężkości). Gdy zsumujemy wszystkie I, dostaniemy moment bezwładności całego ciała (zbioru punktów). To właśnie przypomina wariancję. Problem polega na tym, że statystyka jest nauką "statyczną", nie możemy w niej traktować zdarzeń w postaci punktów materialnych poruszających się z pewną prędkością. A właśnie moment bezwładności ciała tego wymaga. Choć, gdy tylko zamienimy pojęcie masy ciała na prawdopodobieństwo zdarzenia wzór na moment bezwładności jest identyczny jak wzór na wariancję, to gdy głębiej wejrzymy, skąd bierze się moment bezwładności, uznamy, że obie miary nie są izomorficzne. Moment bezwładności wynika bowiem z istnienia energii kinetycznej ciała. Energia kinetyczna to iloczyn masy i kwadratu prędkości ciała podzielony przez 2. Jeśli ciało porusza się ruchem obrotowym, to jego prędkość można przedstawić jako iloczyn jego prędkości kątowej i promienia wodzącego po torze ruchu. Podwójne różniczkowanie po prędkości kątowej doprowadzi do wzoru na moment bezwładności (widać od razu skąd bierze się kwadrat promienia). Ponieważ różniczka to bardzo mała zmiana, to właśnie dostajemy bardzo małą zmianę prędkości, tak że w sumie jest to moment (ponieważ prędkość^2=droga^2/czas^2, to gdy podwójnie zróżniczkujemy po prędkości kątowej, droga i czas zupełnie znikną ze wzoru).

Oto moje wyjaśnienie genezy tego słowa. Teraz widać więc, że nazwa moment w statystyce jest nieadekwatna, gdyż wariancja nie wiąże się z prędkością. Pomijam, że w statystyce wprowadza się momenty różnych rzędów, a w fizyce jakoś funkcjonuje jedynie moment bezwładności. I jakoś statystycy się nad tym nie zastanawiają.

Hossa się zaczęła. Ale wkrótce spadki przyjdą

A więc stało się, WIG20 przebił barierę głównego trendu spadkowego. Średnie kroczące 15, 30 i 45-dniowe zostały pokonane przez indeks. Analitycy techniczni głoszą rynek byka, gracze doznają euforii.



Jednak, gdy się przypatrzeć indeksowi WIG,to ten już dawno przebił trend:



Skąd więc ciągle ta niepewność? Być może przebicie nie było wyraźne, być może wszyscy czekali na przebicie średnich kroczących. Jednak prawda jest taka, że istotą rynku kapitałowego jest ciągłe istnienie niepewności. Stąd się rodzi hossa; nikt rozsądny bowiem nie wchodzi na giełdę od razu z całym kapitałem przeznaczonym na spekulację, ale raczej stopniowo.

Ja jednak obecnie myślę o sprzedaży swoich akcji. Uważam, że skoro RSI działa w ponad 50-ciu procentach (dla przynajmniej kilku dni wprzód), to można się na opierać na tym wskaźniku. A jak widać, nie wygląda zbyt dobrze. Przeszłość pokazuje (co widać z wykresów), że RSI również podlega trendom i po jego wysokich wartościach, zaczynają się spadki kursów. Uważam więc, że teraz nie czas na zakupy spółek z WIG20. Lepiej poczekać, aż się "skorekci", sądzę bowiem, że po korekcie wzrosty powrócą. Uważam więc, że rynek byka się zaczął, co nie znaczy, że będzie trwał kilka lat, może nawet nie potrwa rok. Hossę uzasadniam tym, że ludzie i duże instytucje grające na giełdzie, stopniowo wchodzą, gdyż po tym, co zaszło, boją się ryzykować. Nie są więc jeszcze tak pazerni, jak będą pod koniec tej hossy.

Jeśli chodzi o mniejsze spółki, sprawa wygląda nieco inaczej. Na przykład obecnie od ponad miesiąca trzymam w portfelu spółkę COMPLEX. Oto porównanie Complexu z WIG20:



Jak widać, w ciągu trzech miesięcy Complex podąża tym samym kierunkiem co WIG20 (w rzeczywistości nie tylko 3 miesięcy, ale w całym okresie). Kurs spółki jest więc skorelowany z kursami blue chipów. Jednocześnie jednak widać, że występują okresy ujemnej korelacji. Jeśli więc WIG20 wkrótce spadnie na krótki lub średni okres, Complex może się zachowywać przeciwnie. Dodatkowo będę starał się obserwować wskaźniki techniczne na Complexie, jak RSI, inne oscylatory i wstęgę Bollingera. O RSI już pisałem. O tych następnych będę pisał w kolejnych postach.