poniedziałek, 8 czerwca 2009

Czy na giełdzie panuje chaos? W kontekście wykładników Lapunowa

W poście "Wykładnik Lapunowa jako stopa procentowa nieprzewidalności" (post uległ modyfikacji) wyprowadziłem wzór na wykładnik Lapunowa, a także starałem się wyjaśnić jego istotę. Poruszyłem również problem ograniczoności przestrzeni poruszania się orbit.

Okazuje się, że w chaotycznych układach dynamicznych istnieją orbity okresowe, czyli powtarzające swój ruch i jest ich nieskończenie wiele. Ta nieskończoność oznacza, że okresowość orbit zmienia się, czyli orbity stają się niestabilne. Dla dowolnie różnych warunków początkowych, powstają oczywiście inne orbity. Na przykład w pracy "Analiza i przetwarzanie sygnałów chaotycznych" Z. Galiasa dowodzi się istnienia nieskończenie wielu rozwiązań okresowych w ciągłych układach dynamicznych.

Orbity okresowe powstają dlatego, że trajektorie są ograniczone pewnym obszarem przestrzeni fazowej (muszą kiedyś zawrócić), co wynika z założenia, że mamy do czynienia z układem dyssypatywnym, rozpraszającym energię. Jeśli układy nie są dyssypatywne, trajektorie mogą się rozpraszać do nieskończoności.

Notka: Prigogine wykazał, że procesy dyssypacji mogą zachodzić tylko w układach otwartych, a więc przy nieustannej wymianie masy i energii z otoczeniem. - Por. M.K. Kalinowski w artykule: "Na tropach życia, czyli jak przebiegała ewolucja materii we Wszechświecie", str. 12-13. Kalinowski stwierdza: Wydaje się, że wszystkie układy biologiczne spełniają te warunki; można je zatem traktować jako struktury dyssypatywne, tworzące się na Ziemi w ciągłym strumieniu energii słonecznej.

Niedawno wpadłem na ciekawy artykuł, który nie tylko zgrabnie tłumaczy niektóre zagadnienia teorii chaosu, ale także odnosi ją do rynku kapitałowego: "Identyfikacja chaosu deterministycznego w polskich szeregach finansowych" Jacka Kwiatkowskiego oraz Witolda Orzeszka. Autorzy sprawdzają hipotezę czy na naszej giełdzie panuje chaos. Polecam ten artykuł zainteresowanym, można go ściągnąć z internetu. Sądzę, że przeczytanie tej pracy wraz z "Teorią Chaosu a rynki kapitałowe" E.E. Petersa (która niektóre kwestie pomija) może dać solidne pojęcie o teorii chaosu.

Jest sporo metod badających występowanie chaosu. Chciałbym zademonstrować metodę wykorzystującą wykładniki Lapunowa.

Jak pamiętamy, wzór na błąd końcowy trajektorii w układzie dynamicznym wynosi
błąd początkowy*exp(L*n),
gdzie n to liczba okresów lub iteracji, a L - wykładnik Lapunowa.

Zlogarytmujmy to wyrażenie obustronnie i przekształćmy:

ln(błąd końcowy) = ln(błąd początkowy*exp(L*n))
ln(błąd końcowy) = ln(błąd początkowy) + ln(exp(L*n))
ln(błąd końcowy) = ln(błąd początkowy) + L*n

Dostajemy więc funkcję regresji liniowej, w której n jest zmienną niezależną, a L jest nachyleniem funkcji (postać funkcji y=a+bx). Jest to bardzo ważna informacja. Jeśli znamy błąd końcowy dla t-tej iteracji, to po dokonaniu kilku iteracji - kiedy to błąd końcowy rośnie - automatycznie poznamy wartość L.

Powstaje więc pytanie, jak znaleźć błąd końcowy przy obliczaniu trajektorii kursu, nie znając przecież równania ruchu.

Kiedy mówimy, że dwa dowolnie bliskie punkty początkowe "rozjeżdżają się" wykładniczo w przestrzeni fazowej, to musimy dokładnie zrozumieć czym jest przestrzeń fazowa.

Z Wikipedii:

Przestrzeń fazowa – w matematyce i fizyce, przestrzeń wszystkich możliwych stanów w jakich może znajdować się badany układ. Każdy stan układu jest jednym punktem tej przestrzeni.
(...)
Przestrzeń fazowa jest zwykle wielowymiarowa i każdy stopień swobody układu jest reprezentowany jako jej osobny wymiar. Kombinacja parametrów układu w danej chwili odpowiada więc położeniu punktu w tej przestrzeni. Jeśli ewolucja układu jest w pełni zdeterminowana przez te parametry, można wyznaczyć w przestrzeni trajektorię złożoną z kolejnych stanów w jakich będzie się znajdował układ. Kształty tych trajektorii pozwalają dokładnie opisywać różne własności układu.

Dla prostych układów, takich jak cząstka poruszająca się w jednym kierunku, przestrzeń fazowa może mieć mało wymiarów, np. dwa – położenie i prędkość. W ogólności wymiar przestrzeni fazowej może być bardzo duży.


Tak więc, jeśli osobnymi wymiarami są położenie i prędkość, to trzeba zauważyć, że zmienne niezależne opisujące dany wymiar są ze sobą pośrednio związane: prędkość zależy od przebytej przez ciało drogi, a droga od położenia.

Gdy badamy szeregi czasowe kursów akcji, to zmienna w postaci kursu stanowi analogię charakterystyki ruchu w układzie fizycznym; tak jak fundamentem do opisania ruchu ciała jest znajomość prędkości i położenia, tak fundamentem do opisania fluktuacji kursowych są kursy akcji w kolejnych jednostkach czasu. Zamiast mówić o jednej zmiennej w postaci ceny akcji, możemy powiedzieć o wielu zmiennych w postaci ceny akcji w kolejnych okresach. Każdy kolejny t-ty okres rodzi kolejny t-ty wymiar, czyli kolejną zmienną. Jednocześnie wszystkie zmienne zależą od siebie, każdy kurs wpływa na następny. Każda dalsza zmienna cenowa jest pośrednio zależna od dużo wcześniejszych zmiennych.

Z powyższego wynika, że zastępujemy zmienną przestrzenną zmienną czasową. Skoro tak, to dwa dowolnie bliskie czasowo punkty będą się rozchodzić wykładniczo w przestrzeni fazowej.

Bierzemy więc dany kurs okresu 1 i patrzymy jak szereg czasowy ewoluuje w kolejnych okresach (1,2,...T). Następnie bierzemy kurs z okresu 2 i znów patrzymy, jak szereg ewoluuje (2,...T+1). Powtarzamy ten proces n-1 razy. Czyli

(1,2,...T)
(2,...T+1)
(3,...T+2)
...
(n...(T+n-1)).

W ten sposób otrzymujemy n "nadokresów", co znaczy, że otrzymujemy n-wymiarowy szereg czasowy. Dzięki znajomości elementów każdego wymiaru, możemy utworzyć trajektorię szeregu. 1-wymiarowy szereg byłby złożony z (1,2,...T) elementów. Obserwowalibyśmy ewolucję kursu w T okresach. 2-wymiarowy szereg byłby złożony z elementów odpowiednio dla każdego wymiaru (1,2,...T) i (2,...T+1). Ewolucja odbywałaby się również w T okresach, ponieważ każdemu elementowi pierwszego wymiaru możemy przypisać element z drugiego wymiaru. W ogólności otrzymujemy więc n-wymiarowy kurs akcji w T okresach, czyli trajektorii o T iteracjach.

Powstaje praktyczne pytanie, ile należy uwzględnić wymiarów, czyli ile dokonać czasowych przesunięć. Pamiętamy, że wszystkie trajektorie danego dyssypatywnego układu dynamicznego, niezależnie od warunków początkowych, dążą do pewnego zbioru ograniczonego, czyli atraktora (znajdującego się w przestrzeni fazowej). Jeśli więc atraktor jest strukturą n-wymiarową, to trajektorie muszą być n-wymiarowe. Jeśli zatem zaczniemy wprowadzać nowe wymiary, a atraktor przy pewnym wymiarze przestanie się zmieniać, to znaczy, że trajektoria nie dociera do kolejnych wymiarów. Jest to tzw. twierdzenie Takensa o zanurzaniu. K. Jajuga w pracy "Teoria chaosu w analizie finansowych szeregów czasowych - aspekty teoretyczne i badania empiryczne" pisze:

Określenie wymiaru atraktora odbywa się przez zwiększanie wymiaru szeregu danych, zwanego wymiarem zanurzenia oraz określenie dla każdego z otrzymywanych szeregów danych wymiaru korelacyjnego. Gdy przy kolejnym zwiększeniu wymiaru danych wymiar korelacyjny nie zwiększa się, oznacza to, że jest to właśnie poszukiwany wymiar.

Wymiar nazywany jest korelacyjnym, gdyż zmienne, jak pisałem, są skorelowane.

Edgar E. Peters w swojej znanej książce stwierdza:

liczba wymiarów atraktora nie zmienia się tak długo, jak długo umieszczamy go przestrzeni wyższej niż on sam. Płaszczyzna wytyczona w trójwymiarowej przestrzeni w dalszym ciągu ma dwa wymiary. (...) W prawdziwym błądzeniu przypadkowym brak korelacji między punktami, w związku z czym wypełniają one przestrzeń, w której zostają umieszczone wskutek przypadkowych ruchów na wszystkie strony (...) Gaz umieszczony w większej przestrzeni rozprzestrzenia się się do chwili, aż wypełni całą dostępną objętość.
(str. 152)

W tym fragmencie podkreślono różnicę jaką można zaobserwować pomiędzy procesem chaotycznym a losowym.

Pierwszy sposób, jaki się nasuwa przy weryfikacji hipotezy istnienia chaosu, polega na sprawdzeniu czy trajektorie zdążają do n-wymiarowego atraktora na podstawie zanurzania ich w kolejnych wymiarach. W tym celu oblicza się wymiar korelacyjny. K. Jajuga w cytowanej pracy dokonuje tego dla giełdy warszawskiej, jednak dla małej częstości danych i dla bardzo młodej giełdy (20.10.1994-6.05.1997). Wyniki są takie, że "przy analizie rezultatów wymiaru korelacyjnego widać brak wyraźnej zbieżności wymiaru korelacyjnego do jakiejkolwiek liczby przy zwiększaniu wymiaru zanurzenia."

Wróćmy jednak do początkowego zagadnienia, a mianowicie do obliczenia wykładnika Lapunowa. Zauważmy, że gdy rozwinęliśmy swoją analizę na n wymiarów, musimy uwzględnić ten fakt przy obliczaniu L. Mianowicie, dla każdego wymiaru istnieje osobny wykładnik Lapunowa. Dwie trajektorie mogą się rozbiegać lub zbiegać z różnych punktów widzenia - różnych wymiarów.

Okazuje się, że najwyższy wykładnik świadczy o występowaniu lub niewystępowaniu chaosu. Jeśli jest on dodatni, atraktor staje się chaotyczny. Problem polega na tym, że nie wiemy w którym wymiarze szukać najwyższego wykładnika. Powstał tzw. algorytm Wolfa, który umożliwia obliczenie tzw. lokalnego wykładnika Lapunowa. Nie będziemy jednak tego rozważać.

Weźmy za to średnią z odległości dwóch różnych stanów (punktów trajektorii) w n wymiarach i zobaczmy jak ta odległość ewoluuje. Jak już wiemy, po zlogarytmowaniu, powinniśmy dostać funkcję liniową, zależną od kolejnych iteracji. W dalszych iteracjach odległość między stanami powinna się ustabilizować, gdyż pozostają one w atraktorze (funkcja liniowa pozostaje, tylko zmienia się jej nachylenie). Oto rysunek reprezentujący logarytm średnich odległości trajektorii dla tzw. odwzorowania logistycznego wzięty z pracy Kwiatkowskiego i Orzeszka:



Z rysunku można wysnuć, że odwzorowanie logistyczne jest układem chaotycznym.

Jeśli okazałoby się, że układ jest czysto losowy, nachylenie funkcji nie będzie stałe (funkcja nie będzie liniowa), czyli L będzie się zmieniać w kolejnych iteracjach i stanie się zmienną losową podlegającą rozkładowi normalnemu. Ponieważ, gdy zwiększamy wymiar (ilość) czasu, zmienna będzie posiadać większy zasięg "ruchu", rozkład normalny ulega dyfuzji w czasie - wraz z nową jednostką czasu, wariancja zmiennej L rośnie liniowo w czasie. Liniowy wzrost wynika z tego, że średnio rzecz biorąc w każdym okresie procesu losowego o niezależnych zmiennych wariancja powinna być identyczna. Czyli suma dwóch okresów powinna dać sumę dwóch wariancji w tych okresach, suma n okresów -> sumę n wariancji. Sumę wariancji w n okresach można zapisać jako n*wariancja. Literka n jest stałym nachyleniem funkcji liniowej, a wariancja jej zmienną.

Z powyższego wynika, że odchylenie standardowe - pierwiastek z wariancji - rośnie wraz z pierwiastkiem z czasu. Jednakże pamiętamy, że skupiamy się na logarytmie odchyleń, to znaczy obliczamy logarytm błędu końcowego. Z kolei łatwo się przekonać (na przykład korzystając z arkusza kalkulacyjnego), że wykres logarytmu z n iteracji wygląda identycznie jak logarytm pierwiastka z n iteracji, lecz ten drugi ma dwukrotnie zmniejszoną skalę. Wynika to z własności logarytmów:
log(n^0,5) = 0,5*log(n). Oto niezwykłe możliwości tych tworów matematycznych.

Co to oznacza? Możemy stworzyć wykres logarytmu odchylenia standardowego reprezentującego funkcję logarytmu kolejnych iteracji. Jeśli obserwacje potwierdzą, że wraz z każdą iteracją logarytm błędu końcowego jest faktycznie funkcją logarytmiczną (a pamiętamy, że dla układu dynamicznego logarytm błędu końcowego jest funkcją liniową), to mamy "pewność", że L jest zmienną losową, czyli nasz układ jest błądzeniem przypadkowym.

Kwiatkowski i Orzeszko badali występowanie chaosu w indeksie WIG w okresie od lipca 1994 do 15 stycznia 2001, składającym się 1618 obserwacji. Nie są to więc najnowsze dane. Oto graficzny wynik analizy i jego opis:



Autorzy również poddają badaniu średni kurs dolara NBP. Pominę już ten rysunek, bo jest podobny.

Oto wnioski autorów:

Analizując rysunki 5 i 6 można stwierdzić, że zarówno dla kursu WIG, jak i dla dziennego, średniego kursu dolara NBP występuje brak wyraźnej zależności liniowej między logarytmem średnich odległości sąsiednich stanów a liczbą iteracji. Współrzędne punktów układają się wzdłuż krzywej logarytmicznej przecząc tym samym hipotezie, że badane zjawiska są generowane przez chaotyczne układy dynamiczne.

Wnioski identyczne jak K. Jajugi.

Czy powyższe oznacza brak chaosu? Nie. Po pierwsze ja z rysunku nie widzę czy po kilku iteracjach funkcja staje się liniowa czy faktycznie jest logarytmiczna. Ale załóżmy, że autorzy dobrze zinterpretowali wyniki (które nie opierają na rysunkach, lecz na liczbach). Po drugie należy zadać pytanie czy liczba danych jest wystarczająca. Wiąże się z tym problem wymiaru zanurzenia. Wymiar zanurzenia w przedstawionych badaniach wyniósł 2 i 5. Skąd wiadomo czy giełda nie jest układem o 10, 20 czy 100 wymiarach? Żeby to jednak sprawdzić, należy mieć dużo większą próbkę, gdyż kolejne wymiary wynikają z szeregów czasowych.

Jednak wydaje się, że tak wielkie wymiary raczej nie występują. Wymiar korelacyjny jest dobrym przybliżeniem wymiaru fraktalnego. Wymiary fraktalne, czyli ułamkowe, stanowią przejście pomiędzy wymiarami całkowitymi. Dla wymiaru 0 < D < 1 dostajemy coś pomiędzy punktem a prostą. Dla 1 < D < 2 dostajemy coś pomiędzy prostą a płaszczyzną. Chodzi o to, że gdy zaczniemy powiększać dany obszar okaże się, że nie zastaniemy w pierwszym przypadku linii ciągłej, tylko zbiór małych odcinków; ani w drugim płaszczyzny, tylko zbiór poprzedzielanych płaszczyzn (np. prostokątów). Te po powiększeniu znów okazują się zbiorem fragmentów mniejszych obszarów.

Peters obliczył na podstawie danych od stycznia 1950 do lipca 1989 między innymi wymiar fraktalny indeksu S&P500 (D=2,33), od 1959 do 1990 MSCI Japonii (D=3,05), MSCI Niemiec (D=2,41) i SCI Wielkiej Brytanii (D=2,41). Oznacza to, że możliwe jest modelowanie dynamiki rynku USA za pomocą 3 zmiennych, Japonii za pomocą 4 zmiennych, a Niemiec 3 zmiennych. Peters stwierdza, że badane rynki są systemami o małej liczbie wymiarów, co "stwarza obiecującą perspektywę dla dalszych badań: są to systemy dające się rozwiązywać i można mieć nadzieję, że w niedalekiej przyszłości uda się nam te rozwiązania znaleźć" (str. 166).

Już z powyższego akapitu można wysnuć, że skoro wymiar fraktalny przestrzeni fazowej został wyznaczony, a ten stanowi przybliżenie wymiaru korelacyjnego, wymiar korelacyjny mówi o liczbie stopni swobody układu (czyli "niezależnych" zmiennych), to razem to oznacza, że atraktor istnieje.
Giełda amerykańska, japońska, niemiecka i brytyjska były w okresie badawczym systemami dynamicznymi zadanymi tylko kilkoma zmiennymi.


Z tego też wynika, że wykładnik Lapunowa (jako nachylenie funkcji liniowej) powinien dążyć do pewnej stałej. Tak rzeczywiście jest dla wymienionych rynków. Obliczenia Petersa wskazują, że największy wykładnik Lapunowa L1 S&P500 dąży do 0,0241. Oznacza to, że znając stopę zwrotu po 1 okresie, tracimy zdolność do prognozowania po okresie równym 1/0,0241, czyli po niecałych 42 okresach.

Peters nie wyjaśnia zbyt dobrze, skąd bierze się taka relacja. Zapewne chodzi o to, że liczba 1 oznacza 100%, czyli błąd całkowity - całkowitą nieprzewidywalność. Ile trzeba przemnożyć przez 2,41%, czyli średni błąd, aby dostać błąd kompletny 100%? Właśnie przez 100/2,41 = 41,5. Peters bierze za okres 1 miesiąc, co powoduje, że w USA tracimy zdolność do prognozowania po ok. 4 latach. Czyli tyle, ile często trwa dany cykl (występuje długoterminowa pamięć). Dla Wielkiej Brytanii L1 = 0,028 (pamięć 36 miesięcy), Japonii L1 = 0,0228 (44 miesiące). Systemy te w okresie badawczym były więc chaotyczne (chaos występuje, gdy L>0). Dla rynku niemieckiego danych okazuje się za mało.

Choć danych w polskich szeregach finansowych, w porównaniu z USA, jest mało, dobrze byłoby odnaleźć aktualne wyniki badań występowania chaosu na GPW.

Na dziś można powiedzieć, że polski rynek kapitałowy jest chaotyczny, co wynika z analiz N. Siemieniuka w pracy "Fraktalne właściwości polskiego rynku kapitałowego", Wydawnictwo Uniwersytetu w Białymstoku, Białystok 2001, s. 163. Autor ze względu na dużo mniejszą liczbę danych w porównaniu z zagranicznymi giełdami, brał za okres 1 tydzień. Największy wykładnik Lapunowa został oszacowany na poziomie 0,0046/tydzień. Czyli rynek tracił pamięć po 218 tygodniach, czyli 55 miesiącach.

piątek, 5 czerwca 2009

Wstęga Bollingera - ujęcie praktyczne

Poprzedni wywód o wstędze Bollingera miał charakter teoretyczny. Obecnie skupię się na przekonaniu czytelników, że wstęga jest słabym miernikiem analizy technicznej. Oto wykres WIG20 w przeciągu 2 ostatnich lat (początek czerwca 2007-początek czerwca 2009), wraz z nałożoną nań wstęgą Bollingera i odchyleniem standardowym indeksu:



Czerwony wykres to 20-dniowa wstęga Bollingera, czyli ta sugerowana przez J.J. Murphy'ego. Niebieski wykres to 20-dniowe odchylenie standardowe, a czarny to WIG20. Pierwszy rzut oka może dać przeświadczenie, że wstęga jest wspaniałym miernikiem, bowiem indeks prawie zawsze pozostaje w jej obrębie.

Jest to błędne myślenie. Nieświadomie używamy heurystyk, które często sprowadzają nasze sądy na manowce.

Porównajmy wykres WIG20, wstęgi i odchylenia standardowego. Zauważamy, że gdy tylko indeks zmienia kierunek krótkoterminowego trendu, odchylenie standardowe wzrasta. A ponieważ wzrasta, to cała wstęga rozszerza się. Kurs może iść więc zarówno w górę, jak i w dół, a wstęga go obejmie. Im kurs silniej zmieni kierunek, tym większe prawdopodobieństwo, że nastąpi korekta - zmiana w przeciwną stronę. Ale odchylenie standardowe już szybciej rośnie i wstęga mocniej zwiększa zasięg, co powoduje, że niezależnie od kierunku zwrotu, kurs pozostanie w obrębie wstęgi. Jest to tym bardziej prawdopodobne, gdy wstęga zawiera dwa odchylenia standardowe. Nie ma to jednak wiele wspólnego z rozkładem normalnym, tylko ogólnym rachunkiem prawdopodobieństwa.

Używanie odchylenia standardowego jako miary zmienności samo w sobie zwiększa prawdopodobieństwo, że "ogarniemy" obszar wartości zmiennej. Nie jest to jednak podyktowane teoretyczną podstawą (jeśli rozkład gęstości nie jest normalny), a jedynie matematyczną ekwilibrystyką. Odchylenie to jest przypadkiem tzw. średniej potęgowej, w której wyrazy podnosi się do k-tej potęgi, dzieli przez liczbę wyrazów i z całości wyciąga pierwiastek k-tego rzędu. Oczywiste, że im większe k, tym większa powstanie średnia, a więc większe prawdopodobieństwo objęcia empirycznej zmienności. Stąd wydaje się, że odchylenie standardowe "działa", choć w rzeczywistości można byłoby użyć na przykład czwartej czy szóstej potęgi zamiast drugiej.

Jak duże jest prawdopodobieństwo, że wartość zmiennej trafi w obszar danego momentu centralnego niezależnie od rozkładu gęstości prawdopodobieństwa? Wprowadźmy twierdzenie Czebyszewa i jego szczególny przypadek - twierdzenie Markowa.

Twierdzenie Czebyszewa (Źródło: Wikipedia)

Dla każdej zmiennej losowej, X spełniającej warunek P{X<0}=0, o wartości oczekiwanej E(X), dla każdego e > 0 (e = epsilon) zachodzi:



Jeśli za wartość oczekiwaną indeksu WIG20 przyjmiemy średnią kroczącą = 1900 pkt, to prawdopodobieństwo, że indeks przekroczy na przykład e=2000 pkt jest mniejsze od 1900/2000=0,95.

Zauważmy, że jeśli e = wartość oczekiwana zmiennej X, to prawdopodobieństwo jej przekroczenia jest mniejsze od 1, jeśli e = 2*wartość oczekiwana, mniejsze od 0,5 itd.

Twierdzenie Markowa:

Dla każdej zmiennej losowej X o wartości oczekiwanej E(X) i dla każdego e>0 oraz p>0:



Dowód:

Nierówność Markowa wynika bezpośrednio z podstawienia w Nierówności Czebyszewa |X|^p zamiast X oraz e^p zamiast e.
Jest tak ponieważ |X|^p > e^p <=> X > e.


Gdy więc za p podstawimy 2, dostaniemy relację pomiędzy odchyleniem przeciętnym a wariancją. Czy jednak czemuś to konkretnemu służy? Nie bardzo, znów sztuka dla sztuki. Wystarczyłoby posługiwać się samym odchyleniem przeciętnym (twierdzeniem Czebyszewa) i stwierdzić, że prawdopodobieństwo przekroczenia dwóch odchyleń przeciętnych jest mniejsze niż 0,5, a trzech 0,33.

Ale jeśli chcemy, możemy tego samego podstawienia dokonać dla dowolnego momentu centralnego, a więc też ich pierwiastków. Tak więc prawdopodobieństwo, że odległość kursu od jego średniej kroczącej przekroczy na przykład dwa odchylenia standardowe jest mniejsze niż 0,5, a trzy mniejsze od 0,33. Tym samym dowodzimy, że (niezależnie od rozkładu gęstości prawdopodobieństwa kursu) prawdopodobieństwo, że kurs znajdzie się w zasięgu wstęgi Bollingera przy założeniu stałości średniej kroczącej, jest większe niż 0,5. Z poprzednich rozważań wynika, że prawdopodobieństwo to będzie większe niż w przypadku odchylenia przeciętnego. Nie zmienia to jednak faktu, że podejście oparte na odchyleniu standardowym pozostaje w tym kontekście sztuką dla sztuki.

czwartek, 4 czerwca 2009

Czym jest wstęga Bollingera oraz problem z odchyleniem standardowym

Zgodnie z zapowiedzią omówię znany wskaźnik techniczny, wstęgę Bollingera. Wstęga Bollingera jest związana z odchyleniem standardowym ceny instrumentu finansowego. Jak wiemy odchylenie standardowe uważa się za miernik zmienności zmiennej losowej. Stanowi pierwiastek kwadratowy z wariancji zmiennej losowej.

Wstęga Bollingera składa się z dwóch części: linii górnej, czyli sumy średniej kroczącej (SK(C(t),n), gdzie C(t) to cena w okresie t, n to liczba okresów branych pod uwagę) i odchylenia standardowego ceny waloru oraz linii dolnej, czyli różnicy średniej kroczącej i odchylenia standardowego ceny waloru. Na portalu bossa.pl wzór na wstęgę Bollingera jest następujący:



Dlaczego odchylenie standardowe jest pomnożone przez 2? J.J. Murphy w "Analizie technicznej rynków finansowych" stwierdza, że "przy stosowaniu dwóch odchyleń standardowych 95 procent danych cenowych znajdzie się pomiędzy dwiema wstęgami." Autor jednak tej kwestii nie rozszerza. W rzeczywistości będzie to prawda tylko w sytuacji, gdy rozkład gęstości prawdopodobieństwa zmiennej losowej będzie rozkładem normalnym. Wówczas około 68% wartości zmiennej znajduje się w odległości jednego odchylenia standardowego od średniej, około 95,5% w odległości dwóch odchyleń standardowych i około 99,7% w odległości trzech (reguła trzech sigm). (Patrz wikipedia http://pl.wikipedia.org/wiki/Rozk%C5%82ad_normalny). Zauważmy więc, że jeśli średnia krocząca ma mieć rozkład normalny, to "już bardziej losowa" być nie może. Trochę to zaprzecza idei analizy technicznej o tym, że ceny - a więc i ich średnie - nie zachowują się losowo.

Poza tym zakłada się, że w pewnym przedziale czasowym średnia krocząca kursu jako wartość oczekiwana jest stała. W rzeczywistości wiemy, że parametry rozkładu kursów zmieniają się, czyli same są zmiennymi. Idea odchylenia standardowego wydaje się więc tu sztuczna, bo ono nie istnieje jako wartość. Na tym rzecz polega, że średnia krocząca kroczy, nie może więc być stała. Po prostu sztucznie zakłada się pewien okres względnej stałości parametrów rozkładu. Murphy stwierdza, że najczęściej używa się 20-dniowej średniej. Myślę, że 20 dni to może być trochę za dużo. I faktycznie, gdy się przyjrzymy wykresom kursów i indeksów zobaczymy, że przy n=20 dla wstęgi kurs często przekracza jej wartość, choć zaraz wraca w jej obręb - jest to jednak efekt dopasowania się wstęgi do kursu.

Ogólniejszą wątpliwość stanowi używanie narzędzia, jakim jest odchylenie standardowe. W statystyce wprowadza się jego definicję bez żadnego uzasadnienia, choć jego wzór nie jest banalny. Bardziej intuicyjnym jest przecież odchylenie przeciętne, które bezpośrednio ukazuje odchylenie od średniej raz w jedną, raz w drugą stronę.

Wydaje się, że teoretyczne uzasadnienie odchylenia standardowego jest dwojakie:
1. wykorzystuje się je w metodzie najmniejszych kwadratów oraz innych zadaniach optymalizacyjnych (wariancja daje się łatwo różniczkować);
2. postać funkcji gęstości rozkładu normalnego zawiera parametr odchylenia standardowego.

Jednak ani kurs akcji, ani jego stopa zwrotu nie podlega rozkładowi normalnemu. Kurs obiera często kierunek dół lub góra i wówczas na długo nie powraca do poprzednich poziomów. Wartość oczekiwana i wariancja są zmienne w czasie (niestacjonarne) i są jedynie funkcjami czasu. Okazuje się również, że podobna sytuacja występuje dla samych stóp zwrotu. Choć rozkłady stóp zwrotu przypominają już bardziej rozkład normalny, to nadal pojawiają się tzw. grube ogony - często występują wartości, które dla rozkładu normalnego są bardzo mało prawdopodobne. Opieranie się na Centralnych Twierdzeniach Granicznych (np. Lindenberga-Levy'ego), które uzasadniają założenie normalności, jest błędne, gdyż twierdzenia te same przyjmują pewne ekonomicznie nierealne założenia, np. stałość rozkładów prawdopodobieństwa zmiennych w próbie losowej.

Istnieje oczywiście ścisła zależność pomiędzy dowolnymi funkcjami gęstości prawdopodobieństwa a momentami zmiennej losowej (drugi moment centralny to wariancja). Elementem łączącym jest funkcja charakterystyczna zmiennej losowej. Funkcja charakterystyczna zmiennej losowej X jest to wartość oczekiwana funkcji exp(itX), gdzie i - jednostka urojona, t - zmienna rzeczywista. Można zatem ją zapisać jako:



A stąd dla rozkładu ciągłego zachodzi:



gdzie f(x) to funkcja gęstości prawdopodobieństwa.

Łatwo zauważyć, że pierwsza pochodna funkcji charakterystycznej musi dać po prostu i*[całka z (x*exp(itx)*funkcja gęstości)]. Po podstawieniu t=0 i podzieleniu tego wyrażenia przez i, dostaniemy pierwszy moment zwykły, czyli wartość oczekiwaną E(X).
Druga pochodna wynosi
i^2*[całka z (x^2*exp(itx)*funkcja gęstości)]. Znów podstawiając t=0 i dzieląc tym razem całe wyrażenie przez i^2, dostaniemy drugi moment zwykły, E(X^2).
W sumie zauważamy, że zachodzi wzór:



Tylko że nawet takie matematyczne wygibasy nie dają bezpośredniego wzoru na odchylenie standardowe. Należy dopiero wykorzystać wzór na wariancję V(X)=E(X^2)-[E(X)]^2, co wymaga tylko podstawienia, gdyż wcześniej obliczyliśmy pierwszy i drugi moment zwykły. W ten sposób dowodzi się, że parametr zawarty we wzorze funkcji gęstości rozkładu normalnego świadczący o odchyleniu zmiennej X od wartości oczekiwanej jest równy właśnie odchyleniu standardowemu.
Ewentualną sztuczką jest od początku poszukiwanie V(Y), gdzie Y=X-E(X). Jeśli E(X)=0, to V(Y)=V(X). I oczywiście na koniec wyciągamy pierwiastek kwadratowy z wariancji.

Nie ma w tych zależnościach niczego nadzwyczajnego. Po prostu funkcja exp jest interesująca w tym sensie, że pochodna z niej lub całka zawsze daje znowu ją samą. Niewielka zmiana jej argumentu prowadzi do zmiany wartości exp i ta zmiana jest znów opisana funkcją exp. Wtedy różniczkowana exp mająca stałą w wykładniku będzie dawać coraz "większe" pochodne. I robi się ten x, potem x^2 itd. Żeby to wszystko działało trzeba dodatkowo usunąć samą f. exp podstawiając 0 za t i jeszcze całość podzielić przez i^k (a więc pozbyć się liczb urojonych) oraz wyciągnąć pierwiastek k-tego rzędu. Mam więc wrażenie, że momenty zmiennej losowej powstają z tych zależności trochę przypadkowo.

Wniosek jest więc taki, że wstęga Bollingera to sztuka dla sztuki i lepiej się nią nie sugerować zbyt poważnie (czyli że kurs pozostanie we wstędze lub że wybicie ze wstęgi świadczy o nowym trendzie - takie są bowiem interpretacje tego wskaźnika). Wynika to przede wszystkim z faktu braku normalności rozkładu stóp zwrotu, a tym bardziej kursów akcji.
------------------------------------------------------------------------------------
P.S. Na marginesie dodam, że wariancja jest powszechnie uznawana za analogon momentu bezwładności używanego w fizyce. (Stąd właśnie nazwa moment). Jego wzór dla punktu materialnego wyraża się I = m*r^2, gdzie m - masa punktu, a r - odległość punktu od środka układu (ciężkości). Gdy zsumujemy wszystkie I, dostaniemy moment bezwładności całego ciała (zbioru punktów). To właśnie przypomina wariancję. Problem polega na tym, że statystyka jest nauką "statyczną", nie możemy w niej traktować zdarzeń w postaci punktów materialnych poruszających się z pewną prędkością. A właśnie moment bezwładności ciała tego wymaga. Choć, gdy tylko zamienimy pojęcie masy ciała na prawdopodobieństwo zdarzenia wzór na moment bezwładności jest identyczny jak wzór na wariancję, to gdy głębiej wejrzymy, skąd bierze się moment bezwładności, uznamy, że obie miary nie są izomorficzne. Moment bezwładności wynika bowiem z istnienia energii kinetycznej ciała. Energia kinetyczna to iloczyn masy i kwadratu prędkości ciała podzielony przez 2. Jeśli ciało porusza się ruchem obrotowym, to jego prędkość można przedstawić jako iloczyn jego prędkości kątowej i promienia wodzącego po torze ruchu. Podwójne różniczkowanie po prędkości kątowej doprowadzi do wzoru na moment bezwładności (widać od razu skąd bierze się kwadrat promienia). Ponieważ różniczka to bardzo mała zmiana, to właśnie dostajemy bardzo małą zmianę prędkości, tak że w sumie jest to moment (ponieważ prędkość^2=droga^2/czas^2, to gdy podwójnie zróżniczkujemy po prędkości kątowej, droga i czas zupełnie znikną ze wzoru).

Oto moje wyjaśnienie genezy tego słowa. Teraz widać więc, że nazwa moment w statystyce jest nieadekwatna, gdyż wariancja nie wiąże się z prędkością. Pomijam, że w statystyce wprowadza się momenty różnych rzędów, a w fizyce jakoś funkcjonuje jedynie moment bezwładności. I jakoś statystycy się nad tym nie zastanawiają.

Hossa się zaczęła. Ale wkrótce spadki przyjdą

A więc stało się, WIG20 przebił barierę głównego trendu spadkowego. Średnie kroczące 15, 30 i 45-dniowe zostały pokonane przez indeks. Analitycy techniczni głoszą rynek byka, gracze doznają euforii.



Jednak, gdy się przypatrzeć indeksowi WIG,to ten już dawno przebił trend:



Skąd więc ciągle ta niepewność? Być może przebicie nie było wyraźne, być może wszyscy czekali na przebicie średnich kroczących. Jednak prawda jest taka, że istotą rynku kapitałowego jest ciągłe istnienie niepewności. Stąd się rodzi hossa; nikt rozsądny bowiem nie wchodzi na giełdę od razu z całym kapitałem przeznaczonym na spekulację, ale raczej stopniowo.

Ja jednak obecnie myślę o sprzedaży swoich akcji. Uważam, że skoro RSI działa w ponad 50-ciu procentach (dla przynajmniej kilku dni wprzód), to można się na opierać na tym wskaźniku. A jak widać, nie wygląda zbyt dobrze. Przeszłość pokazuje (co widać z wykresów), że RSI również podlega trendom i po jego wysokich wartościach, zaczynają się spadki kursów. Uważam więc, że teraz nie czas na zakupy spółek z WIG20. Lepiej poczekać, aż się "skorekci", sądzę bowiem, że po korekcie wzrosty powrócą. Uważam więc, że rynek byka się zaczął, co nie znaczy, że będzie trwał kilka lat, może nawet nie potrwa rok. Hossę uzasadniam tym, że ludzie i duże instytucje grające na giełdzie, stopniowo wchodzą, gdyż po tym, co zaszło, boją się ryzykować. Nie są więc jeszcze tak pazerni, jak będą pod koniec tej hossy.

Jeśli chodzi o mniejsze spółki, sprawa wygląda nieco inaczej. Na przykład obecnie od ponad miesiąca trzymam w portfelu spółkę COMPLEX. Oto porównanie Complexu z WIG20:



Jak widać, w ciągu trzech miesięcy Complex podąża tym samym kierunkiem co WIG20 (w rzeczywistości nie tylko 3 miesięcy, ale w całym okresie). Kurs spółki jest więc skorelowany z kursami blue chipów. Jednocześnie jednak widać, że występują okresy ujemnej korelacji. Jeśli więc WIG20 wkrótce spadnie na krótki lub średni okres, Complex może się zachowywać przeciwnie. Dodatkowo będę starał się obserwować wskaźniki techniczne na Complexie, jak RSI, inne oscylatory i wstęgę Bollingera. O RSI już pisałem. O tych następnych będę pisał w kolejnych postach.

czwartek, 28 maja 2009

RSI w praktyce

W poprzednim wpisie opisałem RSI teoretycznie. Powstaje pytanie, jak teoria się sprawdza w rzeczywistości. Oto wykres kursu spółki, którą sam posiadam w portfelu i jego RSI:



Kupiłem ING za ok. 225 zł i trochę przypadkowo trafiłem na potężny wzrost. Nie sądziłem, że ta spółka aż tak szybko pójdzie w górę.

Jak widać z wykresu 14-dniowy RSI dość dobrze prognozuje kierunek. Na przedstawionym wykresie na ok. 15 sygnałów kupna, 9-10 daje poprawny sygnał, czyli powiedzmy 63%. Sygnały sprzedaży podobnie - 60% (ok. 9 na 15). Czy jednak ten wykres jest reprezentatywny? Weźmy wcześniejsze lata:



Drugi wykres jest sporo wcześniejszy. Wyniki już gorsze, na ok. 21 sygnałów kupna, 12 poprawnych sygnałów, czyli 57%. Dla sygnałów sprzedaży jeszcze gorzej, ok. 50%.

Gdyby wziąć średnią z rozpatrywanych dwóch różnych okresów, dostalibyśmy 60% poprawnych sygnałów kupna. Jednak sygnały sprzedaży to tylko 55%. W sumie sygnały sprzedaży znajdują się na granicy losowości. Po uśrednieniu całkowity sygnał to ok. 57,5% poprawności.

Oczywiście istnieje pewna doza subiektywizmu sygnałów, ale przyjąłem, że prawidłowy sygnał dotyczy co najmniej kilku dni naprzód.

Kilka uwag. Po pierwsze przyjąłem autorytarnie liczbę 14, choć stosuje się też inne kryteria - ta liczba jest najpopularniejsza. I wydaje się, że coś w tym jest, gdyż 7-dniowy RSI daje trochę częściej fałszywe sygnały. J. Czekaj, M. Woś i J. Żarnowski w "Efektywności giełdowego rynku akcji w Polsce" badają różne metody analizy technicznej, w tym RSI. Ich badania obejmują lata 1994-2000, a więc bardzo młody polski rynek giełdowy. Według autorów optymalnym parametrem metody RSI jest właśnie liczba 14 (dni, miesięcy). Dodam jeszcze przeciętna miesięczna stopa zwrotu metodą RSI wyniosła 1,55%, podczas gdy strategia porównawcza "kup i trzymaj" tylko 0,8%. Autorzy uwzględniają prowizję maklerską w wysokości 0,3%. Oznacza to, że metoda RSI przyniosła prawie dwukrotnie większą stopę zwrotu niż metoda losowa. Liczba spółek z poprawą równa się 26/32, ale autorzy są wstrzemięźliwi, gdyż uznają, że liczba spółek ze statystycznie istotną poprawą wynosi 0. Jest to moim zdaniem stwierdzenie subiektywne, pokazujące stosunek autorów do możliwości prognozowania giełdy: są to akademicy na siłę starający się udowodnić efektywność rynku kapitałowego, czyli przypadkowość fluktuacji kursów.

Po drugie przyjąłem, że poziom wyprzedania i wykupienia rynku wynosi odpowiednio 30 i 70. Kryteria te nie mają podstaw teoretycznych, a jedynie wynikają z obserwacji analityków. Być może kryteria powinny się zmieniać, aby wyniki były lepsze.

Po trzecie przyjmuje się, że RSI opiera się na średniej wykładniczej. Wynika to z założenia, że zdarzenia niedawne mają większy wpływ niż zdarzenia dawniejsze. Jeśli jednak występuje co kilka, kilkanaście dni pewien cykl, to wcześniejsze zdarzenia będą miały większą wagę niż niedawne. Jednak wykrycie okresu cykli jest trudne do realizacji.


Po czwarte RSI nie działa doskonale, gdyby patrzeć jedynie na sygnały strzałek. Ale niskie poziomy RSI rzeczywiście poprawnie prognozują wzrosty, a wysokie - spadki.

Po piąte, oglądając wykres przez pryzmat miesięcznych stóp zwrotu, obraz rynku się zmienia. Obejrzyjmy 14-miesięczne EMA, a więc także 14-miesięczne RSI. Wykres wygląda tak:



Ciekawe, że z punktu widzenia miesięcznych stóp zwrotu, warto kupować dziś ING. Dodatkowo przemawia za tym przebicie od dołu EMA przez kurs akcji.

Patrząc na wykres INGBSK od lipca 2007 trudno się oprzeć wrażeniu, że kurs spada zgodnie z określonym trendem i tej linii trendu statystycznie "nie chce" przebić (tylko raz przebił na krótko), a więc nie zachowuje się w sposób losowy. Linia trendu jak na razie stanowi silny opór.

Pokazuje to przed jakimi trudnościami stają analitycy techniczni. Jedni będą patrzeć na miesięczne stopy zwrotu, inni na dzienne. Wielu nieznających się na analizie technicznej uważa, że to ezoteryka, oparta na subiektywnych odczuciach. Jednak taka generalizacja jest niesprawiedliwa. Analiza techniczna opiera się na statystyce, nauce ścisłej. Najbardziej dyskusyjne są założenia, na jakich się opiera dany analityk.

Ja nie będę raczej ryzykował utratą zysku i myślę, że jeśli ING zacznie docierać znów do swojej granicy trendu i RSI będzie wykazywał stan wykupienia, dokonam sprzedaży. Jeśli jednak zacznie zawracać, wykazując cykl, sprzedam jeszcze w tym tygodniu. Oprę więc swoje założenia spekulacyjne na dziennych, a nie miesięcznych stopach zwrotu.

Czym jest RSI?

Każdy podręcznik analizy technicznej opisuje wskaźnik siły względnej, RSI. John J. Murphy w "Analizie technicznej rynków finansowych" przedstawia następujący na niego wzór:



Za średnią wartość zmian cen zamknięcia z x dni często przyjmuje się średnią wykładniczą, EMA. Nazwę odpowiednio EMA ze wzrostu cen EMA(U) oraz ze spadku cen EMA(D). Mamy więc wzór:

RSI = 100 - 100/(1+(EMA(U)/EMA(D)).

Liczbę 100 można wyciągnąć przed nawias i potraktować jako zmianę ułamka na procent. Dlatego liczbę 100 pominę. Takie wyrażenie przekształcamy:

RSI = 1 - 1/[(EMA(D)+EMA(U))/EMA(D)] =
RSI = 1 - EMA(D)/(EMA(D)+EMA(U)) =
RSI = (EMA(D) + EMA(U) - EMA(D))/(EMA(D)+EMA(U)) =
RSI = EMA(U)/[(EMA(D)+EMA(U)]



Czyli RSI po prostu mówi, jaką część sumy dwóch średnich wykładniczych wzrostów oraz spadków EMA(U)+EMA(D) stanowi średnia wykładnicza wzrostu EMA(U). Zauważmy, że suma uśrednionych wzrostów i spadków oznacza zakres zmian (całość jest dodatnia). A czym jest zakres zmian? Zakres pokazuje kanał, w jakim porusza się kurs (lub stopa zwrotu). Szerszy kanał oznacza, że kurs ma większą możliwość zmian. Zatem mianownik EMA(D)+EMA(U) oznacza zakres wahań kursu, otrzymujemy zatem średnie odchylenie absolutne. A więc po co tak utrudniać wzorami, skoro ten wyprowadzony jest intuicyjnie prostszy?

Skoro licznik pokazuje wykładniczo uśrednioną zmianę ceny (co oznacza że teraźniejszość jest istotniejsza niż przeszłość) a mianownik uśrednioną sumę wahań cen, to wydaje się, że jednoczesna obserwacja kursu i RSI powinna pomóc w określeniu poziomu wykupienia lub wyprzedania rynku.

Generalnie uważa się, że kurs zbliża się do tzw. poziomu wykupienia, gdy RSI przewyższa wartość 70. Prognozuje to nadchodzące spadki na giełdzie. Kurs zbliża się do poziomu wyprzedania, gdy RSI spada poniżej 30. Prognozuje to nadchodzące wzrosty na giełdzie. Jeśli jednak trend kursu ma określony kierunek północny lub południowy, to RSI pomaga w określeniu jedynie krótko- lub średnioterminowej tendencji kursu.

Jednak poziom 70 i 30 jest dość subiektywny.

Bardziej obiektywną interpretacją RSI jest tzw. dywergencja, to znaczy sytuacja, gdy wskaźnik zachowuje się rozbieżnie w stosunku do ceny instrumentu finansowego. Załóżmy, że mamy trend rosnący. Kurs nadal rośnie, osiąga kolejne maksima, ale RSI choć podąża za kursem, osiąga kolejne minima. Może tak się zdarzyć przede wszystkim w sytuacji, gdy ceny coraz silniej spadają (mianownik RSI rośnie). Po pierwsze rynek traci impet, brakuje kapitału (gracze "tracą energię"). Po drugie, jeśli wahania cen rosną, to znaczy, że rośnie niepewność uczestników rynku. Niepewność wiąże się z większym ryzykiem. Sprawi to, że część graczy odsunie się od papieru wartościowego i faktycznie nastąpi intensywny spadek jego ceny. Drugie wytłumaczenie więc polega na samospełniającej się przepowiedni.

Jeśli trend ceny jest spadkowy, również może powstać dywergencja. Aby do tego doszło, wzrosty muszą być coraz silniejsze (licznik RSI coraz wiekszy). Potencjał spadku spada, a gracze zaczynają wierzyć we wzrosty, które faktycznie się zaczynają.

sobota, 23 maja 2009

Teoria logperiodyczna

Dziś chciałbym pobieżnie zweryfikować jedną teorię naukową - teorię funkcji logperiodycznej. Najpierw jednak zacytuję dwa fragmenty artykułów poświęconych ekonofizyce. W artykułach tych fizycy szczycą się swoimi osiągnięciami w prognozowaniu cen instrumentów finansowych. Czy rzeczywiście nie muszą zachowywać pokory?

Fragment artykułu z serwisu Racjonalista.pl (strona http://www.racjonalista.pl/index.php/s,38/t,8977):

Fizycy chronią nasze portfele (18-09-2006)

Na początku maja tego roku warszawska giełda przeżyła kryzys. Dzięki analitykom finansowym inwestorzy nie stracili fortun, a kryzys nie zamienił się w krach gospodarczy. "To również zasługa fizyków" - przekonywał uczestników X Festiwalu Nauki prof. UW dr hab. Ryszard Kutner z Instytutu Fizyki Doświadczalnej. Kiedy narastający giełdowy bąbel pękł, ceny walorów finansowych drastycznie spadły. Te zdarzenia były oczekiwane i jeszcze zanim nastąpił spadek, inwestorom można było powiedzieć, jak mają się zachować.

"Dziś wiemy, że najlepszą strategią kryzysową jest strategia przetrwania. Najlepiej nie robić nic i czekać, aż rynek wróci do normy po okresie załamania" - mówi Kutner. Jak podkreśla, skuteczne i precyzyjne przewidywanie zdarzeń na światowych giełdach od setek lat stanowiło marzenie naukowców - nie tylko matematyków czy ekonomistów, ale również fizyków.

Ekonofizyka jako wydzielona dziedzina wiedzy, pojawiła się w drugiej połowie lat 80-tych. Dziś liczne grono ekonofizyków, opierając się na regułach matematyczno-fizycznych, analizuje układy złożone, jakimi są rynki finansowe, i ruchy masowe, jakie się tam odbywają.

Obrazowym przykładem zastosowania praw fizyki do analizy rynkowej, są badania nad zjawiskiem relaksacji, czyli reakcji na osiągnięcie przez indeks giełdowy punktu maksymalnego. "Porównujemy zachowania inwestorów do reakcji biopolimeru, na przykład ciasta makowcowego, na rozciąganie. Na tej podstawie budujemy wzór funkcji, która doskonale opisuje to zjawisko giełdowe" - tłumaczy Kutner.

Wkład fizyków w badania nad rynkiem finansowym datuje się już na XVI wiek. Profesor przypomina m.in. dokonania Mikołaja Kopernika, czy Isaaca Newtona. "Jestem w stanie przewidzieć ruchy planet we Wszechświecie, ale nie ludzkie emocje" - miał powiedzieć Newton, oceniając giełdę w kategorii zjawisk nieprzewidywalnych. "Zdanie wypowiedziane przez ojca współczesnej fizyki, po tym, jak przegrał na giełdzie cały swój majątek, sparafrazowane stanowi podstawową zasadę giełdy: +Nie ma zysku bez ryzyka+" - mówi Kutner.

Kolejni wielcy fizycy próbowali zmienić to powszechne przekonanie. Poprzez skomplikowane funkcje i wykresy opisywali owe nieprzewidywalne emocje. Karl Gauss (Niemiec) stworzył pierwszy w historii fundusz powierniczy (fundusz wdów po profesorach). Sformułował zasadę budowy i dywersyfikacji portfela giełdowego, która pozwala zminimalizować ryzyko operacji finansowych. Włoch Vilifredo Pareto odkrył z kolei, że zjawiska rynkowe podlegają pewnym określonym zasadom matematycznym. Wszystko, co jest odchyleniem od tej zasady (rozkładu Pareto) świadczy to tym, że zadziałały czynniki pozarynkowe.
Louis Bachelier (Francuz) dokonał przełomu w analizie rynków finansowych, opracowując metodę precyzyjnej analizy giełdy. Cenę uznał za cząstkę, a inwestorów przyrównał do atomów, które cząstce tej oddają swój pęd. W zależności od kierunku ruchu atomów, cena rośnie lub maleje.
Na tworzenie coraz lepszych instrumentów giełdowych również niebagatelny wpływ mieli fizycy. To oni stworzyli opcje (instrumenty, które dają szansę zarobienia, nie zobowiązując jednocześnie do zawarcia nieopłacalnej transakcji).

"Wszystkie te teorie, choć ułatwiły analizę finansową, pozwalają jedynie zmniejszyć ryzyko i je oszacować. Nie podają jednak recepty na zarobienie pieniędzy" - podsumowuje Kutner. "Dziś łatwiej nam przewidywać kryzysy i hossy. Potrafimy wyciągać wnioski z analizy zachowań inwestorów w czasie. Udało się stworzyć funkcje, które niemal bezbłędnie opisują ludzkie emocje" - dodaje.



Tekst z drugiej połowy 2006 r. Nikt wtedy jeszcze "nie marzył" o takiej bessie, jaka przyszła rok później. Czy fizycy ją przewidzieli? Niestety nie natrafiłem na taką wypowiedź.

A teraz danie główne, czyli teoria logperiodyczna. Zacytuję wywiad zamieszczony na stronie http://www.forum.gpwinfo.pl/showthread.php?t=2227:

Fizycy twierdzą, że potrafią prognozować wartość indeksów giełdowych

Rozmawiał: Mariusz Zawadzki 31-07-2003, ostatnia aktualizacja 31-07-2003 17:16

Wywiad z pionierem ekonofizyki w Polsce, profesorem Stanisławem Drożdżem.

Mariusz Zawadzki: Dlaczego fizycy nagle uwierzyli że mają szansę zrozumieć rynki finansowe lepiej niż zawodowi ekonomiści?

Prof. Stanisław Drożdż*: - To nie jest kwestia wiary. Od dawna wiemy, że świat finansów zachowuje się podobnie jak natura. Np. zmiany cen na rynkach finansowych. Przypominają ruch cząsteczki umieszczonej w cieczy i poddawanej ogromnej liczbie przypadkowych "kopnięć" otaczających ją cząstek.

Ale to trochę rozczarowujące: zatem giełda to zupełny chaos, podobnie jak ruch cząsteczek?

- Natura lubi chaos...

Tylko że w chaosie trudno o prognozy...

- Ale ja nie twierdzę, że łatwo! Zacznijmy od przykładu. Pokażę panu dwa wykresy pracy serca: pierwszy - regularny sinusoidalny i drugi - trochę zakłócony, nieregularny, zygzakowaty. Zdrowe serce opisuje ten drugi.

Chaos jest receptą na zdrowie?

- Właśnie. Praca serca powinna mieć składową regularną, której się spodziewamy, ale powinna mieć też składową chaotyczną. Serce musi być elastyczne - np. kiedy zdenerwujemy się, musi przeskoczyć z jednego typu aktywności do drugiego, dostarczyć więcej tlenu do mózgu. Udział składowej chaotycznej okazuje się w tym przypadku zbawienny.

Ale w pracy serca regularność dominuje nad chaosem. Tymczasem wykresy giełdowe często przypominają bazgroły trzylatka...

- Fakt. Choć w przypadku rynku finansowego trudniej jest wychwycić składową regularną i na tej podstawie prognozować przyszłość, to jednak jest to możliwe. Krachu roku 2000 spodziewałem się już rok wcześniej.

Ale dlaczego giełda miałaby podlegać prawom natury? Może po prostu podąża za gospodarką i polityką?

- Myślę, że giełda to znacznie więcej, niż zwykliśmy sądzić. Kiedy mówię o giełdzie, myślę o liczbach. A te liczby odzwierciedlają globalną społeczną świadomość. Jeśli przyjmiemy, że coś takiego istnieje.

Czym miałaby być?

- Spróbujmy porównać ludzkość do mózgu. Świadomość jest atrybutem całego mózgu, nie pojedynczych neuronów, których mamy kilkanaście miliardów. Neurony są dość przypadkowo połączone, ale każde dwa kontaktują się przez najwyżej kilku pośredników. Te połączenia są najbardziej istotne. One powodują, że powstają globalne wzorce aktywności. Świadomość w mózgu jest dopiero globalna.

Teraz spojrzyjmy na nas. Jesteśmy takimi odpowiednikami neuronów. Podobnie jak neuron - każdy z nas jest tylko nieświadomym uczestnikiem globalnych zdarzeń. Podobnie jak neurony - i nas liczy się w miliardach. Ostatnie badania pokazują, że człowiek od człowieka jest oddalony o pięć do sześciu podań ręki. Były takie symulacje: losowo wybierano dwóch ludzi i sprawdzano, ilu pośredników potrzebują, żeby się skontaktować.

- Badając mózg, nasłuchujemy fal mózgowych, którymi porozumiewają się neurony. Dla mnie jedynym odpowiednikiem tych fal, jeśli chodzi o społeczności ludzkie, przynajmniej jedynym dostępnym dla nas w postaci liczb, są parametry finansowe. Być może, nasłuchując ich kiedyś, nauczymy się docierać do faktów, które istnieją w globalnej świadomości. Świadomości niedostępnej dla pojedynczych osobników.

Co z tego w praktyce wynika? Jak wy, ekonofizycy, przewidujecie trendy giełdowe?

- Rynek finansowy, podobnie jak natura, balansuje na granicy między porządkiem a chaosem. Cała sztuka to wychwycić ów porządek. Najlepsze kwalifikacje mają ku temu fizycy. Są doświadczeni w badaniu złożonych układów dynamicznych, np. górskich lawin czy ruchów skorupy ziemskiej prowadzących do trzęsień ziemi. A mechanizm tych zjawisk jest dość podobny do krachów giełdowych. Trzęsienie ziemi to nagłe uwolnienie naprężeń skorupy ziemskiej. Naprężenia na giełdzie są wtedy, kiedy wszyscy inwestorzy czują, że hossa się kończy, że wszystko zmierza w jednym kierunku. W kierunku punktu krytycznego.

Co to jest punkt krytyczny?

- To punkt, gdzie układ jest bardzo wrażliwy nawet na minimalną zmianę parametrów. Taka wrażliwość jest możliwa na styku regularności i chaosu. Ideę krytyczności dobrze oddaje pryzma piasku. Gdy usypujemy górę z ziarenek, nic z początku się nie dzieje. Aż do czasu, gdy góra osiągnie maksymalne nachylenie i bardziej stroma już nie będzie. To nachylenie krytyczne. Teraz wystarczy ziarenko piasku, by spowodować lawinę. I choć częściej będziemy mieli małe "lokalne" lawinki, to raz na jakiś czas jedno jedyne ziarenko spowoduje wielką "globalną" lawinę. Pryzma staje się układem w stanie krytycznym. Jedno ziarenko może odmienić wszystko.

Ale jak punkt krytyczny, czyli krach, przewidzieć?

- Jedną z dróg jest teoria log-periodyczności, którą się zajmuję. Pewne fragmenty wykresu indeksu giełdowego powtarzają się cyklicznie - to one stanowią czynnik deterministyczny. Wykresy notowań indeksów giełdowych wahają się w górę i w dół. Ale im bliżej krachu, tym wahania są częstsze, a kolejne lokalne minima są bliżej siebie. Choć wykres idzie generalnie w górę, gracze wykazują coraz większą nerwowość. Z moich badań wynika, że skoro różnica między aktualnym minimum a poprzednim wynosiła np. cztery lata, to kolejne może nastąpić po okresie dwa razy krótszym, czyli po dwóch latach. Jeszcze kolejne - po roku itd. W ten sposób pojedyncze wahnięcia (powtarzające się fragmenty wykresu) są coraz krótsze, aż zbliżają się do zera. Wtedy jesteśmy w punkcie krytycznym.

To podejrzanie proste...

- Ale to nie koniec niespodzianek. Wykresy indeksów giełdowych mają cechę samopodobieństwa: ich fragmenty mogą być jakby miniaturką całości. Kiedyś zrobiłem eksperyment z finansistą, który zajmuje się krótkoterminową spekulacją w dużym banku europejskim. Pokazałem mu dwa wykresy zmian indeksu: jeden w skali trzech godzin, drugi w skali roku. Nie odgadł, który jest który. Jeśli do fragmentu wykresu wieloletniego przyłożymy lupę, widzimy to samo i takie same prawa tam obowiązują. Krachy w skali mikro i makro można prognozować, używając tych samych technik.

Czy Pan gra na giełdzie?

Proszę o następne pytanie.

Jakie ma Pan dla nas prognozy na najbliższe lata?

- Zrobiłem analizę od roku 1800. Za podstawę wziąłem amerykański indeks Standard&Poor 500, który jest obliczany od lat 30. ubiegłego wieku. We wcześniejszym okresie użyłem indeksu zrekonstruowanego przez historyków ekonomii. Wszystkie krachy w latach 1800-2003 znajdziemy "przewidziane" na krzywej log-periodycznej. Bieżąca recesja jest głęboka i może potrwać aż do końca 2004. Najbliższe maksimum, znacznie wyższe niż to z roku 2000, osiągniemy po roku 2010. Około roku 2025 możemy się spodziewać dramatycznego punktu krytycznego i recesji nieporównywalnej z jakąkolwiek znaną z historii.

Co to może oznaczać?

- Być może koniec systemu finansowego w obecnej postaci. Kiedyś pieniądz był oparty na parytecie złota, teraz w ogóle nie ma żadnego parytetu. Staje się coraz bardziej nierzeczywisty, plastikowy, już go prawie nie oglądamy. W Ameryce zadłużenie społeczeństwa (tzw. mortgage debt) przekroczyło pięć bilionów dolarów, podwajając się w ciągu ostatnich dziesięciu lat. To nie może trwać w nieskończoność. Ta pęczniejąca bańka musi kiedyś pęknąć.

Patrzy pan na giełdę w oderwaniu od wskaźników gospodarczych. Nie boi się Pan posądzenia o szarlatanerię?

- Powtarzam - giełda to nie tylko gospodarka. Czynników mających na nią wpływ są miliony. Pewnie zresztą dlatego, że jest tych czynników tak nieprawdopodobnie wiele, to cechy systemów złożonych spotykanych w fizyce się tu manifestują. Jak w przypadku ruchów skorupy ziemskiej. Ale ze względu na liczbę czynników, nie ma sensu analizować ich z osobna.


Również na tej stronie został przedstawiony wykres indeksu S&P500 od roku 1800:



Gdy popatrzymy na ostatnią częśc wykresu i porównamy z faktycznym stanem:



Zgodnie z teorią logperiodyczną pomiędzy rokiem 2000 a 2020 wystąpił jeden krach - ten z lat 2000-2002, ale gdzie się podział ten NASZ wielki krach rozpoczęty w 2007? "Bieżąca recesja jest głęboka i może potrwać aż do końca 2004. Najbliższe maksimum, znacznie wyższe niż to z roku 2000, osiągniemy po roku 2010. Około roku 2025 możemy się spodziewać dramatycznego punktu krytycznego i recesji nieporównywalnej z jakąkolwiek znaną z historii." Profesor kompletnie się pomylił: nowa hossa zaczęła się od początku 2003 r, trwała prawie 5 lat i wtedy się rozpoczęła katastrofa.

Warto jednak zauważyć coś paradoksalnego - gdy pada pytanie o to, co znaczyć będzie owa recesja, profesor mówi o rzeczy niesamowicie aktualnej (sztuczność pieniądza, zadłużenie), lecz jest to prognoza makroekonomiczna, a nie oparta na wykresach. Profesor nie przewidział, że zapaść nastąpi o wiele szybciej.

I jeszcze na koniec przytoczę wykres z bloga W. Białka, który w jednym poście również przytacza powyższy cytat, tyle że w kontekście ropy naftowej:



A faktyczny wykres ropy jest następujący:



I znowu podobnie - wszystko działało dopóki teoria logperiodyczna nie ujrzała światła dziennego. A może to przypadek? Nie będziemy się w to zagłębiać. Wiemy na pewno, że teoria słabo zadziałała - nie przewidziała ceny baryłki dochodzącej do 140 $, ani potężnego spadku, gdy cena dochodziła do 30 $. Można niby bronić teorii, że pokazała pewną średnią, ale co pożytecznego w takiej prognozie?

Wątpię, żeby teoria logperiodyczna przestała działać ze względu na brak uwzględnienia "samej siebie". To co się stało na rynkach finansowych w 2007 i 2008 r. było odzwierciedleniem nadchodzącego kryzysu finansowego, aż w końcu ogólnogospodarczego (prawdopodobnie efekt spadku dostarczania kredytów firmom i indywidualnym osobom przez banki). Po prostu teoria ta jest dużym (zbytnim?) uproszczeniem rzeczywistości. Wystarczy porównać dokładniej wykresy indeksu S&P500 i funkcji logperiodycznej w poprzednich latach. Lata 1920-1933 również nie zostały dobrze wyprognozowane. W innych okresach jest również wiele odstępstw. Należy jednak przyznać, że pomimo tych odstępstw giełda w jakiś sposób powracała w okolicę ścieżki wyznaczonej przez teorię.

środa, 20 maja 2009

Wykładnik Lapunowa jako stopa procentowa nieprzewidywalności

Dziś chciałbym pokazać, dlaczego wykładnik Lapunowa może stać się ważnym elementem w finansach. Pokażemy, że stanowi on "stopę procentową nieprzewidywalności" danego aktywa. Jednocześnie wyjaśni się, skąd bierze się funkcja exp we wzorze na wzrost odległości między dwiema trajektoriami.

Stopa procentowa r jest ceną uzyskania i trzymania pieniądza. Trzymanie pieniądza wiąże się z wymiarem czasu, a zatem r jest ceną czasu. Czas możemy podzielić na okresy 0,1,...n. Początkowy kapitał x z okresu 0 zostaje powiększony w okresie 1 o x*r. W drugim okresie posiadamy już x+x*r, a więc ten kapitał staje się znów początkowy w stosunku do drugiego okresu i powiększony o x*r, czyli uzyskujemy:

t=2 (x+x*r)+(x+x*r)*r = (x+x*r)(1+r) = x(1+r)(1+r)=x(1+r)^2.

Każdy kolejny okres zostaje w analogiczny sposób potraktowany:

t=3 x(1+r)^2+(x(1+r)^2)*r = (x(1+r)^2)(1+r) = x(1+r)^3
...
...
t=n x(1+r)^n

Powyższe odwzorowanie można uogólnić, jeśli chcemy uwzględnić kapitalizację częstszą niż raz na okres t (czyli najczęściej miesięczną lub kwartalną). Wówczas każdy t-ty okres dzieli się na m podokresów. W sumie otrzymujemy m*n podokresów. Jeśli r jest roczną stopą procentową, to r/m będzie miesięczną lub kwartalną stopą procentową. Zatem wartość przyszła ze wszystkich podokresów wyniesie:

x(1+r/m)^(m*n)

Jeśli tylko m dąży do nieskończoności, otrzymamy wzór na kapitalizację ciągłą x*e^(r*n):



Pamiętamy, że odległość pomiędzy dwiema orbitami (trajektoriami) układu dynamicznego, zachowuje się zgodnie ze wzorem exp(L*n), gdzie L=r, L - współczynnik Lapunowa. Wykładnik L nie jest więc stopą procentową aktywa, lecz zmiany (wartości) aktywa:

zmiana warunków po t-tym okresie czasu = (zmiana warunku początkowego w okresie 0)*exp(t*L).

Istnieje ścisły związek pomiędzy stopą procentową r a stopą zwrotu (inaczej efektywną stopą procentową) R:

efektywna stopa procentowa = R = (wartość przyszła - wartość dzisiejsza)/wartość dzisiejsza.

Czyli w naszym przykładzie:



Przekształćmy to wyrażenie:

R+1 = exp(r*n)
ln(R+1)=r*n.

A więc



Ponieważ R można zapisać jako [P(n)-P(0]/P(0), gdzie P(t) - cena aktywa a okresie t, to

R+1 = P(n)/P(0), czyli indeks ze stopy zwrotu.

Ostatecznie:

r = (ln(P(n)/P(0))/n

Wyrażenie ln(P(n)/P(0)) nazywa się logarytmiczną stopą zwrotu.

Znaczenie praktyczne logarytmicznej stopy zwrotu jest ogromne, można bowiem bezpośrednio dodawać do siebie poszczególne stopy zwrotu (na przykład z różnych akcji - błędem jest dodawanie zwykłych arytmetycznych stóp podawanych przez serwisy), co nie jest możliwe w przypadku arytmetycznych stóp zwrotu, czyli R.

Aby L=r, we wzorze na R za P(t) należy podstawić P(t2)-P(t1), gdzie P(t2)-P(t1) oznacza błąd pomiaru lub prognozy, co oznacza różnicę wartości w t-tym okresie czasu pod wpływem błędów w warunkach początkowych. Czyli stopa R musi wyrażać się już wzorem:



Poprawny jest nadal wzór:

R = exp(r*n)-1, jeśli tylko błąd P(t2)-P(t1) nie wynosi zero.

Zaś wykładnik L:



Powinienem zapisać, że t=0, ponieważ zaczynamy od okresu 0:



Przewidzenie ruchu kursu wydaje się więc zadaniem niewykonalnym, jeśli L>0. Po pierwsze trzeba by na podstawie danych z przeszłości potrafić wyznaczyć dokładną drogę, po której poruszał się kurs. Czy tylko na podstawie samych zmian kursu (które często zmieniają się szybciej niż co minutę) będziemy w stanie wyznaczyć odwzorowanie generujące trajektorię kursu? Jeśli będziemy chcieli tylko w przybliżeniu oszacować kurs, nasze wysiłki zdadzą się na nic. Jeśli L=0,2, a błąd w warunku początkowym wyniesie 1 grosz, czyli 0,01 zł, to teoretyczny błąd po 100 okresach wyniesie exp(0,2*100)*0,01=4851651,95 zł. A więc błąd po 100 okresach równa się 4,85 mln zł. Jeśli 1 okres to minuta, to błąd ten wyniesie już po 100 minutach. Jak to możliwe? Czy tak wielkie odchylenie nie jest jakimś fałszem?

Poniżej przedstawię, skąd tak naprawdę biorą się tak duże odchylenia po n iteracjach.

Najpierw definiujemy L jako średnią wartość logarytmu pochodnej wzdłuż trajektorii P. Czyli chcemy wiedzieć, jak średnio zmienia się trajektoria kursu po n iteracjach (n okresach) pod wpływem pewnego początkowego błędu.



Dlaczego bierzemy średnią logarytmu, a nie po prostu średnią? Ze względu na własności logarytmów. Suma logarytmów jest równa logarytmowi iloczynu jego wyrazów:

ln(dP(n)/dP(n-1)+ln(dP(n-1)/dP(n-2)+...+(ln(dP(1)/dP(0) =
ln(dP(n)/dP(n-1)*dP(n-1)/dP(n-2)*...ln(dP(1)/dP(0) = ln(dP(n)/dP(0))

Czyli mamy nasz poprzedni wzór:



Inaczej możemy to zapisać (poprzednio już to widzieliśmy), że
L=1/n*ln(P(n2)-P(n1)])/[P(t2)-P(t1).

Niech b oznacza błąd początkowy. Możemy zapisać, że

P(n2)=[P po n-tej iteracji](b) - wartość końcowa, gdy wystąpił błąd na początku
P(n1)=[P po n-tej iteracji](0) - wartość końcowa, gdy nie wystąpił błąd na początku
P(02)=P(b) - wartość początkowa z błędem na początku
P(01)=P(0) - wartość początkowa bez błędu

Z definicji pochodnej otrzymujemy (różnica P(b)-P(0)=dP(b)=b):

([P po n-tej iteracji](b)-[P po n-tej iteracji](0))/b = dP(n)/dP(0)
([P po n-tej iteracji](b)-[P po n-tej iteracji](0) = dP(n)/dP(0)*b

Ponieważ L = 1/n*ln(dP(n)/dP(0)) to dP(n)/dP(0) = exp(n*L).

Stąd wzór:

błąd po n-tej iteracji = exp(n*L)*(błąd w okresie 0).

Zapiszmy to jeszcze raz bo to ważne:



Można powiedzieć, że wyprowadziliśmy ten sam wzór na błąd po raz drugi. Jednak należy zauważyć, że o ile drugi sposób jest dużo precyzyjniejszy, to nie wyjaśnia w sposób teoretyczny stosowania logarytmów, a jedynie techniczny.

Połączenie obu sposobów daje pełny obraz na temat L. Stopa procentowa nieprzewidywalności okazuje się średnią logarytmu pochodnej błędu pomiaru dla kapitalizacji ciągłej. Chociaż moglibyśmy się uprzeć i zastosować wzór na kapitalizację dyskretną. Różniczki wynikające z definicji wykładnika Lapunowa mogą bowiem zostać zastąpione różnicami. Mając do czynienia z odwzorowaniem jednowymiarowym (a więc po prostu cena dnia następnego zależy tylko od ceny bieżącej), dla początkowego błędu 0,01 zł, kapitalizacji dziennej dającej dzienną stopę procentową +0,03 (roczna stopa procentowa wyniosłaby 10,8, r/360=0,03=>r=10,8), po miesiącu błąd by się dopiero podwoił
(0,01*(1+0,03)^30 = 0,024). A więc dla błędu 10 gr, błąd wyniósłby po tym samym czasie 24 grosze. Ale po roku początkowy błąd 10 gr wyniósłby już 4182,16 zł.

Należy jednak zwrócić uwagę, że błędy o jakich mówimy, stanowią raczej miernik niemożliwości prognozowania niż faktyczne wartości odchyleń. Zacytuję fragment pracy "Analiza i przetwarzanie sygnałów chaotycznych" Z. Galiasa, który we wstępie ogólnie pisze czym są układy chaotyczne. Autor ogranicza się do dyssypatywnych układów, czyli takich, w których energia zostaje rozproszona - w takich układach rozwiązania znajdują się w pewnej kuli, której już nie opuszczą.

Przez chaos w takich układach będziemy rozumieć nieregularne zachowanie, które wydaje się być przypadkowe, ale takie nie jest. Przypadkowość ta jest wynikiem wrażliwości trajektorii na warunki początkowe objawiająca się w tym, że dwie trajektorie startujące z dowolnie bliskich punktów, w przypadku układu chaotycznego, zwykle wykładniczo oddalają się od siebie, pozostając równocześnie w ograniczonym obszarze przestrzeni fazowej, i po pewnym czasie stają się nieskorelowane. Układ chaotyczny jest to najprościej mówiąc układ generujący przebiegi ograniczone posiadający własności wrażliwości na warunki początkowe.

Podkreśla się w tym fragmencie, że trajektorie pozostają w pewnym ograniczonym obszarze przestrzeni. Obszar ten można utożsamić z atraktorem, czyli przyciągaczem trajektorii. Wynika z tego, że trajektorie nie fruną sobie w nieskończoność, ale zawijają się wokół siebie. Dlatego, nawet jeśli wystartujemy z dwóch dowolnie bliskich punktów początkowych, to utworzone dwie trajektorie pomimo wykładniczego oddalania się, będą po pewnym czasie się zbliżać, a potem znów się oddalą. Nie wiemy jednak jak i kiedy.

Dlatego w obliczeniach wykładnika Lapunowa nie należy obejmować momentów zbliżania się orbit, czyli kontrakcji, ponieważ arbitralnie ustalamy, aby wykładnik mierzył siłę oddalania się, a nie zbliżania orbit.

niedziela, 17 maja 2009

Trójkąty, kliny, wahadło tłumione i wykładnik Lapunowa

Chciałbym powrócić na chwilę do wykładnika Lapunowa L, o którym pisałem w swoim pierwszym poście. Pamiętamy, że Lapunow odkrył, iż o chaotyczności układu dynamicznego decyduje wykładnik liczby e, tzn. exp(t*L), gdzie t to czas. Jeśli L jest dodatni, dostajemy układ chaotyczny, jeśli zerowy, trajektorie (orbity) pozostają w stałych odstępach równych warunkom początkowym, natomiast, gdy jest ujemny, orbita zmierza do stabilnego punktu. Nie będziemy dziś dochodzić, jak Lapunow odkrył, że o odległości dwóch trajektorii decyduje funkcja exp. Wkrótce jednak poruszę i ten temat.

Skupmy się na ujemnym L. Otóż przykładem układu charakteryzującego się takim L jest tłumione wahadło. Początkowa siła dostarcza energii kinetycznej wahadłu, które z czasem oddaje tę energię do otoczenia na skutek działania oporu powietrza (tarcia powietrza) i siły grawitacji. Wahadło dąży więc do pewnego punktu stabilnego.

Zauważmy, że istnieje analogia na rynku akcji. Początkowo na rynek wchodzą gracze i swoją siłą dostarczają energii w postaci kapitału. Warto na marginesie odnotować, że energia, czyli zdolność do wykonania pracy jest analogonem kapitału. Kapitał (pieniądz, człowiek, nieruchomości) jest również zdolnością do wykonania pracy. Wzrost kapitału powoduje, że kurs akcji i obroty giełdowe rosną. Ale ponieważ kapitał został dostarczony tylko raz, kurs akcji zaczyna się wahać, zdążając do pewnego stabilnego punktu.

Rozumiemy to w ten sposób, że ci początkowi gracze, którzy dostarczyli kapitału, stanowią jedyną energię dla układu kursu akcji i wszelkie dalsze ruchy kursu odbywają się na podstawie zleceń tylko tych graczy. Ponieważ energia kinetyczna zostaje oddana do otoczenia, tak samo kapitał ulega dyfuzji - co ma dwoisty efekt: albo cena spada (popyt zachowuje więc część kapitału zawartego w spadku ceny dla siebie), albo rośnie (podaż ucieka stopniowo z zarobkiem). Cena więc się waha i dąży do pewnego stabilnego punktu. Jeśli podaż sprzedaje po wyższej cenie, to ucieknie z giełdy, a więc nie będzie sił do dalszej wyprzedaży waloru. Popyt będzie chciał "się odegrać" i kupić po niższej cenie. Gdy dostanie oczekiwaną niższą cenę, nie będzie miał motywacji, aby dokonywać dalszych zleceń kupna. Przeciwstawne siły popytu i podaży wygasają. Kurs akcji zamiera - pamiętamy bowiem o założeniu, że nowi gracze nie wchodzą.

Zaznajomieni z analizą techniczną, szybko dostrzegą tu analogię z trójkątami i klinami. Jednak w tych formacjach zakłada się, że w końcowej fazie formowania się trójkąta czy klina, następuje tzw. wybicie z trójkąta lub klina - górą lub dołem. Jednocześnie zakłada się często, że obroty giełdowe spadają (a na koniec rosną). Wynikałoby z tego, że zakłada się, że w końcowej fazie spadku aktywności giełdowej następuje wejście nowej grupy graczy. I wszystko zaczyna się od początku.

Okazuje się więc, że wykładnik Lapunowa łączy się z analizą techniczną. Szerzej będę o tym pisał w kolejnych postach.

Jak to jednak wygląda w praktyce? Jeśli chodzi o notowanie dzienne, idealnych trójkątów czy klinów nie ma zbyt wiele. Spójrzmy na wykres Trakcji na początku 2009 roku:



Powstał tzw. trójkąt prostokątny zniżkujący, zakończony wybiciem w górę. Takich trójkątów można jednak szukać ze świeczką, a pomimo tego, przedstawiony układ trójkąta nie jest reprezentatywny, gdyż analiza techniczna prezentuje najczęściej sytuację, gdy trójkąt (klin) jest swego rodzaju korektą-przerwą w trwającym trendzie, a więc kierunek trójkąta (klina) (góra albo dół) jest przeciwny do ogólnej tendencji kursu.

Lepiej sytuacja wygląda na wykresach intraday, np. WIG20 z dnia 19.05.09:



W tym przypadku teoria zadziałała. Po przejrzeniu wykresów intraday dojdziemy do wniosku, że w wielu sytuacjach sprawdza się zależność wynikająca z AT, choć w sposób nierównomierny. Jak to uzasadnić? Otóż że w przypadku wykresów intraday założenie odnośnie stałej liczby spekulantów jest bardziej realne. Podczas formowania się trójkąta i klina, ci sami gracze kupują i sprzedają sobie papiery, nie wnosząc już nowego kapitału na giełdę. Stopniowo opuszczają rynek i jeśli ogólny trend jest rosnący, nowy kapitał przybywa dopiero po pewnym czasie. Popyt, który wcześniej chciał taniej kupić, tym razem przekształci się w podaż, aby drożej sprzedać.

Cel bloga

Drugie pytanie, jakie ktoś zadałby Giełdowemu Racjonaliście byłoby następujące: "Czy ten blog pomoże mi pomnożyć pieniądze?". Pytanie podobne do poprzedniego, ale jest mniej szczegółowe, odnosi się bowiem do możliwości poprawnego prognozowania. Jest to - niestety - kolejne pytanie, na które nie potrafię w tym momencie odpowiedzieć. Uważam, że o prognozowaniu wiem ułamek tego, co wiedzieć powinienem. Między innymi dlatego stworzyłem ten blog - będzie mi i czytelnikom służył do uczenia się nowych technik prognozowania świata finansów, a także elementów ekonometrii. Z każdym dniem będę jednak bliżej odpowiedzi.

Jaki zatem jest cel tego bloga? Można go przedstawić w dwóch punktach:
1. zwiększenie wrażliwości na pewne zagadnienia z zakresu ekonomii, matematyki statystycznej, finansowej, ekonometrii itp. Przez wrażliwość rozumiem "głębszy poziom zrozumienia" - to, na co zwykle nie zwracamy uwagi, czego nie zauważamy lub czego sobie nie uświadamiamy;
2. falsyfikacja (a także weryfikacja) analizy technicznej, analizy fundamentalnej, strategii opartych na tzw. anomaliach rynku kapitałowego, modeli ekonometrycznych, modeli rynku efektywnego. "Falsyfikacja" - idąc za myślą Poppera - oznacza, że teorii naukowej nie da udowodnić, ale można wykazać jej nieprawdziwość. Należy tu zwrócić uwagę na określenie "teoria naukowa" - aby teoria lub hipoteza mogła liczyć się jako prawdziwie naukowa, musi wystawić się na próbę obalenia. Celem Poppera było oddzielenie nauki od tego, co nią nie jest, czyli pseudonauki. (Op. cit. Edmonds D., Eidinow J., Pogrzebacz Wittgensteina. Opowieść o dziesięciominutowym sporze między dwoma wielkimi filozofami, Warszawskie Wydawnictwo Literackie MUZA S.A., W-wa 2002, str. 202.) My również będziemy oddzielać naukę od pseudonauki oraz krytycznie spoglądać na wszelkie metody predykcyjne, jakimi nas "epatują".

Chciałbym również podkreślić, że blog ten nie stanowi rodzaju podręcznika. Są tu wolne przemyślenia, które "akurat" przychodzą do głowy lub zagadnienia, którymi jakiś czas temu się zainteresowałem. Na pewno będę powracał do tych samych zagadnień po raz kolejny, łącząc je z nowymi. Mam nadzieję, że nie wyjdzie kompletny galimatias. Żeby tego uniknąć, będę pisał za każdym razem jakby nowy artykuł, nawiązując do poprzednich w sposób "niezobowiązujący" do ich przeczytania. Zdaję sobie sprawę, że jeśli ktoś wejdzie na ten blog i nagle zobaczy nie zrozumiałe znaczki, w zasadzie przyjmie jedną z dwóch skrajnych postaw: albo go to zaintryguje (to co nie zrozumiałe), albo znudzi lub przerazi. Blog ten jest i tak przeznaczony raczej dla grupy osób o pierwszej wymienionej postawie, jednak wiem jak to jest - nawet miłośnik nauk ścisłych, szczególnie jeśli nie ma za dużo czasu, szybko może się zniechęcić, jeśli będzie wyskakiwało to i tamto nie wiadomo skąd. A na szukanie jakichś poprzednich wpisów, nie ma się ochoty i czasu.

Problem z naukami ścisłymi jest taki, że są ścisłe. Wszystko jest w nich tak połączone, że aby pojąć trudniejsze kwestie, niezbędne jest opanowanie prostszych. Ale wyjaśnianie wszystkiego krok po kroku w każdym wpisie jest niemożliwe. Stąd w niektórych sytuacjach będę po prostu dawał odnośniki do postów, w których wyjaśniam potrzebne zagadnienia.

piątek, 15 maja 2009

Czy giełda jest przewidywalna?

Witam na blogu Giełdowy Racjonalista. Jest to blog przeznaczony dla osób, które:
1. mają w sobie duszę przedsiębiorcy oraz naukowca. Oba typy mają zupełne różne preferencje, choć niewykluczające się: przedsiębiorca pragnie pomnażać pieniądze, naukowiec - odkrywać zasady rządzące światem;
2. interesują się rynkiem kapitałowym.
Wynika z tego, że blogiem tym powinny być zainteresowane osoby fascynujące się nauką i jednocześnie zarabianiem na rynku kapitałowym.

Z powyższego również wynika, że blog przeznaczony jest także dla mnie. Z jednej strony sam nieco gram na giełdzie. Z drugiej chciałbym, aby ten blog motywował mnie do większej aktywności giełdowej, uczenia się nowych zagadnień, a także pomagał w uporządkowywaniu myśli i rozwiązywaniu nowych problemów.

Chciałbym również, aby blog ten przynosił mi pewne profity. Wszyscy wiemy, o co chodzi, ale o czym nie wolno mówić. TO powodowałoby, że i ja, i czytelnicy zyskiwaliby na tym - taka symbioza.

A więc do dzieła. Chytre pytanie, jakie ktoś zadałby na początku giełdowemu racjonaliście, byłoby zapewne następujące: "Czy rynek kapitałowy jest przewidywalny czy nieprzewidywalny?" Jednak takie pytanie jest bardzo nieprecyzyjne. Przez sformułowanie, że rynek jest przewidywalny rozumiemy możliwość przewidzenia zachowania ruchów cen instrumentów finansowych. Nawet, jeśli nie potrafimy ich przewidzieć nie znaczy to, że nie można tego dokonać. Aby więc pytanie było sensowne, należałoby zapytać "Czy rynek kapitałowy jest możliwy do przewidzenia przez nas (tu i teraz)?" Logik zapewne również nie zadowalałby się precyzją takiego pytania, bo nie wiadomo co znaczy "nas". Prędzej, należałoby zastąpić "nas" - "kogoś ze współczesnych ludzi". Nie jesteśmy w stanie tego sprawdzić. Ponadto, gdyby ktoś odnalazł "Świętego Graala", powstałby następujący intrygujący problem. Czy taka osoba nie chciałaby wykorzystać swojej wiedzy dla własnych korzyści? Załóżmy, że tak. Czy wówczas osoba ta nie wpłynie swoim zleceniem na badany układ, podobnie jak w świecie kwantowym pomiar położenia cząstki zmienia jej pęd? Ktoś może zripostować, że przecież, jeśli osoba zna kurs akcji w przyszłości bliższej i dalszej, to aby nie wpływać na kurs w przyszłości bliższej i w konsekwencji dalszej, może zawrzeć transakcję Po Cenie Rynkowej. Jednak każda transakcja wymaga strony popytu i podaży, a zatem ktoś musi sprzedać nam tyle i tyle akcji PCR. Jeśli ktoś nam sprzedał, to znaczy, że ktoś inny nie kupił - być może byliśmy szybsi. Ale wówczas niedoszły popyt prawdopodobnie będzie starał się dokonać po raz kolejny transakcji, być może już po wyższej cenie. Tym samym wpłynęliśmy na badany układ rynku.

Teraz załóżmy, że osoba przekazuje innym "Świętego Graala", sama go nie wykorzystując. Czy jeśli znamy przepis na giełdę, to czy on jeszcze istnieje? Czy będziemy go ogłaszać, uprzednio nie dyskontując go?

Oba założenia wydają się prowadzić do jednoznacznego wniosku, że zachowanie się kursów jest z góry nieprzewidywalne. Zastanówmy się jednak, co skłoniło nas do takiej odpowiedzi.

W pierwszym założeniu okazało się, że zawsze będziemy wpływać na rozwój rynku. Skąd jednak przeświadczenie, że będzie to miało znaczenie w dłuższym okresie czasu? Niektórzy będą przywoływać elementy teorii chaosu, gdy nawet niewielkie zaburzenia w warunkach początkowych równania chaotycznego, doprowadzą w niedługim czasie do ogromnych zmian w trajektorii cen walorów. Jednakże bezpośrednie nawiązywanie do modelu chaotycznego zakłada, że wykładnik Lapunowa jest dodatni. Natomiast, jeśli wykładnik ten jest ujemny, istnieje stabilna trajektoria, w której początkowe zaburzenia ulegają wygaszeniu w czasie.

Notka: Podstawy matematycznej teorii stabilności ruchu stworzył Lapunow, który rozpatrywał jak szybko wzrasta w czasie ewolucji odległość pomiędzy dwiema bliskimi trajektoriami. Jeżeli układ dynamiczny jest chaotyczny, odległość taka rośnie w czasie t wykładniczo jak exp(t*L), gdzie współczynnik L zwany wykładnikiem Lapunowa jest dodatni. Na podstawie tego można wywnioskować, że błąd (czyli jakby zmiana) określenia warunków początkowych po t-tym okresie czasu wyniesie exp(t*L)*błąd określenia warunku początkowego w okresie 0. A więc jeśli L=0, to błąd ten będzie zawsze identyczny i równy błędowi określenia warunku w okresie 0, gdyż exp(t*0) = 1. A jeśli jest ujemny, to exp(tL) dąży do zera, czyli początkowy błąd-zmiana warunku ulega wygaszeniu w czasie.

Inni będą z kolei powoływać się na przedstawioną powyżej zasadę nieoznaczoności. Czy jednak porównanie fluktuacji kursowych z tą zasadą musi być poprawne? Na pierwszy rzut oka wydaje się, że istnieje pomiędzy oboma "światami" analogia: obserwacja elektronu podobna byłaby do wykonania zlecenia kupna lub sprzedaży; w pierwszym przypadku - im dokładniej chcemy zmierzyć pozycję elektronu, tym większej energii do tego potrzebujemy, ale ta większa energia silniej zmieni stan cząstki (w sposób nieprzewidywalny); w drugim przypadku - im więcej będziemy chcieli zarobić na Świętym Graalu, tym większego kapitału do tego potrzebujemy, ale ten większy kapitał silniej zmieni stan kursu. Takie porównanie ukrycie jednak zakłada, że kurs akcji jest analogonem świata mikroskopowego. Jeśli zamiast cząstki wzięlibyśmy większą cząsteczkę czy jakiś mikroorganizm, zasada Heisenberga dalej działa, ale w dużo mniejszym zasięgu. Wiąże się to z istnieniem silnych oddziaływań, zwanych oddziaływaniami elektromagnetycznymi. Tak naprawdę nadal dobrze nie wyjaśniono, dlaczego zasada nieoznaczoności Heisenberga działa tylko na poziomie kwantowym i "załamuje się" na poziomie makro. Najczęstszym wyjaśnieniem jest tzw. dekoherencja kwantowa, powodująca stany splątane. Ale ostatnio na stronie Racjonalisty przeczytałem o "kwantowym darwinizmie":
Fizycy uważają, że pewne stany są promowane ponad inne przez kwantową formę naturalnej selekcji, którą mianowali kwantowym darwinizmem. Pełna treść na stronie: http://www.racjonalista.pl/index.php/s,38/t,3072
Powróćmy do naszej wątpliwości. Wcale nie jest pewne, że dekoherencja nie wystąpi już na poziomie kursu danej akcji. Ale bardziej prawdopodobne, że wystąpi na poziomie portfela akcji i w końcu samego indeksu giełdowego.

Teraz przejdźmy do drugiego założenia. Właściwie od razu założyliśmy, że skoro my - z założenia interesujący się zarabianiem na rynku kapitałowym - znamy wzór na stopę zwrotu, to będziemy go dyskontować, a nie dzielić się nim z kimś innym. Mówiąc inaczej, przyjęliśmy założenie, że zachowujemy się racjonalnie. Racjonalność w ekonomii oznacza maksymalizowanie użyteczności, czyli optymalizowanie swojego zachowania przy danych warunkach ograniczających (na przykład budżetu) w stosunku do własnych preferencji (w tym przypadku preferencją jest zarabianie na giełdzie). Czy jesteśmy racjonalni? Czy w ogóle ludzie są racjonalni? Jest na ten temat ogromna literatura, kreująca nurt zwany ekonomią behawioralną. Obserwacje psychologów (np. Amosa Tversky'ego, Daniela Kahnemana czy Thalera) prowadzą do wniosku, że ludzie często nie zachowują racjonalności. I to nie tylko na poziomie indywidualnych jednostek, ale także instytucji. Sądzę, że ludzie i instytucje, jak fundusze zachowują się racjonalnie na pewnym poziomie lokalności czasowej (osiągają optimum lokalne). W dłuższym okresie, czyli na poziomie globalnym, gorzej na tym wychodzą, stając się nieracjonalnymi (czyli nie uzyskują optimum globalnego).

Teraz widzimy, że odpowiedź na pytanie o przewidywalność kursów giełdowych jest nieznana. Co innego jednak, gdyby pytanie dotyczyło możliwości prognozowania zachowań rynku. Wtedy możemy bez wątpienia odpowiedzieć twierdząco. Prognoza bowiem jest jedynie pewnym modelowaniem rzeczywistości, zawierającym w sobie zawsze pewne założenia. Założenia występują zawsze, bo właśnie one odróżniają prognozę od przewidywań. (Oczywiście nawet przewidywanie może być obarczone pewnymi niewielkimi błędami, ale wiemy o co chodzi - kwestia konwencji i języka). Każdy może prognozować stopy zwrotu z indeksu giełdowego, jeśli tylko przyjmie swoje założenia. A ponieważ jest to proste, tak wielu ludzi prognozuje...