sobota, 29 maja 2010

Jak rozumieć długą pamięć?

Musimy wreszcie lepiej się przyjrzeć pojęciu pamięci długoterminowej. Wiemy, że jej istnienie wiąże się z trendem. Wspomniałem już jednak wcześniej, że czasu trwania długiej pamięci nie można utożsamiać z długością trendu. Na czym więc polega jej zjawisko?

Można podejść do tego problemu od czysto matematycznego punktu widzenia. Podejście to pozwala zauważyć ścisłą zależność pomiędzy fraktalnością procesu a długą pamięcią. Zrozumielibyśmy wówczas, że długa pamięć nierozerwalnie wiąże się z fraktalami. Doskonale zaczęlibyśmy czuć różnicę pomiędzy trendem (jako dryfem) a długą pamięcią.

Na początek jednak lepiej zacząć od intuicji i przykładów graficznych.

1. Funkcja liniowa



Oto wykres analizy R/S:



Tutaj H = 0.994. Nie może być nic innego - każda kolejna zmiana wartości ma ten sam znak co poprzednia.

2. Funkcja sinus





Dla sinus dostałem H = 0.936 dla całego okresu. A więc zauważmy co się dzieje. Funkcja wydaje się przecież antypersystentna. Dlaczego więc analiza R/S wychwytuje długą pamięć? Żeby to zrozumieć powinniśmy wrócić do wzoru na wariancję i odchylenie standardowe ułamkowego ruchu Browna:



Odchylenie standardowe jest po prostu średnią drogą, jaką pokonuje jakaś cecha zmiennej. Wynika z tego, że im większe H, tym dłuższa jest ta droga. Wiemy, że dla błądzenia przypadkowego H = 0,5. Dla naszego przypadku H = 0,93 oznacza, że średnio zmienna pokonuje dłuższą drogę niż błądzenie losowe. Jeśli zaczniemy powiększać wykres funkcji sinus, zobaczymy, że rzeczywiście tak jest. W dowolnie małym otoczeniu dowolnego punktu kolejna wartość funkcji przyjmie ten sam znak co poprzednia wartość - z bardzo dużym prawdopodobieństwem. To prawdopodobieństwo równałoby się jeden, gdyby nie występujące minima i maksima. Ile wynosi to prawdopodobieństwo? Można powiedzieć, że właśnie H = 0,936. Nie jest to jednak taka oczywista odpowiedź, nie wynika bowiem z definicji prawdopodobieństwa, lecz następujących spostrzeżeń.

Na H powinniśmy patrzeć jak na miarę zmienności. Jeśli w danym czasie ma być pokonana dłuższa droga, to wykres po prostu musi być mniej postrzępiony, a więc mniej zmienny. Jeżeli jednak ma być mniej zmienny, to znaczy, że kolejna zmiana wartości zmiennej z większą szansą będzie miała ten sam znak co poprzednia.

Na przedstawionym wykresie log(R/S) zauważamy, że następuje w pewnym momencie załamanie się linii. Od tego miejsca pamięć długoterminowa szybko zanika, tak że proces staje się wręcz antypersystentny. Dlaczego jednak tak się dzieje, skoro przed chwilą powiedzieliśmy, że w dowolnie małym otoczeniu punktu proces jest prawie zawsze persystentny? Poprzedni wzór na wariancję - również to widzieliśmy - można przedstawić jako:



t > 0, t > s.

Możemy więc analizować różne przedziały drogi od s do t, w której s jest jakimś opóźnieniem. Na wykresie log(R/S) przedziały te są zaznaczone są literką n. I tak dla n = 758 długa pamięć się załamuje. Co to oznacza? Oznacza to, że w takim przedziale proces pokonuje dłuższą drogę niż błądzenie przypadkowe, a w dłuższym przedziale już nie.

Popatrzmy na wykres sinus. Zauważmy, że cykl pamięci kończy się nie w momencie gdy następuje załamanie kierunku - zmiana trendu - ale w momencie, gdy funkcja "przechodzi" cały cykl wzrostów i spadków (n=758). W rzeczywistości nie ma znaczenia od którego punktu startujemy: dopiero gdy sinus pokona nieco ponad cały cykl, wówczas proces staje się antyuporczywy.

Uporczywość istnieje pomimo zmiany trendu, ponieważ błądzenie przypadkowe "nie nadąża" za sinusem, co wynika z większej wariancji, czyli większego H dla sinus. Dopiero kiedy analiza R/S wykrywa, że sinus znowu zaczyna zmieniać kierunek, co u nas wychodzi po punkcie 758, zaczyna "chwytać" powroty do średniej częstsze niż powroty występujące w błądzeniu przypadkowym, co sygnalizuje antyuporczywością.

3. Dla porównania, weźmy bardzo antypersystentną funkcję złożoną jedynie z punktów 1 i 3 (połączonych linią prostą):





Dostajemy H = 0,06. Tutaj jest odwrotnie, ponieważ kolejne zmiany są przeciwnego znaku, dlatego też prawdopodobieństwo warunkowe kontynuacji danego znaku jest bliskie zera.

4. Weźmy przekształcenie sinus:





H = 0,98

Długa pamięć tutaj zanika bardzo wolno z powodu "silnej" gładkości funkcji. Dopiero po 4788 obserwacjach wykres staje się słabo persystentny.

5. Inne przekształcenie sinus





H = 0,665 dla całego okresu. Jednak do punktu załamania H = 1,026. Czas pamięci wynosi n = 158.

Przyjrzyjmy się bliżej temu punktowi:



Przykład ten jest interesujący ponieważ dowodzi, że długa pamięć nie wiąże się z samą cyklicznością funkcji. Przedstawiona wyżej funkcja jest idealnie cykliczna, jednak analiza R/S wychwytuje krótszy okres tej pamięci niż wynosi cykl funkcji.

Jednakże jest to całkowicie poprawny wynik, bowiem funkcja zaczyna powracać do średniej średnio po 158 obserwacjach.

6. Funkcja quasiperiodyczna. Wreszcie najciekawsze, bowiem taka funkcja jest już bardzo bliska chaosowi deterministycznemu.





H = 0,783, E(H) = 0,55, sqrt(1/N) = 0,018, H - E(H) = 0,229 > 0,018

W tym przypadku H jest już na poziomie H dla kursów giełdowych (miesięcznych stóp zwrotu).

Powiększmy ten fragment gdzie przedział n = 199 zawiera długą pamięć, a po nim zaczyna ona zanikać.



Pamiętajmy, że n jest jedynie przedziałem, w którym zmienna pokonuje drogę. Możemy więc punkt startu tego przedziału dowolnie przesuwać, ale sam zakres n musi pozostać stały. I właśnie W TYM ZAKRESIE długa pamięć zostaje wykryta. Przy zwiększeniu n następuje powrót do średniej, tak że proces staje się antyuporczywy.

Ale zwróćmy uwagę, że okres tej pamięci jest jedynie przeciętny. Nigdy nie odgadniemy czy to początek, środek czy koniec okresu spadków lub wzrostów. Jeśli to pojmiemy, to pojmiemy też, że giełda nawet podczas trwania trendu i wykrycia w tym okresie długoterminowej pamięci, jest nieprzewidywalna w tym okresie.

Jedynie co można przewidzieć, to to, że ten sam znak kolejnych zmian obserwacji jest bardziej prawdopodobny niż przeciwny. Jest tak dlatego, że zmienna musi pokonać dłuższą drogę niż błądzenie przypadkowe.

Jeszcze inaczej. Pomimo że trend jest nieprzypadkowy, to tak naprawdę jest... losowy. Innymi słowy długość trendu jest losowa. Każdy kolejny ząbek może być tym ostatnim tylko dlatego, że bierzemy pod uwagę średnią. Może być tak, iż dany trend właśnie osiąga maksimum lub minimum, choć w całym zakresie równym n - a więc w uśrednieniu - kolejny wzrost lub kolejny spadek jest bardziej prawdopodobny.

Ponieważ jednak kolejna obserwacja jest zależna od poprzedniej w tym sensie, że droga staje się dłuższa niż droga błądzenia losowego, to ta obserwacja jest również zależna od wcześniejszych obserwacji, a zatem droga staje się dłuższa od błądzenia losowego w całym przedziale n dopóki analiza R/S wyczuwa długą pamięć.

Nawet więc jeśli następuje silne załamanie, to ponieważ wcześniej droga była dłuższa niż błądzenia przypadkowego, to ma ona jeszcze "zapas" i dopóki nie będzie intensywniejszych powrotów do średniej, proces będzie uznawany za persystentny.

7. Wykres giełdowy S&P500: obserwacje miesięczne od 1933 (odfiltrowana inflacja)





Do momentu utraty pamięci H = 0,787; E(H) = 0,604. Pamięć średnio kończy się po 42 miesiącach. Oznacza to tyle, że hossa lub bessa była tak silna, że nawet gdy następuje odwrócenie trendu, kurs nadal w danym przedziale pokonuje więcej drogi niż błądzenie przypadkowe. I w tym sensie prawdopodobieństwo (uśrednione), że wzrost lub spadek będzie kontynuowany wynosi ok 0,69. Nie możemy uznać, że wynosi 0,79, gdyż wartość oczekiwana wynosi 0,6, a nie 0,5, więc zmniejszam H o 0,1. Natomiast powrót do średniej i zmiana trendu w końcu powoduje, że proces zostaje uznany za błądzenie przypadkowe. Następuje to przeciętnie po 42 miesiącach.

Stopniowo zaczynamy dostrzegać, że nie ma tu żadnych czarów. Wiemy czym jest średnia. Dokładnie tak jak w tym żarcie o psie i trzech nogach. Chaos na giełdzie po prostu skłania nas do przyjęcia koncepcji ułamkowej efektywności rynku.

piątek, 14 maja 2010

Wykładnik Hursta dla dziennych stóp zwrotu - szersza perspektywa

We wpisie "Wykładnik Hursta na GPW dla dziennych stóp zwrotu w kontekście ostatniej hossy": http://gieldowyracjonalista.blogspot.com/2010/04/wykadnik-hursta-na-gpw-dla-dziennych.html przyglądaliśmy się persystencji na GPW w okrojonej perspektywie roku hossy 2009-2010. Zmiany dzienne okazały się kompletnie przypadkowe na poziomie WIG-ów. Trzeba przyznać, że było to dość zaskakujące, ale to co dziś powiem, będzie zupełnym zaskoczeniem.

Przyjrzymy się obecnie wykładnikowi Hursta na naszej giełdzie w dłuższej perspektywie. Zanim przystąpię do wyników, muszę najpierw przyjąć jedno założenie. Otóż chociaż standardowo przyjmuje się, że H jest istotne wtedy gdy H jest większe od E(H) co najmniej o (1/N)^0,5 , gdzie N to liczba obserwacji, to jednak wielokrotnie założenie to nie zgadza się z tym co powinno być. Weźmy taki przykład błądzenia przypadkowego:



Dla tego przykładu H = 0.567. Jest tutaj sporo obserwacji (N = 10000). W takim przypadku E(H) = 0.546. (1/10000)^0,5 = 0,01. Ponieważ H-E(H)=0.021, należałoby uznać, że proces jest persystentny, co byłoby nieprawdą. Faktycznie można byłoby jedynie powiedzieć, że nie ma podstaw do odrzucenia hipotezy o persystencji. Tak czy owak wpadlibyśmy w pułapkę. Z drugiej strony dokładniej analizując ten przypadek, szybko wychodzi na jaw, że ów "błąd" powstaje dla największych podziałów n (nie mylić z N), a dla mniejszych jest "w porządku". Nie bedę tutaj się znęcał nad czytelnikiem i wyjaśniał różnicy pomiędzy N a n, bo należałoby w zasadzie wyjaśnić analizę R/S. Tego typu błędy mogą również wynikać z występowania tzw. krótkoterminowej pamięci Markowa. Pamięć ta uczestniczy w błądzeniu przypadkowym. Pamiętamy iluzoryczne trendy? Tam właśnie ta pamięć występowała. Ale pamięć ta jest przypadkowa, pomimo, że może się nie wydawać taka. Analiza R/S wychwytuje tę pamięć i zalicza do pamięci długoterminowej. Zatem część pamięci długoterminowej jest przypadkowa. Współczynnik autokorelacji rzędu pierwszego będzie miał wartość lekko dodatnią. Jak sobie radzą z tym statystycy? Odejmują od każdej stopy zwrotu w t-tym okresie tę właśnie stopę pomnożoną przez współczynnik autokorelacji liniowej rzędu pierwszego (tj korelacji pomiędzy okresem t-1 a t).

Ja mam wątpliwości co do takiej metody. Przecież długookresowe zależności w pewnym stopniu wynikają z tego co się działo przed chwilą. Dlaczego więc wycinać tę pamięć? Z drugiej strony można odpowiedzieć w ten sposób, że chodzi o odfiltrowanie badania długiej pamięci od krótkiej pamięci. W badaniu tej ostatniej wystarczyłoby zweryfikować istotność współczynnika autokorelacji liniowej.

Rzeczywiście, gdy przeanalizujemy niektóre indeksy, okazuje się, że współczynnik autokorelacji liniowej rzędu pierwszego jest istotny. Przede wszystkim daje się to zauważyć dla WIG, natomiast dla WIG20 jest nieistotny. Wynika z tego, że raczej powinno się go odejmować.

Ja przyjmuję inne rozwiązanie. Po pierwsze uznam, że dla dłuższych N, np. 3 lat (od 2007), H musi być większe od E(H) o co najmniej dwa odchylenia standardowe, tj. 2*(1/N)^0,5. Po drugie będę krytycznie spoglądał na samą wartość H, jeżeli będzie na wykresie widać, że się gwałtownie zmienia. Takie gwałtowne zmiany H są nieprzewidywalne i mogą dawać złudzenie długiej pamięci.


1. ROK 2008-2010:

Początek kwietnia 2008 - koniec kwietnia 2010: (1/N)^0,5 = 0.0445

WIG: H = 0.6145, E(H) = 0.5696, H - E(H) = 0.0449 > 0.445. A więc wydaje się słabo persystentny. W takiej sytuacji powinniśmy wziąć nieco przesunąć zakres, aby się upewnić. W okresie 14.04.2008 - 14.05.2010 otrzymujemy:

H = 0.597, E(H) = 0.5695, H - E(H) = 0.027 < 0.0445. A zatem jednak brak persystnecji. Nie możemy się skupiać na poprzednich wynikach, jeśli nie są stabilne po przesunięciu w czasie.

WIG20: H = 0.560746114814989, E(H) = 0.569586363783655, H - E(H) = -0.00884024896866575. Brak persystencji.

Dalej będę pisał skrótowo.

KGHM: (sqrt(1/N) = 0.0456)

0.588, 0.575, 0.013 < 0.0456. Brak persystencji.

LTS: (sqrt(1/N) = 0.041667

0.653, 0.568, 0.085 > 0.041667. Kurs jest wyraźnie persystentny, gdyż pokonuje odchylenie standardowe dwukrotnie.

Można sprawdzić czy tak silny wynik jest stabilny. Okazuje się, że tak: gdy wziąłem zakres 27.04.2008-27.04.2010; (sqrt(1/N) = 0.0456, dostałem:

0.68, 0.57465, 0.106 > 0.0456.


2. ROK 2007-2010

Początek kwietnia 2007 - koniec kwietnia 2010: 2*(1/N)^0,5 = 0.0728

WIG:

0.60555, 0.5645, 0.041 < 0.0728. Nadal brak persystencji. Dla upewnienia się sprawdziłem dla innych okresów (od marca, potem od maja 2007) i nie ma wątpliwości: cała bessa i hossa do dziś ma przebieg czysto losowy na poziomie zmian dziennych.

WIG20: 2*(1/N)^0,5 = 0.07454

0.5594, 0.569, -0.0099

KGH: 2*(1/N)^0,5 = 0.07454

0.6055, 0.569, 0.0363 < 0.075. Brak persystencji.

LTS: 2*(1/N)^0,5 = 0.07454

0.6179, 0.569, 0.0486 < 0.07454. Brak persystencji. Mimo to, gdyby założyć, że wystarczy tak jak dla roku 2008 jedno odchylenie standardowe, kurs można byłoby uznać za persystentny. Ale ciągle miejmy na względzie tamto błądzenie przypadkowe.

Porównując wykresy obu spółek:



stwierdzamy, że nie jest możliwe wzrokowe ocenienie że kurs LTS jest bardziej uporczywy, a KGH nie. Wydaje się nawet, że jest odwrotnie.


3. ROK 2006 - 2010:

WIG od kwietnia (0.063):

0.6345, 0.561, 0.073 > 0.063. Kurs wreszcie staje się persystentny.

Sprawdziłem jeszcze dla innego zakresu - od maja. Wynik? Prawie się nie zmienił. H zaczyna być stabilne.

WIG20 (0.063):

0.573, 0.561, 0.0118 < 0.063. Brak persystencji.

KGH (0.063):

0.5889, 0.561, 0.028 < 0.063, Brak persystencji.

LTS (0.063):

0.64697, 0.5612, 0.086 > 0.063. Jest persystencja.

Można powiedzieć, że potwierdza się to, co wcześniej widzieliśmy. Lotos już wcześniej miał "oznaki" uporczywości, od 2006 r. nie ma wątpliwości co do tego.

4. ROK 2005 - 2010 (0.056):

WIG:

0.617799041308435, 0.558995330030493, 0.0588037112779417 > 0.056. Jest persystencja.

WIG20:

0.55321208985619, 0.562780058095387, -0.00956796823919659 < 0.056. Brak persystencji.

KGH:

0.604648625570105, 0.562780058095387, 0.041868567474718 < 0.056. Brak persystencji.

Sytuacja się trochę "poprawia". Gdy wziąłem zakres od maja 2005, kurs był na styku persystencji. Jednak wyglądało to bardzo podobnie, jak tamto błądzenie przypadkowe - gwałtowne zmiany H przy większych n.

LTS:

Zaczął być notowany od czerwca 2005. Kurs jest silnie persystentny, sytuacja niewiele się zmienia od 2006 (H = 0.635348813576748).


5. 2000 - 2010

Od początku kwietnia 2000 do końca kwietnia 2010 (0.03984):

WIG:

0.61226607977128, 0.55601710790948, 0.0562489718617999 > 0.03984. Jest persystencja.

WIG20:

0.570836067255322, 0.55601710790948, 0.0148189593458419 < 0.03984. Brak persystencji.

Na początku to było dla mnie zaskoczenie. 10 lat i żadnej persystencji? Przejrzałem raz jeszcze badania K. Jajugi sprzed ponad 10 lat. Zakres badań objął krótki okres czasu, bo 20.10.1994 do 6.05.1997 r. Obliczył i stwierdził, że WIG20 posiada długą pamięć: H = 0.6268, E(H) = 0.5834, N = 630, sqrt(1/N) = 0.0398. Można by stwierdzić, że różnica H - E(H) 0.0434 jest wystarczająca. Gdyby przyjąć za warunek przekroczenie dwóch odchyleń, już by tak nie było.

Ponadto powtórzyłem badanie Jajugi. Z początku wynik wydał się znacznie inny, bo w całym analizowanym okresie H = 0.569. Ale badacze nie patrzą na uśrednione H z całego okresu, bo w pewnym momencie następuje zanik pamięci. Od tego momentu H zaczyna spadać (lub rosnąć gdy występuje antypersystencja). Uwzględniając ten efekt, H wyniósł tyle samo co u Jajugi.

Problem polega na tym, że analizując lata 2000-2010, 2005-2010 i kolejne, nie dostrzegam występowania efektu kontrakcji.

KGH:

0.607775971229617, 0.55601710790948, 0.0517588633201371 > 0.03984. Jest persystencja.
Powtórzyłem badanie dla zakresu od czerwca 2000 r. Nie ma wątpliwości, że KGHM posiada długą pamięć.

Ponieważ WIG20 wydaje się czysto losowy, ciekawy byłem jak spółki o największej kapitalizacji wyglądają dla danego okresu.

PEKAO:

0.522237527408583. Ruletka.

TPSA:

0.504609312119412. Ruletka do kwadratu.

PKO (od listopada 2004):

0.535202730879272. Brak persystencji.

PKN:

0.541530225478429. Brak persystencji.

BZWBK (od czerwca 2001):

0.571663181584447. Brak persystencji.

Na koniec sprawdziłem Asseco Poland i Bioton.

ACP:

0.534018739738203, 0.55601710790948, -0.0219983681712768. Brak persystencji.

BIO (od kwietnia 2005):

0.580544284172451, 0.562780058095387, 0.0177642260770645 < 2*0.02817. Brak persystencji.

A zatem to czego można było się spodziewać. Być może LTS i KGHM są jednym z uporczywych wyjątków w naszej wielkiej 20-ce.

Skorośmy już tak daleko zaszli spróbujmy zbadać persystencję DJIA dla dziennych stóp zwrotu dla okresu od kwietnia 2000 do końca kwietnia 2010.

DJIA:

0.549616331489658, 0.55601710790948, -0.00640077641982195 < 0.03984. Brak persystencji...

Żeby jeszcze mieć pewność, że nie gubię pamięci, zrobiłem analizę R/S dla mniejszego okresu, od początku 2006. Wynik się praktycznie nie zmienił. H = 0.5497, E(H) = 0.5645.

A lata 90-te? Taki boom, to wszyscy myślą, że na pewno tam musiała być pamięć. Niestety. W całym okresie lat 90-tych (styczeń 1990-kwiecień 2000) H = 0,5. Równo.

To może lata 80-te? Też nie były złe. Także nie. H = 0.549 przy E(H) = 0.556.

................................................................................

Czy kolejny mit upada? WIG20 razem z DJIA okazują się zwykłym błądzeniem przypadkowym. Być może wykazują generalnie efektywność w sensie statystycznym. Wnioski nie są jednak aż tak ponure, gdyż można odnaleźć spółki bardziej persystentne. Z pewnością w długim okresie są nimi KGHM i Lotos. Skoro WIG jest w długim terminie persystentny, a jednocześnie kursy największych spółek poruszają się losowo, to możemy wyciągnąć wniosek, że jest sporo spółek mniejszych, których kursy posiadają długą pamięć.

................................................................................

W końcu, wnioski drastycznie się zmieniają, gdy analizujemy dane miesięczne. Wpis nie dotyczy wprawdzie takich badań, lecz w skrócie powiem co wychodzi.

Począwszy od 1933 r. do mniej więcej dziś dla S&P500 dostajemy:

0.786722462053744, 0.604257003706961, 0.182465458346783 > 0.0658. Czyli H empiryczne pokonuje niemal 6 odchyleń standardowych (2*0.0329 = 0.0658). Przedstawiony wynik uwzględnia już zanikającą pamięć, która w tym przypadku wynosi średnio 42 miesiące (u Petersa było to 48 miesięcy).

Ciekawe jest to, że niemal identyczny wynik otrzymałem, gdy wziąłem dane od 1881 r., zaś średnia pamięć wyniosła również 42 miesiące. Świadczy to o nieprzypadkowym okresie pamięci. Natomiast dla danych od 1980 r. dostałem H = 0.697, który również pokonuje dwukrotnie odchylenie standardowe. Tutaj cykliczność nie uwidacznia się zbytnio, choć największe H występuje w przedziale od 20 do 72 miesięcy, a więc średnio faktycznie 46 miesięcy.

czwartek, 6 maja 2010

Panika na Wall Street

Miałem pisać w dalszym ciągu o wykładniku Hursta i uporczywości, bo jest jeszcze wiele do powiedzenia na ten temat. Jest tu trochę nieintuicyjnych kwestii, o których już wcześniej napomknąłem. Na chwilę to zostawiam.

Rzadko komentuję obecną sytuację na giełdzie, ale dziś jest dość wyjątkowo. DJIA zaliczył silną przecenę -3,2%, przy czym ważniejsza jest jakość tej przeceny. Indeks spadał w pewnym momencie o 9,2%. (Jednak temu charakterystycznemu momentowi towarzyszyły stosunkowo niskie obroty). Był to najsilniejszy spadek DJIA intraday od października 1987 r.



Oczywiście na wszelkich forach i stronach pojawia się jedno słowo: krach! krach! Ratuj się kto może!

Prawda jest taka, że ludzie generalnie lubią się emocjonować. Nieważne czy jest akurat dla nich dobrze czy źle. Niektórzy już płaczą lub się wściekają, bo trzymają akcje, które lecą na łeb, na szyję, inni klaszczą i podskakują, bo albo są bez akcji, albo czekają na "odpał". Na dodatek ludzie, jak takie takie stado, reagują na to co inni powiedzą i gdy ktoś krzyknie: krach! to zaczynają rzeczywiście wierzyć w ten krach, albo ktoś krzyknie: uciekać! to rzeczywiście uciekają lub przynajmniej myślą czy nie uciec. Ostatnio to samo mieliśmy, ale w odwrotną stronę, gdy media reklamowały akcje PZU. Dziesiątki tysiący ludzi jako stado owiec - nie chcę krakać - poszło na rzeź. Kupili, bo "wszyscy" już kupili, jak w 2007 r. (Czy ludzie naprawdę nie zdają sobie sprawy jak powstaje zarobek na giełdzie? Myślą, że zostaje wyczarowany?)

Ci ludzie nie mają szans. Zarabiać trwale mogą tylko ci, którym paradoksalnie nie zależy na wygranej. Tacy ludzie, nie reagują, po prostu działają, bo patrzą na wszystko z dystansu. Dlatego warto być "naukowcem giełdowym". Nie chodzi tu tylko o badanie giełdy. Chodzi także o badanie własnych reakcji na sytuację na rynku. Wówczas nie dokonuje się pochopnych decyzji, bo widzi się wszystko niejako z zewnątrz. W zasadzie dopóki tego stanu samoobserwacji nie osiągniemy, nie powinniśmy nic robić.

Chyba jedną z najlepszych taktyk jest bezwzględne cięcie strat przy ich założonym poziomie. Wynika bowiem z tego, że już na początku inwestowania robimy coś co jest sprzeczne z intuicją: zakładamy, że stracimy. Kto przeciętny kupuje cokolwiek, na czym przewiduje stratę? Uważam, że aby do tego poziomu dojść potrzebna jest właśnie samoobserwacja chroniąca przed nadmierną pewnością siebie.

P.S. Teraz tylko wspomnę, że nasze rozumienie długiej pamięci, która wynosi średnio 4 lata okazuje się błędne. Mówiąc krótko, nie możemy utożsamiać 4 lat tej pamięci z długością trendu. Być może bessa już się zaczęła, ale pamięć wcale się nie skończyła (więc trzeba się mieć na baczności we wnioskach). O co chodzi w tej uporczywości, dopiero napiszę.

czwartek, 22 kwietnia 2010

Wykładnik Hursta na GPW dla dziennych stóp zwrotu w kontekście ostatniej hossy

Wielu graczy giełdowych zastanawia się i zgaduje co będzie jutro. Wydaje się, że trend to trend i autokorelacje występują. Za pomocą programu Long Memory Analysis zbadałem ostatni rok, dokładniej dane od 23.03.2009 do 22.04.2010, w ujęciu dziennym dla WIG-u i WIG20 oraz niektórych spółek. Okazuje się, że z punktu widzenia teorii chaosu uśrednione dzienne zmiany były w tym okresie czysto losowe. Natomiast znalazłem dwie spółki charakteryzujące się persystentnym kursem (pamiętajmy, że chodzi jedynie o dzienne dane).

1. WIG:

H = 0,55 i E(H) = 0,58. Ponieważ H - E(H) = -0,03, zaś (1/N)^(0,5) = 0,06 > 0,03, więc persystencja jest nieistotna statystycznie.

Wykres WIG:



2. WIG20:

H = 0,5. Idealne błądzenie przypadkowe.

Wykres WIG20:



Zbadajmy wybrane spółki.

3. KGHM:

H = 0,589, E(H) = 0,584. Widać, że różnica zerowa. Zatem brak persystencji.

4. LOTOS:

H = 0,633, E(H) = 0,5835. H - E(H) = 0,0496 < 0,06, zatem persystencja nie występuje.

Pomimo iż wydaje się, że H dla Lotosu jest wysokie, a różnica H - E(H) bliska 0,06, to należy pamiętać, że tego typu zbieżności często występują dla standardowego ruchu Browna, dlatego w tej kwestii trzeba być bezwzględnym.

5. ING BSK:

H = 0.579, E(H) = 0.5835, H - E(H) = -0.0048. 0.0048 < 0.06. Brak persystencji.

6. ELBUDOWA:

H = 0.538, E(H) = 0.5835, H - E(H) = -0.045. Brak persystencji.

Dalej będę pisał skrótowo.

7. INSTAL KRAKÓW:

0.595, 0.5835, 0.0116. Brak persystencji.

8. IMPEXMETAL:

0.5537, 0.5835, -0.03. Brak persystencji.

9. MAGELLAN

0.587, 0.583, 0.004. Brak persystencji.

10. MONNARI

0.61886, 0.5835, 0.035. Brak persystencji.

11. M.W. TRADE

0.516, 0.583,-0.067. Brak persystencji.

12. NETIA

0.502, 0.5835, -0.08. Brak persystencji.

13. PAGED

0.64589, 0.5835, 0.0624 > 0.06. Kurs jest persystentny.

Wykres PAGED:



14. Polska Grupa Farmaceutyczna (PGF)

0.642, 0.5835, 0.0588 < 0.06. Pomimo braku istotności, warto byłoby bliżej przyjrzeć się tej spółce, ponieważ różnica 0.06 - 0.0588 = 0.0012 jest tak mała, że można mieć podejrzenie o persystencję. Rozszerzyłem zakres danych o miesiąc (od 23.02). Dostałem:

0.649, 0.577686, 0.0714. W tym przypadku (1/N)^(0,5) = 0.059.
0.0714 > 0.059, zatem dostajemy, że PGF posiada persystentny kurs.

Wykres PGF:


Dla porównania zrobiłem to samo dla PAGED:

0.62, 0.578, 0.042. 0.042 < 0.059, zatem niestety kurs przestaje być persystentny.

15. Ponadto zbadałem STALPROFIL, TPSA, TRAKCJĘ I TVN. Żadna z nich nie posiada długiej pamięci w danych dziennych (z punktu widzenia analizy R/S) w danym okresie. Warto tu zwrócić uwagę na TRAKCJĘ. Spółka ta w ciągu roku otrzymała H = 0,49, a więc jest idealnym błądzeniem przypadkowym. W tym okresie wzrosła jedynie o 14,4%:



Spółka jest oceniana bardzo pozytywnie, jakoś często wspominana na różnych forach - być może ze względu na nazwę kojarzącą się z atrakcją. A jednak co niektórzy zauważają, jak silnie jest związana z PKP i już samo to źle wpływa na oczekiwania. Pokazuje to, że powierzchowna analiza fundamentalna jest do niczego. Tak czy inaczej historycznie spółka jest bardzo ryzykowna.

Podsumowanie.

Analiza R/S pokazuje, że dane dzienne w ostatnim roku są najczęściej czysto przypadkowe, z szansą 50:50 i wartością oczekiwaną bliską zera. Dodajmy 3% rocznej inflacji i koszty transakcyjne i domyślam się, że wartość oczekiwana spadnie co najmniej do zera.
Możliwe, że koszty te powodują także, że nie da się wykorzystać wykrytej persystencji w niektórych spółkach. Mimo wszystko należy stwierdzić, że w porównaniu z WIG i WIG20 jest co najmniej kilka spółek, które posiadały długą pamięć w dziennych zmianach kursów w ostatnim roku; są to np. PAGED i PGF. Pomimo tego okazuje się, że i ta persystencja jest chwiejna, tak że przy różnych długościach okresów spółki zyskiwały i traciły pamięć. Możliwe, że wiele badanych tutaj spółek również wykazuje się dzienną persystencją przy innych długościach czasu, ale sprawdzenie tego wymaga dalszych badań.

niedziela, 18 kwietnia 2010

O nieliniowej uporczywości kursów

Zanim przejdę do rozkładów Levy'ego i ich połączenia z ułamkowym ruchem Browna, dokończę sprawę ułamkowego ruchu Browna, która jest na tyle zawikłana i interesująca, że należy chwilę poświęcić jej czas.

Mówiliśmy wielokrotnie, że jeśli wykładnik Hursta > 0,5, szereg czasowy charakteryzuje się persystencją, czyli uporczywością podążania w danym kierunku obserwacji. Intuicyjnie każdy rozumiałby to w taki sposób, że występuje trend. Trend wydaje się stanowić miarę pamięci procesu. Problem polega na tym, że pamięć tego procesu jest w dłuższych okresach coraz słabsza. Oznacza to, że wpływ wydarzenia w dalekiej przeszłości zanika. Po długim czasie proces będzie nierozróżnialny od błądzenia przypadkowego, tak że H będzie dążył do 0,5. W tej sytuacji oczywiste również, że wartość oczekiwana będzie dążyć do zera.

Tak więc statystyka Hursta wiąże się z teorią chaosu dwojako: poprzez początkowe obciążenie (efekt motyla) oraz zanik pamięci długoterminowej (niemożliwość przewidywania w długim okresie). Objawia się tu nieliniowa autokorelacja pomiędzy danymi. Z tego powodu nie może być tu stosowana miara korelacji liniowej.

Co się właściwie tutaj dzieje? Logiczne, że efekty motyla występują w każdym momencie. Jeśli H > 0,5 i początkowo są wzrosty, tak że utrzymuje się trend zwyżkujący, lecz raz przypadkowo następuje spadek, to ten spadek będzie oddziaływał w każdym kolejnym okresie. Jeśli nawarstwi się trochę spadków, to dojdzie do "katastrofy" - efekt motyla zacznie przeważać w drugą stronę, czyli w stronę spadków, ponieważ bliższa przeszłość ma większe znaczenie niż dalsza. Następuje zmiana trendu na zniżkujący.

Przyjrzymy się poniższym rysunkom:

H = 0,2:



H = 0,5:



H = 0,8:



Dla H = 0,2 szereg szybciej zmienia kierunek niż dla standardowego ruchu Browna, dla H = 0,5 zachowuje się zgodnie ze standardowym ruchem Browna, dla H = 0,8 wolniej zmienia kierunek.
Ale widać, że we wszystkich przypadkach następuje mniej więcej w tym samym czasie zmiana kierunku "trendu", co przeczy intuicji że dla H > 0,5 trend powinien być najdłuższy.

Przykład ten także pokazuje, że H jest nie tyle prawdopodobieństwem warunkowym znaku kolejnej zmiany obserwacji, co miarą zmienności.

Doświadczamy więc jak subtelna różnica jest pomiędzy zwykłym błądzeniem przypadkowym a jego obciążonym odpowiednikiem. W tym drugim przypadku w długim okresie czasu pamięć o początkowym trendzie spada niemal do zera, tak że nie będziemy w stanie przewidzieć, w którą stronę zmienna podąży.

Wcześniej napisałem, że wartość oczekiwana przyrostów ułamkowego procesu ruchu Browna równa się zero, gdyż nie wiemy, po której stronie skrzydła motyla wywołają huragan. Obecnie dodaję, że motyl lata bez przerwy. Kiedyś może odwrócić się trend, tak że wartość oczekiwana przyrostów równać się będzie zero.

Z powyższego widać, jak dobrze ułamkowy ruch Browna odpowiada światowi rynków kapitałowych. Bo z jednej strony kursy rzeczywiście wydają się być przylepione do danego kierunku, z drugiej strony nie dają się raczej przewidywać w długim okresie czasu.

Płyną z tego wnioski. Po pierwsze lepiej kupować akcje, które rosną, gdyż istnieje większa szansa, że będą dalej rosnąć. Jednocześnie lepiej sprzedawać akcje, które spadają, gdyż istnieje większa szansa, że będą dalej spadać. Po drugie warto wspomagać się długoterminową średnią kroczącą, która może wskazać moment, po którym nastąpiła "katastrofa" i zmiana trendu. Po trzecie warto kupować akcje spółek o niskiej osiągalności, tj. niskim ryzyku osiągalności. Pisałem o tym ryzyku tutaj:
http://gieldowyracjonalista.blogspot.com/2009/07/ryzyko-osiagalnosci_13.html
Niska osiągalność jest zbawienna psychologicznie, gdyż odciąża nas od pokusy sprzedaży akcji, gdy te szybko spadają lub szybko rosną. Ryzyko to wydaje się być lepszą miarą niż odchylenie standardowe, które może być teoretycznie nieskończone. Będzie tak w sytuacji, gdy trajektoria kursu nie będzie ułamkowym ruchem Browna, ale ułamkowym ruchem Levy'ego.
Innym sposobem na zmniejszenie ryzyka jest zwykła dywersyfikacja. Dzięki niej osiągalność portfela spadnie. Prawdopodobnie taki portfel będzie miał większy wykładnik Hursta, gdyż trajektoria kursu portfela ulegnie wygładzeniu.
Po czwarte trzeba jednak sprawdzić czy to co widzimy to nie przypadek, czyli że H > 0,5. Metoda liczenia H jest jednak trudna, więc najlepiej posłużyć się odpowiednim programem. Na marginesie należy wspomnieć, że jeśli będziemy mieć taki program i wrzucimy do niego surowe dane i dostaniemy wynik H = 0,75, to znowu trzeba być ostrożnym w formułowaniu wniosku, że nasz kurs jest persystentny. Przede wszystkim należy pamiętać o wpływie inflacji, dlatego w długim szeregu czasowym należy dane odfiltrować od inflacji. Drugą kwestią jest pytanie czy program taki pomaga użytkownikowi w określeniu istotności empirycznego H. Jest on istotny, gdy jest większy od teoretycznego H przynajmniej o (1/N)^(1/2), gdzie N to liczba obserwacji. Teoretyczny H jest dany dość skomplikowanym wzorem, dlatego najlepiej jeśli taki program ma wbudowany algorytm obliczający go.

Źródło:

1. E.E. Peters, Teoria chaosu a rynki kapitałowe, W-wa 1997
2. J. Strecker, Fractional Brownian Motion Simulation: Observing Fractal Statistics in the Wild and Raising Them in Captivity, 2004.

środa, 7 kwietnia 2010

O ułamkowym ruchu Browna i jego komercyjnym charakterze

Wielu z nas - inwestorów - kupiło książkę E. Petersa "Teoria chaosu a rynki kapitałowe". Z pewnością wielu było pod olbrzymim wrażeniem przedstawionej tam teorii oraz ilości dowodów, że rynki finansowe są chaotyczne. Uważam jednak, że jest potrzebny głos z zewnątrz, który naprostowałby nieścisłości, a nawet błędy zawarte w tej książce.

Peters napisał książkę, która moim zdaniem wsławiła się umiejętnym połączeniem podręcznika popularno-naukowego i pracy naukowej, niemalże doktorskiej. Peters, idąc śladem Hawkinga ("Krótka historia czasu"), nie epatuje czytelnika skomplikowanymi wzorami, lecz najpierw wykłada przyzwoicie teorię, tak aby laik mógł zrozumieć, potem wskazuje różne fakty empiryczne odkryte przez badaczy, a następnie przedstawia własne przemyślenia i w końcu - najważniejsze - własne badania.

Wiadomo, że chodzi o pieniądze. Gdyby miało być skomplikowanie, to kto by to czytał? Z drugiej strony zbytnie upraszczanie wprowadza w błąd czytelnika. Tak niestety się dzieje w przypadku książki Petersa.

Peters trochę spłaszcza to wszystko. Dzieli świat teorii rynków na dwie części:

(1) jeśli rynek jest efektywny, to stopy zwrotu są losowe i niezależne od siebie, mają rozkład normalny;
(2) jeśli rynek nie jest efektywny, to stopy zwrotu są nielosowe, zależne od siebie i nie mają rozkładu normalnego.

Na stronie 15 Peters pisze:

"Gdyby okazało się, że rynkowe stopy zwrotu spełniają warunki rozkładu normalnego, wtedy hipoteza efektywności oraz jej konsekwencje byłyby uprawnione".

Dalej głosi:

"Stare metody trzeba zastąpić nowymi - takimi, które nie będą oparte na niezależności zdarzeń, rozkładzie normalnym i skończonej wariancji. Nowe metody muszą objąć teorię faktali oraz dynamikę nieliniową (...)".

Na str. 17 pada stwierdzenie:

"Siódme założenie Osborne'a jest konkluzją założeń od trzeciego do szóstego. Stwierdza się w nim, że ponieważ zmiany cenowe są zdarzeniami niezależnymi (to znaczy podlegają błądzeniu przypadkowemu), można spodziewać się, że ich rozkład będzie rozkładem normalnym ze stabilną średnią i skończoną wariancją. Wniosek taki wynika z centralnego twierdzenia granicznego rachunku prawdopodobieństwa, czyli prawa wielkich liczb."

Wszystkie powyższe zdania zawierają błędy merytoryczne. Za chwilę je objaśnię, a teraz tylko mała uwaga: prawo wielkich liczb nie jest centralnym twierdzeniem granicznym. W tym kontekście być może stają się równoznaczne, ale laik nie dostrzeże tych subtelności i potraktuje oba twierdzenia jako tożsame.

Następnie Peters przedstawia wyniki badań, które sugerują, że stopy zwrotu mają rozkład Pareta, inaczej Levy'ego, które nazywa fraktalnymi. Po tym dowodzi istnienia struktur fraktalnych na giełdach, wprowadzając pojęcie obciążonego błądzenia przypadkowego, czyli z wykładnikiem Hursta różnym od 0,5. W końcu spogląda na wszystko przez pryzmat dynamiki nieliniowej, czyli chaosu deterministycznego.

W sumie punkt (1) zostaje obalony, zaś punkt drugi może zostać zastąpiony zdaniem:
rynek nie jest efektywny, ale chaotyczny, losowo fraktalny, stopy zwrotu są nielosowe, zależne od siebie (obciążone błądzenie przypadkowe, ułamkowy ruch Browna) i mają rozkład fraktalny. Wszystko na rynku staje się fraktalem.

Czy tak jest? Nie, tak nie jest.

Przypomnijmy wzór na ułamkowy proces ruchu Browna:



gdzie t > 0, t > s, B - standardowy proces ruchu Browna, H - wykładnik Hursta, 0 < H < 1.

Dla aplikacji wzór ten został uproszczony przez P. Levy'ego do postaci:



Teoria całek stochastycznych jest trudna (całkiem nowa), jest to matematyka zaawansowana i nie będziemy na razie się w nią wgłębiać. Jak będzie coś potrzebne, to dotkniemy tematu.

Warto jednak już teraz dostrzec głębię wzoru: standardowy ruch Browna dB jest przemnożony przez funkcję różnic pewnych chwil czasu, gdyż ułamkowy ruch Browna zależy od tych chwil. Dla H = 0,5, dostajemy całkę z dB, czyli faktycznie zwykłe błądzenie przypadkowe. Wartość funkcji gamma jest tylko stałą, więc pełni tu rolę podrzędną.

Po pierwsze ułamkowy (fraktalny) ruch Browna jest procesem gaussowskim! Oznacza to, że stopy zwrotu w takim procesie mają rozkład normalny.

Po drugie oczekiwana stopa zwrotu jest równa zero. Nie zgadzacie się z tym, bo przecież dodatnia obciążoność sprawia, że kolejne przyrosty będą mieć większą szansę otrzymać ten sam znak co za poprzednim razem. Ale czy ktoś ustanawia kierunek od początku? Jeśli zacznie się ruch w górę (dół), to w następnym ruchu można spodziewać się także kierunku w górę (dół). To jest właśnie ów efekt motyla. Globalnie średnio rzecz biorąc oba kierunki znoszą się, bo nie wiadomo, w którą stronę motyl zatrzepocze. (Natomiast nie należy tego mylić z warunkową oczekiwaną stopą zwrotu, która może być większa od zera!).

Po trzecie przyrosty są stacjonarne, wariancja i odchylenie standardowe przyrostów są oczywiście (ze względu na normalność) skończone i odpowiednio wynoszą:



gdzie B(H)-ułamkowy proces ruchu Browna, t - dowolna chwila czasu.

W literaturze wariancję zapisuje się także w postaci:



Jedyną różnicą pomiędzy błądzeniem przypadkowym a obciążonym błądzeniem przypadkowym jest to, że w tym drugim przypadku kolejne przyrosty są skorelowane. Funkcją kowariancji dla dowolnych chwil t i s, t > s, jest:



Teraz więc wyjaśniło się dlaczego potrzebne jest nie tylko t, ale i s: ich funkcje, czyli kolejne wartości lub zmiany procesu ułamkowego ruchu Browna są skorelowane.

Wystarczająco duże H oznacza, że mamy do czynienia z rzeczywistym trendem, nie iluzją.

Ale jeśli kolejne zmiany są od siebie zależne, a jednocześnie mogą mieć rozkład Gaussa, to z przerażeniem odkrywamy, że to co badaliśmy w poprzednim poście - losowość przyrostów arytmetycznego i geometrycznego procesu ruchu Browna poprzez sprawdzanie gaussowskości było błędne!!!

Co to jest właściwie losowość? Przez losowość zmiennej możemy rozumieć niezależność kolejnych obserwacji od innych obserwacji (zmiennych).

Żeby sprawdzić losowość musimy użyć odpowiednich testów na istnienie losowości. Na szczęście wszystkie testy losowości, których użyłem do tamtych obserwacji jasno wskazują, że nie ma podstaw do odrzucenia hipotezy o losowości procesu. Czyli rzeczywiście kształt trendu był przypadkowy.

W sumie więc, jeśli chcemy zbadać czy dany proces jest błądzeniem przypadkowym, musimy zrobić dwa testy: na normalność przyrostów oraz na losowość. Dlaczego nie wystarczy na losowość, którą utożsamiliśmy z niezależnością od reszty obserwacji? Dlatego, że niezależność zmiennych nie pociąga za sobą normalności.

Rozkład Levy'ego jest również rozkładem zmiennej losowej (niezależnej). Różnica będzie tylko taka, że zmienna będzie mogła mieć w tym przypadku nieskończoną wariancję. Nie musi mieć to nic wspólnego z zależnością kolejnych obserwacji. Wynika z tego, że stopy zwrotu na rynku efektywnym nie muszą mieć rozkładu Gaussa.

Podsumujmy. Zmienne losowe lub nie do końca losowe mogą mieć różne rozkłady prawdopodobieństwa. Może być to rozkład Levy'ego - jeśli wariancja będzie skończona, będzie to rozkład normalny. Przyrosty błądzenia przypadkowego zazwyczaj łączymy ze zmienną (niezależną) losową o rozkładzie normalnym. Fraktalny proces ruchu Browna jest gaussowski.

Bardzo mało prawdopodobne, żeby Peters nie znał tych faktów, które tutaj przedstawiłem. Nie chciał mieszać w głowach czytelników, aby wyszła mu książka przejrzysta, ładnie opowiedziana i komercyjna, czyli chodziło o pieniądze. Fraktale są modne, więc wszystko trzeba było wtłoczyć w ich ramy.

O co chodzi z tą gmatwaniną? Wydawałoby się po prostu, że Peters napisał niektóre bzdury dla komercji. Dowiedzieliśmy się, że fraktalne ruchy Browna wcale nie muszą mieć rozkładów fraktalnych. Ale uwaga - mogą mieć. Kwestia ta wymaga dalszych wyjaśnień, które przeprowadzę w następnym odcinku.

Ponadto szerokie badania wykazują, że stopy zwrotu indeksów giełdowych nie mają rozkładu normalnego. Oznacza to - uwaga - że stopy zwrotu nie są ułamkowym ruchem Browna. Są jak już multiułamkowym ruchem Browna, a te nie muszą mieć rozkładu normalnego. Tak czy inaczej, trzeba było rozszerzyć pojęcie ułamkowego ruchu Browna dla rozkładów niegaussowskich. Peters, tak po cichu, bez tłumaczeń, wskazał ten kierunek.


Źródło:

1. B.B. Mandelbrot, Fractional Brownian Motions, Fractional Noises and Applications, 1968
2. A.Mastalerz-Kodzis, Modelowanie procesów na rynku kapitałowym za pomocą multifraktali, 2003
3. E.E. Peters, Teoria chaosu a rynki kapitałowe, W-wa 1997
4. D. Nualart, Fractional Brownian motion: stochastic calculus and applications, 2000.

piątek, 19 marca 2010

Trend make you pent

Ponieważ trend is your friend, obejrzyjmy:









Pamiętacie je? Ileż to godzin spędziliście na oglądaniu ich z każdej perspektywy tylko po to żeby mieć pewność, że macie do czynienia z trendem.

Problem z nimi jest tylko jeden: zostały wygenerowane przez generator liczb pseudolosowych. Każdy z powyższych wykresów jest błądzeniem przypadkowym - standardowym procesem ruchu Browna. Zmiany cen i stopy zwrotu w tym procesie mają rozkład normalny o wartości oczekiwanej równej 0 i wariancji równej 1. Czyli prawdopodobieństwo wzrostu jest zawsze równe prawdopodobieństwu spadku i równa się 0,5. Czysty przypadek.

Mówicie, że pewnie chodzi o zbyt małą liczbę obserwacji - co to jest 200. No to weźmy 3000 obserwacji:



A tu poniżej już w ogóle dziwactwo:



Oczywiście taki wykres dostaniemy rzadziej niż na przykład:



Ale chciałem pokazać, że tamten nie jest mało prawdopodobny. 3000 obserwacji, a to nadal podąża w jednym kierunku. Wszystkie wykresy są wygenerowane przez ten sam proces: szansa 50:50.

Powiecie, że generator liczb pseudolosowych może trochę oszukiwać. Jednak testy mówią jednoznacznie, że nie ma podstaw by odrzucić hipotezę o normalności rozkładów stóp zwrotu tych procesów.

Jakie tu więc czary działają? Naukowcy jeszcze dość niedawno nie potrafili tego zrozumieć - w kontekście cząsteczek pyłu zawieszonych w cieczy bez przerwy się poruszających. Zabawne jest to, że przeciętni ludzie po tylu latach nadal tego nie rozumieją, choć cząsteczką może być coś innego, na przykład kurs akcji.

Dzięki Einsteinowi i Smoluchowskiemu wiemy, że droga cząsteczki w równowadze termodynamicznej jest proporcjonalna do pierwiastka z czasu. Cząsteczki gazu lub cieczy w dłuższym czasie pokonują dłuższą drogę.

Żeby tego było mało, zobaczmy dwa przykłady geometrycznego procesu ruchu Browna:





Również w tym procesie stopy zwrotu mają rozkład Gaussa i wartość oczekiwaną równą 0 oraz pewną oczywiście dodatnią wariancję. Nie ma tu żadnego trendu, nadal szansa to pół na pół. Co więcej, łatwo można określić czy kurs będzie dążył do nieskończoności czy do zera, czy nie będzie dążył do żadnej granicy.

Ale uwaga, tutaj trzeba być ostrożnym. To że kurs czy cząsteczka oddala się coraz bardziej od stanu wyjściowego, nie znaczy wcale, że nigdy tam nie wróci. Mało tego. Z fantastycznego twierdzenia Poincare'go o powrotach wynika, że wróci. A nawet jeszcze lepiej.

"Interpretacja fizyczna tego twierdzenia dla modelu dyfuzji gazu brzmi dość paradoksalnie i pozornie przeczy II zasadzie termodynamiki: Jeśli do pojemnika wpuścimy dwa różne gazy (początkowo będą one rozdzielone), to zgodnie z II zasadą po pewnym czasie nastąpi ich dokładne i bezpowrotne wymieszanie. Twierdzenie Poincaré jednak mówi, że w pewnym momencie układ wróci jednak do stanu zbliżonego do początkowego, czyli do sytuacji, w której gazy te znowu są rozdzielone. Paradoks ten można wyjaśnić w taki sposób, że po pierwsze czas powrotu w twierdzeniu Poincaré jest bardzo duży, po drugie, układ fizyczny nigdy nie jest dokładnie odizolowany od losowych czynników zewnętrznych, zatem nie przebiega stale dokładnie według tej samej transformacji i po pewnym czasie jego zachowanie odchyla się od matematycznego układu dynamicznego (II zasada właśnie uwzględnia tę nieregularność). Zanim nastąpi teoretyczny czas powrotu układu, odchylenie to będzie tak duże, że faktyczny układ nie powróci w pobliże stanu wyjściowego." (http://www.im.pwr.wroc.pl/~downar/polish/dokumenty/uklady.html)

No jeszcze ostatni przykład geometrycznego procesu ruchu Browna:



Poznajecie tę figurę?

W poprzednim poście wykazywałem istnienie fraktalności rynku, która miała przyczyniać się do kształtowania się trendów, tj. sytuacji, gdy prawdopodobieństwo tego samego znaku zmiany ceny co w poprzednim okresie jest większe od 0,5. Ale nie jest to sprawa tak oczywista, jak się z pozoru wydaje. Dlatego w tym poście chciałem pokazać, że wzrokowo nie jesteśmy w stanie oszacować czy mamy do czynienia z przypadkiem czy czymś więcej. Intuicja i oko niewiele tu pomogą. Analiza techniczna polegająca jedynie na prognozowaniu cen w oparciu o sam wykres kursu wydaje się być skazana na porażkę.

środa, 10 marca 2010

Paradoks rynku efektywnego. Natura rynku fraktalnego (ułamkowo efektywnego)

Rynek efektywny to taki, na którym wszelkie istotne informacje zostają natychmiast uwzględnione w cenach. Paradoksalnie w takiej sytuacji racjonalny inwestor nie powinien dyskontować informacji, gdyż szansa na to jest nikła. Jest takie powiedzenie o rynku efektywnym: Jeśli zobaczysz leżącego na ulicy dolara, nie podnoś go, bo już go ktoś znalazł przed tobą. Idiotyczne to, ale jakże znamienne dla rynku, któremu poświęcamy tyle czasu.

Inwestor dyskontujący informacje na doskonałym rynku, na którym wszyscy robią to samo co on, poniósłby duże ryzyko, inwestując w konkretne akcje. Jak pamiętamy, zgodnie z teorią efektywnego rynku oczekiwana stopa zwrotu z dowolnego papieru wartościowego leży na linii papierów wartościowych (SML). A zatem inwestor, który dyskontuje informacje powinien liczyć się z ryzykiem rynkowym wynoszącym beta.
Oczywiście mógłby inwestować w takie akcje, jeśli posiada niską awersję do ryzyka, ale i tak byłaby to zwykła spekulacja, bo zgodnie z teorią już ktoś przed nim albo w tym samym momencie co on zdyskontował wszelkie wiadomości.

Dlatego powinien stosować model linii rynku kapitałowego (CML) lub przynajmniej metodę Markowitza. W takim razie nikt nie powinien dyskontować informacji, lecz używać CML, a więc rynek przestałby być efektywny. Cóż za paradoks.

Oczywiście, gdyby wszyscy stosowali CML, ruchy cen nadal mogłyby być całkowicie losowe, lecz ważne wiadomości nie byłyby uwzględniane w cenach. Ktoś powie: a jakie to ma znaczenie, po prostu powstanie prawdziwy hazard. Jest to błędne rozumowanie.

Przychodzi informacja, że zysk spółki X wzrósł o 50% i zamierza ona o tyle samo zwiększyć dywidendę. Efektywny rynek powinien natychmiast na to zareagować zwyżkami cen, gdyż każdy może skorzystać z dodatkowego zysku firmy bez ryzyka. Po dniu ustalenia prawa do dywidendy (a na GPW 3 dni przed tym dniem, gdyż tyle trwa rozliczenie transakcji w KDPW) cena akcji powinna spaść dokładnie o wielkość stopy dywidendy, tak że informacja o dywidendzie już nie miałaby żadnego znaczenia dla kursów, a inwestor nie miałby żadnych korzyści z trzymania tych akcji, gdyż zysk z dywidendy zostałby skorygowany spadkiem kursu.

Jeśli wszyscy stosują CML, to kurs porusza się losowo, wobec czego w dniu ustalenia prawa dywidendy także. Ten dzień nie ma znaczenia. Oznacza to, że po tym dniu kurs nie musi spadać, lecz będzie zachowywać jak zwykle. Wynika z tego, że sprytny inwestor "wyłamujący się" ze schematu CML, mógłby znacznie więcej zarobić niż inni, czyli ponadprzeciętnie. Przerzuciłby wszystkie lub większość środków na spółkę X. Otrzymuje więc dużą dywidendę, a ponadto posiada ciągle akcje, których oczekiwana stopa zwrotu nie zmienia się (tj. nie spada). Wprawdzie ryzyko z samych akcji wzrasta (gdyż jak wiemy dywersyfikacja w CML jest maksymalna, a więc zapewnia najmniejsze ryzyko), ale zostaje to skompensowane dywidendą. Czy więc wychodzi na to samo, tzn. czy znów większy zysk jest okupiony większym ryzykiem? Nie, ponieważ inwestor zachowuje się tak, jakby stosował SML, czyli model bez dywersyfikacji, który właśnie przedstawia potencjalny większy zysk okupiony ryzykiem. A więc zgodnie z SML bez ryzyka niemożliwe jest uzyskanie zysku większego od stopy zwrotu z obligacji lub bonów skarbowych. A w omawianym przypadku dostajemy dodatkowy zysk z dywidendy. Tym samym inwestor pokonuje rynek, co jest niedopuszczalne na efektywnym rynku.

Oczywiście inwestorzy nie są głupi i szybko zauważyliby i wykorzystaliby takie możliwości. W zasadzie, wszyscy powinni tak zrobić, co oczywiście znów doprowadziłoby do powrotu rynku efektywnego. Ale jeśli każdy jest statystycznie identycznie spostrzegawczy, to statystyczny inwestor winien zarobić zero. A więc lepiej stosować strategię pasywną, bo po co się jak Syzyf męczyć... a więc każdy racjonalny jednak powinien nie dyskontować żadnych informacji i rynek znów staje się nieefektywny...

Znów więc stoimy wobec pytania, która postawa - aktywna czy pasywna - jest racjonalna na (efektywnym?) rynku?
Aby odpowiedzieć na to pytanie, zróbmy przykład. Powiedzmy, że na rynku są dwaj gracze A i B. Jeśli obaj dyskontują w tym samym czasie informację, to każdy zarobi V + 0 - Z, gdzie V - przeciętna wygrana wynikająca z SML lub CML - nie ma znaczenia która, gdyż oba modele po skorygowaniu o ryzyko dają te same oczekiwane stopy zwrotu. Dodajemy zero, gdyż 0 = 0,5*D + 0,5(-D), gdzie D - nadwyżka stopy zwrotu wynikająca ze zdyskontowania informacji (np. o dywidendzie). Któryś zarobi, ale średnio nikt. Z - koszt zarządzania wynikający z tego, że inwestor ciągle śledzi informacje napływające z minuty na minutę i dokonuje szybkich decyzji. Dla uproszczenia uznamy, że Z = V. A więc oczekiwany zysk, gdy wszyscy dyskontują informacje, równa się zero. Jeśli tylko jeden gracz dyskontuje informacje, to zarabia on V + D - Z = D, a wtedy drugi grając pasywnie, tj. stosując metodę CML, zarabia V. Jeśli obaj stosują CML, wtedy obaj zarabiają V. Dlaczego V nie rozdwaja się? Uznajemy, że parametry rozkładu stopy zwrotu są identyczne i niezależne od czasu. CML opiera się na tym, że po prostu kupujemy rynek, który zachowuje się losowo zgodnie z pewną wartością oczekiwaną (a ta jest z założenia stała).



Schemat ten został przedstawiony powyżej. Macierz jest symetryczna. Poziome strategie dotyczą gracza A, zaś pionowe gracza B. Lewa strona każdego okna odpowiada zyskom gracza A, prawa - oddzielona kreską - gracza B.

Od razu widać, że paradoks jest trudniejszy niż w standardowym przypadku paradoksu Newcomba. Strategia dominująca nie istnieje. Czy istnieje równowaga Nasha? Popatrzmy. Jeśli gracz A wybiera góra, wtedy gracz B wybiera zawsze prawa. Jeśli zaś B wybiera prawa, to A wybiera zawsze góra. Istnieje zatem równowaga Nasha. Ale jeśli gracz A wybiera dół, to gracz B wybiera zawsze lewa. Jeśli B wybiera lewa. to A wybiera zawsze dół. A więc też istnieje równowaga Nasha. Są dwie równowagi Nasha i prowadzi to do zamieszania. Musimy użyć więc strategii mieszanej. Chodzi tu o to, że gracze będą posługiwać się z pewnym prawdopodobieństwem strategią aktywną i pasywną. Gracz A z prawdopodobieństwem p stosuje strategię aktywną, a gracz B stosuje strategię aktywną z prawdopodobieństwem q. Oznacza to, że jeśli gracz A gra aktywnie, to dostaje z prawdopodobieństwem q zero (gdyż B stosuje z szansą q strategię aktywną) oraz z 1-q dostaje D (gdyż B stosuje z szansą 1-q strategię pasywną). Jeśli A gra pasywnie, to zawsze dostaje V, gdyż q*V +(1-q)*V = V. Jeśli gracz B aktywnie, to wszystko jest tak samo, lecz q zostaje zastąpione p. Należy zwrócić uwagę, kiedy używa się p, a kiedy q. A więc dla gracza A mamy:

Strategia aktywna: q*0 + (1-q)*D = D - q*D
Strategia pasywna: V.

Dla gracza B:

Strategia aktywna: p*0 + (1-p)*D = D - p*D
Strategia pasywna: V.

Gracz A stosuje strategię aktywną z prawdopodobieństwem p i pasywną z 1-p, lecz już przy danej strategii jego wygrana zależy od decyzji B, czyli prawdopodobieństwa q. Powstaje pytanie, ile musi wynieść p i q? Odpowiedź wydaje się logiczna. Wiadomo, że żadna strategia nie może być lepsza od drugiej, gdyż gracz zawsze by wybierał lepszą. Zatem wartość oczekiwana strategii aktywnej musi być równa wartości oczekiwanej strategii pasywnej. Weźmy gracza A:

D - q*D = V
q = (D - V)/D.

Dla gracza B:

p = (D - V)/D.

Stąd p = q.

W równowadze, gdy strategia aktywna jest równoważna pod względem wartości oczekiwanej strategii pasywnej, każdy gracz będzie dyskontował informacje z tym samym prawdopodobieństwem wynoszącym różnicę pomiędzy nadwyżkową stopą zwrotu a przeciętną stopą zwrotu podzieloną przez nadwyżkową stopę zwrotu.

Niech V = 100. Jeśli np. zysk w wyniku zdyskontowania istotnej informacji wynosi D = 1000, to p = (1000 - 100)/1000 = 0,9. Ale już przy D = 200, p = 0,5. A przy D = 100, p = 0, zaś przy D = 50, p = -1. Jak interpretować ujemne prawdopodobieństwo? Przypomnijmy, że założyliśmy, iż zmienna zarządzania Z = V. Jeśli więc zysk D jest mniejszy od kosztów zarządzania, to jest to to samo, co dopłacanie do rynku. Oznacza to, że aby inwestor dyskontował z jakąś szansą informacje, D > V.

Nasza dyskusja jest kluczowym momentem do zrozumienia, dlaczego rynki kapitałowe nie mogą być całkowicie efektywne, nawet jeśli wszyscy inwestorzy są równi i tak samo szybcy. Gracze - w równowadze - będą aktywnie dyskontować informacje na rynku efektywnym z prawdopodobieństwem (D-V)/D i będą grać pasywnie z prawdopodobieństwem 1 - (D-V)/D = V/D.

Jeśli częstość z jaką inwestorzy się zachowują jest znana, to jeśli trochę pomyślimy, dotrzemy do głębokiego wniosku. Jeśli mamy populację inwestorów, to (D-V)/D populacji będzie dyskontować informacje, a V/D jedynie grać pasywnie...

Teoria efektywnego rynku jest analogią teorii darwinowskiej, czyli teorii doboru naturalnego. Czytelnik sam to szybko zauważy, po przeczytaniu przytoczonego fragmentu pracy A. Łomnickiego: Ekologia ewolucyjna - 2008.

Proste rozumowanie wskazuje, że w sytuacji, gdy dwa osobniki walczą o ograniczone zasoby, na przykład gniazdo, samicę lub pokarm osobnik wygrywający powinien zostawić w przyszłych pokoleniach więcej swego materiału genetycznego, niż osobnik wykazujący tendencję do ustępowania. Zatem jeśli tendencja do ustępowania i tendencja, aby walczyć aż do wygranej lub do śmierci są genetycznie zdeterminowane, wówczas należy się spodziewać, że tendencja do ustępowania i wszelkie walki nie na serio, czyli typu konwencjonalnego powinny być już dawno wyeliminowane przez dobór. Jeśli akceptujemy takie rozumowanie, wówczas przyjmujemy też, że ustępowanie, unikanie konfliktów i wszelkiego rodzaju walki konwencjonalne nie mogły powstać drogą doboru naturalnego między osobnikami, ale jakimś innym sposobem. Konrad Lorenz w swych książkach sugerował, że takie zachowanie utrzymuje się, ponieważ jest dobre dla gatunku i zapobiega nadmiernej śmiertelności w wyniku agresji.
Za rozumowaniem Konrada Lorenza i wielu innych biologów myślących podobnie nie stał i nie stoi żaden opis mechanizmu doboru, który mógłby doprowadzić do powstania cech dobrych dla gatunku, a nie dla osobnika. Można stwierdzić, ze ograniczona agresja i walki konwencjonalne były w świetle Darwinowskiej teorii doboru naturalnego niezrozumiałe, a neodarwinizm z genetyką populacyjną też tych zjawisk nie tłumaczył. Była to wyraźna słabość biologii ewolucyjnej, która skończyła się, gdy do badania konfliktów między zwierzętami zastosowano teorię gier.


Łomnicki przedstawia w jaki sposób w ewolucji ukształtował się pewien podział na "agresorów" (jastrzębie) i "ustępujących" (gołębie). Zarówno jastrzębie jak i gołębie mogą współistnieć. Co więcej, muszą występować zarówno i ci, i ci. Zastosowana strategia jest właśnie tą, jaką tutaj zaprezentowaliśmy. Strategia ta nazywana jest strategią ewolucyjnie stabilną. Przytaczam kolejny fragment:

Strategia mieszana może być realizowana na dwa sposoby. Przy pierwszym sposobie, wszystkie osobniki w populacji mogą posługiwać się takim samym programem: z prawdopodobieństwem P bądź agresorem, zaś z prawdopodobieństwem (1 - P) bądź ustępującym. Przy sposobie drugim bycie agresorem lub ustępującym jest cechą zdeterminowaną genetycznie i dobór będzie prowadził do polimorfizmu zrównoważonego, czyli takiego, przy którym proporcja agresorów będzie równa P. (s. 1)

(...)ewolucyjnie stabilna strategia mieszana wyjaśnia częściowo zmienność genetyczną w naturalnych populacjach. Taką zmienność można sprowadzić do problemu zrównoważonego polimorfizmu genetycznego, czyli utrzymywania się w populacji w jednym locus dwóch lub więcej różnych alleli. Genetyka populacyjna tłumaczy polimorfizm genetyczny wyższym dostosowaniem heterozygot w stosunku do obu homozygot i doborem zależnych od częstości allelu, powodującym niższe dostosowanie formy bardziej pospolitej. Koncepcja mieszanej strategii ewolucyjnie stabilnej sugeruje jeszcze jeden powód doboru zależnego od częstości i tym samym utrzymywania się zmienności genetycznej przy założeniu, że strategia mieszana jest zdeterminowana genetycznie. (s. 4).

Jest to właśnie to o czym mówiliśmy. Częstość danej strategii może być używana przez naturę jako całość, bądź przez pojedyncze osobniki.

Wyobraźmy sobie, że populacja składa się tylko z gołębi. Nagle w wyniku mutacji pojawia się jastrząb. Jak to w przyrodzie, jednostki walczą ze sobą. Jastrząb wygrywa każdą potyczkę, co zwiększa szansę na pozostawienie potomstwa. Można byłoby krzyknąć, że gołębiom grozi zagłada! Załóżmy więc, że gołębie zostały zgładzone i zostały same jastrzębie. Doprowadzi to do wyniszczenia gatunku, gdyż każdy jastrząb ma taką samą szansę wygranej. Straty statystycznie będą większe od zysków (u nas byłby to koszt zarządzania większy od wygranej: D < Z). Nagle pojawia się mutacja w postaci gołębia. Biedaczyna nie ma szans, chociaż... jeśli statystyczna wygrana jest mniejsza od ceny przegranej gołębia, to okaże się, że gołąb będzie statystycznie zarabiał na przegrywaniu więcej niż jastrzębie! Skutkiem będzie wzrost liczebności gołębi. Okazuje się więc, że ze statystycznego punktu widzenia musi istnieć pewna proporcja gołębi i jastrzębi.

Na rynku efektywnym słabsi lub - co wychodzi na jedno - ustępujący gracze, powinni zostać wyeliminowani przez agresywnych i szybkich inwestorów. Wolniejsi nie zdołaliby zdyskontować informacji przed szybkimi, straciliby więc wszystkie pieniądze, bo to szybcy sprzedawaliby im lub odkupywaliby od nich. Ale widzieliśmy do czego prowadzi taka sytuacja. Zastępując gołębie graczami pasywnymi, a jastrzębie graczami aktywnymi, natura ekonomiczno-psychologiczna doprowadzi do współistnienia tych dwóch typów graczy.

Pasywny nie musi tu wcale oznaczać, że stosuje CAPM. Może oznaczać po prostu gracza, który ucieka z pola walki.

Jest dwóch graczy, którzy trzymają akcje. Dokupić czy sprzedawać? Chiken? Macierz jest podobna do tej pierwszej z małym wyjątkiem. 0 - gdy obaj dokupują. Windują cenę tak, że nikt od nich drożej nie odkupi, D - gdy dokupuje pod warunkiem, że drugi sprzedaje, V - gdy sprzedaje pod warunkiem, że drugi kupuje, V/2 - obaj sprzedają. W tym ostatnim przypadku siła podaży silnie zaniża cenę i obaj średnio zarabiają V/2. Oto macierz w tym przypadku:



Obliczmy p w równowadze (ze względu na symetrię macierzy p jest nadal równe q).

Dokupuje: p*0 + (1-p)*D = D - p*D
Sprzedaje: p*V + (1-p)*V/2 = p*V + V/2 - p*V/2

D - p*D = p*V + V/2 - p*V/2
p = (D - V/2)/(D + V/2).

A więc też bardzo ładny wynik.

Zakładamy istnienie trendu zwyżkującego. Aby zaistniała równowaga jeden z nich musi ustąpić - sprzedać, aby drugi mógł kupić. Jest to ważne, gdyż w następnej rozgrywce mogą się zastąpić miejscami. Tak tworzą trend.

Nie znaczy to, że muszą całkowicie nie zgadzać się co do tego czy będą w najbliższym czasie wzrosty czy spadki. Jeśli gracz A ma horyzont krótkoterminowy, a gracz B długoterminowy, to obaj mogą rozumować nieco innymi kategoriami. Inną możliwością wymiany a nie konkurencji, jest to, że gracz, który ma większy kapitał lub też dłużej trzyma dane akcje, więcej na nich zarobił i może być bardziej skłonny do sprzedaży akcji pomimo, iż może zgadzać się, że warto ciągle je kupować. Nawet jeśli prawdopodobieństwo dalszych zwyżek wynosi więcej niż 50:50 i tak będzie odczuwał pokusę realizacji zysków. Co więcej, będzie miał rację, bo w przeciwnym wypadku, jeśli wielu będzie takich jak on, którzy nie zdecydują się na sprzedaż, to nastąpią spadki. Jeśli jednak wielu się zdecyduje na sprzedaż, wtedy lepiej dokupować, a wygrana D gwarantowana. Statystycznie należy raz ustąpić, raz nie.

Tak, udało się. Rozwiązaliśmy paradoks rynku efektywnego. Rynek staje się fraktalny, czyli ułamkowo efektywny, gdyż tylko część graczy będzie dyskontować w pełni informacje (na przykład o istnieniu trendu - na efektywnym rynku trend powinien natychmiast zniknąć, gdy wszyscy się o nim dowiadują) lub też wszyscy będą dyskontować informacje z pewnym prawdopodobieństwem. Ta część lub to prawdopodobieństwo zależy od maksymalnej wygranej i od przeciętnej wygranej i można je łatwo obliczyć. Świadczy to o tym, że na giełdzie nie warto maksymalizować zysków za wszelką cenę.

Źródło:

1. A. Łomnicki, Ekologia ewolucyjna - 2008. Strategia ewolucyjnie stabilna,
2. T. Rostański, M. Drozd, Teoria gier, 2003.


................................................................................

We wpisie "Jak powstają cykle i podcykle? Ułamkowość jest wszędzie. Część piąta": http://gieldowyracjonalista.blogspot.com/2009/10/jak-powstaja-cykle-i-podcykle-uamkowosc.html napisano:

Przede wszystkim należy zauważyć, że zbiorowość jako pewna zorganizowana struktura tworzy się dlatego, że siła (użyteczność) zbiorowości jest wyższa niż siła (użyteczność) sumy jednostek ją tworzących. Pod tym względem rzeczywiście rynek zdobywa siłę, kształtuje się trend. To jest to, o czym pisałem w drugiej części cyklu, że inwestorzy niejako sami się racjonalizują. Aby utrzymać organizm przy życiu komórka musi współpracować z innymi komórkami.


Wcześniej, w "Jak powstają cykle i podcykle? Część druga": http://gieldowyracjonalista.blogspot.com/2009/08/jak-powstaja-cykle-i-podcykle-czesc.html stwierdzono:

Rynek kapitałowy jest ograniczony pewną ilością kapitału w danym przedziale czasowym. Musi "racjonalizować" tę ilość, czyli wykorzystywać kapitał jak najwydajniej. Choć zabrzmi to bardzo ezoterycznie, "coś" zmusza inwestorów do zachowania ograniczonej racjonalności. Ekonomicznie może być to ograniczony horyzont czasowy, a psychologicznie - pokusa kupna lub sprzedaży. Połączenie homo oeconomicusa i człowieka nieracjonalnego daje pewną kombinację: człowieka ograniczenie racjonalnego.

Można zajrzeć:

1. http://gieldowyracjonalista.blogspot.com/2009/08/jak-powstaja-cykle-czesc-pierwsza.html
2. http://gieldowyracjonalista.blogspot.com/2009/08/jak-powstaja-cykle-i-podcykle-czesc.html
3. http://gieldowyracjonalista.blogspot.com/2009/09/jak-powstaja-cykle-i-podcykle.html
4. http://gieldowyracjonalista.blogspot.com/2009/09/jak-powstaja-cykle-i-podcykle-giedowy.html
5. http://gieldowyracjonalista.blogspot.com/2009/10/jak-powstaja-cykle-i-podcykle-uamkowosc.html
6. http://gieldowyracjonalista.blogspot.com/2009/10/jak-powstaja-cykle-i-podcykle-czesc_18.html

Teraz wszystko zaczyna łączyć się w jedną całość. Dotąd brakowało tego budulca w postaci teorii gier, która rozwiązuje problem racjonalności i efektywności rynku.

niedziela, 28 lutego 2010

Kiedy warto być irracjonalnym... czyli paradoks Newcomba

Temat racjonalności wydaje się często oczywisty i nudny. Ludzie powinni dążyć do jak największych korzyści, wobec tego biorąc udział w jakiejś grze - a grają jedynie dla niej samej (a nie dla jakichś wyższych celów, na przykład samorozwoju) - to z tej perspektywy największą korzyścią jej jej wygranie. Jeśli wygrana stanowi suma pieniężna, to powinni dążyć do jej uzyskania - do maksymalizowania zysków. Wtedy są racjonalni.

Paradoks Newcomba roznosi w pył ten tok rozumowania.

Cytuję za wikipedią: http://pl.wikipedia.org/wiki/Paradoks_Newcomba

Wyobraź sobie dwóch graczy, Przewidującego i Wybierającego, którzy biorą udział w następującej grze:

1. W ma do wyboru dwa pudełka – otwarte pudełko I z 1000 zł oraz zamknięte pudełko II z 1 000 000 zł lub bez – W tego nie wie
2. W wybiera, czy chce dostać oba pudełka czy chce tylko pudełko II,
3. P dzień wcześniej przewidział, co wybierze W. Jeżeli W weźmie oba pudełka to pudełko II P pozostawi puste, jeżeli W wybierze tylko pudełko II to P włoży do niego 1 000 000 zł
4. W zdaje sobie sprawę, ze sposobu działania P opisanego powyżej, ale nie wie jaki jego ruch przewidział P w danej rozgrywce.

Pytanie:

Czy W ma wybrać oba pudełka, czy jedno?

Rozwiązanie pierwsze. Jeżeli P przewiduje bezbłędnie, to W powinien wybrać tylko pudełko II i wygra wtedy 1 000 000 zł. Jeżeli W weźmie oba pudełka, pudełko II będzie puste i W wygra tylko 1 000 zł. Nawet, jeżeli P jest tylko w przybliżeniu pewny swoich przewidywań, W nie chce ryzykować, że dostanie tylko tysiąc. Zgodne z takim rozumowaniem W powinien zawsze wybierać zamknięte pudełko II.

Rozwiązanie drugie. Jednakże w momencie, kiedy W przystępuje do wyboru, zawartość pudełek jest już ustalona. Zamknięte pudełko II może być albo puste albo pełne. Na oczach W zawartość pudełek nie może ulec zmianie. Niezależnie od tego czy pudełko II jest puste czy pełne wybierając oba W zwiększa swoją szansę wygranej, bo może zabrać dla siebie zawartość obu z nich. Kierując się taką logiką W powinien zawsze wybierać oba pudełka.

Istnienie dwóch rozwiązań wybieranych przez różne osoby w roku 1969 tak podsumował Nozick:
Dla prawie wszystkich jest całkowicie jasne i oczywiste jak należy wybrać. Problem tkwi w tym, że pytani o rozwiązanie dzielą się na dwie prawie równe grupy mające przeciwne zdanie na ten temat, a duża liczba pytanych osób sądzi, że ci wybierający drugie rozwiązanie są po prostu głupi.


Spróbujmy rozplątać ten paradoks.

1. Należy zadać pytanie czy W może w ogóle dokonać wyboru skoro P przewidział jego ruch. Innymi słowy, czy W ma wolną wolę? Niektórzy twierdzą, iż teza o wolnej woli usuwa paradoks Newcomba, gdyż jest sprzeczna z założeniem o istnieniu P, który przewiduje nasze decyzje. Tak twierdzi na przykład K. Binmore [Por. W. Z. Załuski, Problem wolnej woli, racjonalność decyzji a paradoks Newcomba, s. 3]. Rzeczywiście. A więc W nie ma wolnej woli. Jednakże on nie musi o tym wiedzieć. Dalej może się zastanawiać co zrobić. Paradoks nie został rozwiązany.

2. Aby rozwiązać paradoks, trzeba określić czy teraźniejszość ma wpływ na przeszłość (a nie odwrotnie). O przeszłości należy pomyśleć jak o przyszłości. Czy to co zrobi teraz W, będzie mieć znaczenie, dla tego, co zrobi (zrobił) P? Można zadać to pytanie inaczej. Czy P potrafi cofnąć się w przeszłość? Jeśli tak, w momencie, gdy W wybiera pudełko 2 lub oba, P natychmiast powraca do przeszłości i dokonuje odpowiedniego podstawienia bądź usunięcia kwoty w pudełku 2. Jeśli W wie o takich możliwościach P, oczywiście wybierze drugie pudełko. Nie ma tutaj żadnych wątpliwości co do wyboru.

Problem rodzi się dopiero w sytuacji rzeczywistej, czyli gdy...

3. P nie może się cofnąć w czasie. Czy może mimo to przewidywać ruch W, jeśli W nie ma wolnej woli? Tutaj musimy znów rozbić sytuację na dwie części. To jak się zachowa W, zależy od tego co P wie na temat W oraz czy W wie, co P o nim wie. Wiemy już natomiast, że P musi wiedzieć o W wszystko co jest potrzebne, do określenia, jaki ruch W wykona. P jest bowiem przewidującym graczem, a W nie ma wolnej woli. Chodzi tu mianowicie o to czy W jest racjonalny czy nie jest racjonalny.

a) Jeśli W jest racjonalny, to powracamy do drugiego rozwiązania. Zawartość pudełek nie może się już zmienić, więc W będzie maksymalizował zysk, jeśli wybierze oba pudełka. W wie o tym, że nie dostanie w takim razie miliona, ale to nie ma znaczenia, bo musi się zachować racjonalnie. Nie ma przecież wolnej woli. P o tym wszystkim wie i dlatego nie musi posiadać wehikułu czasu: może przewidzieć zachowanie W dzięki takiemu rozumowaniu.

b) Jeśli W nie jest racjonalny, to musimy znów rozbić problem na dwie części.

- W może zachowywać się przeciwnie do zachowania racjonalnego. Takie zachowanie nazwiemy irracjonalnym. Jeśli W jest irracjonalny, to wybierze drugie pudełko, w którym zobaczy milion. P bowiem wie, że W jest irracjonalny, a więc z łatwością potrafi przewidzieć ruch W.

- W może się zachowywać w sposób całkowicie losowy, tak że z prawdopodobieństwem 0,5 zachowa się racjonalnie lub irracjonalnie. Jednak losowość oznacza indeterminizm, a więc niemożliwość przewidywania. Losowe zachowanie jest równoznaczne z zachowaniem istnienia wolnej woli, a to wykluczyliśmy. Gdyby faktycznie ruchy W były losowe, P nie mógłby przewidywać.

Jeśli zakładamy istnienie P, to W może się zachowywać albo racjonalnie, albo irracjonalnie.
............................................................................
Zauważmy więc, że zachowanie irracjonalne przynosi suma sumarum większe korzyści materialne od racjonalnego. Mówiąc inaczej, racjonalnie działający W mógłby poprawić swoją sytuację, dokonując wyboru nieracjonalnego.

Jeżeli nie da się poprawić sytuacji żadnej ze stron bez pogorszenia sytuacji którejś strony, to taką sytuację nazywamy alokacją efektywną w rozumieniu Pareta. Zazwyczaj efektywność Pareta łączy się z racjonalnością stron, a jednak występują sytuacje, gdzie racjonalność i efektywność zachowań stoją ze sobą w sprzeczności. Zarówno P jak i racjonalny W osiągnęli najwyższą użyteczność - P przewidział ruch W, W dostał oba pudełka. Jednak sytuacja W mogłaby się poprawić bez pogorszenia sytuacji P, a więc alokacja nie jest efektywna.
............................................................................

No dobrze, ale ktoś powie, że to tylko abstrakcyjne ćwiczenie, bo nikt nie jest w stanie przewidywać zachowań innych ludzi ze 100% pewnością. Implikuje to, że ludzie mają wolną wolę. Okazuje się jednak, że nawet, jeśli P będzie przewidywał zachowanie W z ponad 50%-procentowym prawdopodobieństwem, paradoks istnieje nadal. Oznacza to, że paradoks istnieje w rzeczywistych sytuacjach decyzyjnych, z jakimi się często spotykamy.

Czy wolna wola coś zmienia w naszej sytuacji? Nie, W - jeśli jest racjonalny - powinien wybrać oba pudełka. Wybranie obydwu pudełek w takiej sytuacji wydaje się nawet "jeszcze bardziej" racjonalne niż w poprzedniej. Działania W i P są raczej niezależne. Ten problem przypomina oczywiście dylemat więźnia znany z teorii gier, kiedy to więźniowie nie mogą się porozumiewać ze sobą, ich działania nie są skoordynowane, co oznacza, że każdy z nich musi podjąć taką decyzję, aby niezależnie od ruchu drugiego więźnia, była ona najlepsza z możliwych. Dylemat więźnia jest przede wszystkim znany z tego, że również w nim występuje swego rodzaju paradoks: obaj więźniowie mogliby znaleźć się w lepszej sytuacji, gdyby zachowali się irracjonalnie. Jest to więc także sytuacja nieefektywna w rozumieniu Pareta.

W klasycznej formie dylemat więźnia, jest przedstawiany następująco (Źródło: wikipedia: http://pl.wikipedia.org/wiki/Dylemat_wi%C4%99%C5%BAnia):

Dwóch podejrzanych zostało zatrzymanych przez policję. Policja, nie mając wystarczających dowodów do postawienia zarzutów, rozdziela więźniów i przedstawia każdemu z nich tę samą ofertę: jeśli będzie zeznawać przeciwko drugiemu, a drugi będzie milczeć, to zeznający wyjdzie na wolność, a milczący dostanie dziesięcioletni wyrok. Jeśli obaj będą milczeć, obaj odsiedzą 6 miesięcy za inne przewinienia. Jeśli obaj będą zeznawać, obaj dostaną pięcioletnie wyroki. Każdy z nich musi podjąć decyzję niezależnie i żaden nie dowie się czy drugi milczy czy zeznaje aż do momentu wydania wyroku. Jak powinni postąpić?

Poniższa tabela przedstawia możliwe wyniki gry:



Strategia "zeznaje" okazuje się najlepsza niezależnie od tego co zrobi druga osoba. Rozwiązanie oparte na strategii dominującej polega na tym, że na przykład wybieramy opcję "zeznawać", której towarzyszy pewna "wypłata" i porównujemy tę "wypłatę" z wypłatą opcji "milczeć". Weźmy więźnia A. Zauważmy, że wolność (czyli gdy zeznaje) jest lepsza od 6 miesięcy odsiadki (gdy milczy). Pamiętajmy, że chodzi o porównanie. Jeśli B wybiera "milczeć", to A porównuje obie opcje: zeznawanie daje większą wypłatę (0 a nie -0,5 roku). Jeśli B wybiera zeznawać, A znowu porównuje: zeznawanie daje większą wypłatę (-5 a nie -10 lat). Nieważne co zrobi B, opcja zeznawać daje zawsze lepszą wypłatę niż opcja milczeć. Dla B wnioski są identyczne. Obaj będą zeznawać. Dostaną 5 lat więzienia. Gdyby jednak obaj poszli w zaparte i irracjonalnie milczeli, wyszliby na tym lepiej, gdyż dostaliby jedynie 6 miesięcy więzienia.

Można byłoby inaczej rozwiązać ten dylemat - po prostu w kategoriach wartości oczekiwanej. Ponieważ nie wiemy, z jakim prawdopodobieństwem drugi więzień dokonuje któregoś ruchu, uznajemy, że szansa jest 50:50.

Milczy:

(0,5+10)/2 = 5,25.

Zeznaje:

(0+5)/2 = 2,5.

Znowu lepiej zeznawać. Oczywiście można mieć wątpliwości co do takiej metody - po pierwsze określanie prawdopodobieństw jest kłopotliwe, po drugie dla gracza ważniejsze od prawdopodobieństwa zdarzenia będzie raczej możliwa strata i zysk. Dlatego kryterium strategii dominującej wydaje się lepsze od kryterium wartości oczekiwanej. To znaczy to drugie kryterium może być również poprawne, ale z pewnymi modyfikacjami - użycie zamiast samych wartości zdarzeń, użyteczności tych zdarzeń oraz zamiast prawdopodobieństw - użyteczności prawdopodobieństw. Kwestia ta jednak leży poza tematem - obiektywnie nie potrafilibyśmy określić który wybór jest lepszy.


Wróćmy zatem do paradoksu Newcomba. Możemy stworzyć następującą macierz wypłat:



Jaka jest strategia dominująca? Łatwo zauważyć, że nie istnieje. W takim razie użyjmy metody wartości oczekiwanej. Przyjmijmy, że P przewiduje z prawdopodobieństwem p. Wtedy wartość oczekiwana będzie następująca:

W bierze oba pudełka: p*1000 + (1-p)*1001000 = 1001000 - p*1000000
W bierze pudełko 2 : p*1000000 + (1-p)*0 = p*1000000

Niech p = 0,99.
W bierze oba pudełka: 1001000 - 0,99*1000000 = 11000
W bierze pudełko 2 : 0,99*1000000 = 990000.

Wynika z tego, że lepiej jest wziąć pudełko 2.

Czy nie ma jednak w tej konstrukcji jakiegoś fałszu? Moim zdaniem jest. W sposób podstępny zakłada się tu, że działania W i P są skorelowane (a nawet powiązane łańcuchem przyczynowo-skutkowym). To co zrobi W za chwilę, P właśnie już przewidział. Nie tyle przewidział, co po prostu wyprognozował, a więc ta czynność prognozowania już się zakończyła. Nie można jednak określać tej prognozy w kategoriach poprawności. P nie może ani przewidzieć poprawnie, ani niepoprawnie w trakcie dokonywania wyboru przez W, bo ten akt przewidywania dopiero zależy od wyboru W, który zależy od tej macierzy. (Jak W może dokonać wyboru skoro P już przewidział to dobrze lub źle?).

Zachowania obydwu graczy stają się zbyt uwikłane ze sobą. Musimy zbudować tak macierz, aby zachowania te były niezależne. Oto ta macierz:



Teraz strategia dominująca istnieje, gdyż niezależnie od wyboru P, dla W bardziej opłacalne będzie wzięcie obydwu pudełek. Łatwo porównać: 1000 (oba pudełka) > 0 (pudełko 2) oraz 1001000 (oba pudełka) > 1000000 (pudełko 2).

Strategia oparta na wartości oczekiwanej:

W bierze oba pudełka: p*1000 + (1-p)*1001000 = 1001000 - p*1000000
W bierze pudełko 2 : p*0 + (1-p)*1000000 = 1000000 - p*1000000.

Wybór obu pudełek jest korzystniejszy niezależnie od prawdopodobieństwa. W zasadzie przedstawiono tu rozwiązanie oparte po prostu na spostrzeżeniu z drugiego rozwiązania - nie można już zmienić zawartości pudełek. Rozwiązanie to nieco doprecyzowaliśmy.
....................................................................

Zmodyfikowany paradoks Newcomba i dylemat więźnia w jednym występuje na efektywnym rynku kapitałowym. Opiszę go w następnym poście.