poniedziałek, 18 października 2010

Realna stopa procentowa nie taka realna?

Realna stopa procentowa to pojęcie, którego nie czuje się intuicyjnie. To coś zupełnie innego niż "nominalna stopa procentowa". Nie chciałbym być źle zrozumiany - wiadomo, że to coś innego, bo uwzględnia inflację. Ale rzecz w tym, że należy ona do innej klasy abstrakcji. To nie jest stopa, którą czujemy fizycznie - w sensie pieniężnym. To nie jest rzecz, którą można w jakikolwiek sposób pojąć zmysłami, bo jest zwyczajnie pojęciem abstrakcyjnym. Nie ujrzymy wzrostu wartości kapitału w oparciu o tę stopę. Do tego służy stopa nominalna.

Dlatego właśnie nie możemy w sposób banalny łączyć czegoś co ma znaczenie wizualne, jak nominalna stopa procentowa z czymś kompletnie abstrakcyjnym, jak realna stopa procentowa. Nie możemy sobie odejmować od stopy nominalnej stopę inflacji aby uzyskać realny odpowiednik.

Mimo to zazwyczaj tak właśnie robimy - zwyczajnie odejmujemy - wzoru tego sam używałem w poprzednich postach. Tak czy inaczej należy mieć na względzie, że ten prosty wzór jest jedynie przybliżeniem prawidłowego. Prawidłowy wzór na realną stopę procentową ma postać:



gdzie

r(i) - realna stopa procentowa
r - nominalna stopa procentowa
i - stopa inflacji

Jeżeli inflacja jest mała, wtedy wzór może być przybliżony poprzez r-i. Wiemy jednak, że występują okresy w historii, gdy inflacja była duża. Gdyby zastosować wówczas jedynie r-i, znacznie zawyżono by realną stopę. Na początku 1975 r. w Stanach Zjednoczonych stopa inflacji wyniosła 6%, zaś rentowność 10-letnich obligacji skarbowych 7,79%. Wtedy r-i = 1,79%, podczas gdy prawidłowa realna stopa r(i) wyniosła 1,69%.

Ale właściwie skąd się bierze wyżej przedstawiony wzór?

1. Realna wartość kapitału

Świat jest oparty na relacjach. W świecie ekonomii jest to nad wyraz widoczne. Nikogo nie interesuje ilość kapitału. W centrum zainteresowania zawsze będzie stał pewien stosunek tego kapitału do jakiegoś czynnika (kosztów, przychodów, zysków itd.). Mamy więc zawsze relację:



gdzie

K - kapitał
d - jakiś czynnik

Czynnik d może stanowić np. współczynnik urealniający kapitał, czyli wskazujący ile tak naprawdę jest wart kapitał K. Co to znaczy warty? Warty oznacza: tyle ile mogę za niego danej rzeczy kupić. Jeśli posiadam K = 2 zł, a kilogram jabłek kosztuje 2 zł, to K jest warte dokładnie kilogram jabłek. Jeśli cena kilograma jabłek wzrosła do 3 zł, to K jest realnie wart już tylko 2/3 * 1 kg = 2/3 kg jabłek, ponieważ tylko 2/3 kg jabłek możemy kupić. Zróbmy jeszcze jeden przykład. Niech cena wzrośnie do 3,5 zł. Wówczas realna wartość K wynosi 2/3,5 = 0,57 kg.

Chcemy jednak zmierzyć realną wartość K w złotówkach a nie w kilogramach. Jeśli cena nie rośnie, to możemy kupić za 2 zł 1 kg jabłek, wobec czego wartość realnego kapitału dla K = 2 zł wyrażona w złotym - jako siła nabywania jabłek - wyniesie:

2 zł * 1 = 2 zł.

Jeżeli cena wzrośnie do 3 zł, to znaczy, że za nasze 2 zł realnie możemy jedynie nabyć 2/3 kg jabłek. Oznacza to, że realna wartość dla K = 2 zł równa się:

2 zł * 2/3 = 4/3 zł,

ponieważ 2/3 z 2 złotych stanowi o sile nabywczej K.

Analogicznie, jeżeli cena rośnie do 3,5 zł, to znaczy, że za nasze 2 zł realnie możemy jedynie nabyć 0,57 kg jabłek. Oznacza to, że realnie uzyskamy:

2 zł * 0,57 = 1,14 zł.

Jest to logiczne: taka część kilograma jabłek jaką możemy kupić po zmianie ceny będzie korygować nominalną wartość kapitału po to, aby wyrazić siłę nabywczą tego kapitału. Zauważmy, że ilość kilogramów jest naszym punktem zaczepienia w tej analizie. Ten punkt zaczepienia stanowi też inaczej "cena stara". Kiedy mówię, że chcę wyrazić realną wartość kapitału w złotówkach, to de facto chodzi mi o wartość kapitału wyrażoną w cenie starej (tyle że przyswojenie tej idei jest trudniejsze niż odniesienie do jednostek fizycznych: pytamy jaką część nowej ceny stanowi stara cena). W nomenklaturze ekonomicznej używa się określenia "cena stała" zamiast "cena stara": jeśli czytamy, że PKB jest wyrażone w cenach stałych, to właśnie chodzi o realny PKB.

Łatwo teraz zauważyć czym jest d w naszym wzorze. Gdy cena nie zmienia się, d = 1. Gdy cena osiąga 3, d = 3/2. Gdy cena wynosi 3,5, d = 1/0,57 = 1,75. Czyli:

a) cena stała: 2/1 = 2

b) cena rośnie do 3 zł, tj. o 50% ceny początkowej:

2/(1+0,5) = 2/(3/2) = 4/3

c) cena rośnie do 3,5 zł, tj. o 75% ceny początkowej:

2/(1+0,75) = 2/1,75 = 1,14.

Zauważmy, że w p. (b) oraz w p. (c) pojawia się we wzorze stopa inflacji (odpowiednio 0,5 i 0,75). Dokładnie o taką część urosła cena w stosunku do początkowej. W ogólnym przypadku otrzymujemy wzór na realną wartość kapitału:



gdzie

K(i) - realna wartość kapitału

Powstaje więc bardzo ciekawa sytuacja z punktu widzenia matematyki finansowej. 1/1+i to współczynnik dyskontowy. Dyskontujemy nominalną wartość kapitału do wartości realnej. Zauważmy, że nie chodzi tu o dyskontowanie czasowe, tak jak to zazwyczaj rozumiemy. Dyskonto dotyczy "przestrzeni" siły nabywczej.

2. Deflator
Być może któryś z Czytelników zastanawiał się skąd się bierze pojęcie deflatora. Powyżej przedstawiłem właśnie jego ideę. Deflator jest odwrotnością "współczynnika dyskontowego", czyli równa się 1+i. Dotyczy przestrzeni siły nabywczej, a nie dyskonta, więc nazwano go deflatorem. Wyższa wartość nominalna dokonuje swego rodzaju deflacji: inflacji w kierunku przeciwnym tak jak dyskonto dokonuje oprocentowania w kierunku przeciwnym.

Na wikipedii mamy wzór na deflator PKB:



Jest to nasz 1+i.


3. Pytanie wątpiącego

A dlaczego nie mogę obliczyć wartości realnej kapitału w następujący sposób: K - K*i = K(1-i). Oczywiście można coś tak próbować wyliczyć, tyle że nie będzie to realna wartość kapitału. W tym zapisie zakłada się, że nominalny kapitał zmniejsza się w taki sposób, jakby płaciło się od niego odsetki. Inaczej mówiąc, zakłada się, że realna wartość powstaje po nominalnym zmniejszeniu kapitału. Jeżeli jednak występuje inflacja, to nominalnie mamy ciągle tyle samo. Nie możemy dotykać nominału. Możemy jedynie określić w jakim stosunku do cen ten nominał występuje i wówczas manewrować stosunkiem. Jeśli przyjmiemy, że abstrakcyjna cena początkowa jest równa 1, wtedy każdy wzrost tej ceny o i, będzie powodował odpowiednią korektę kapitału K zgodnie ze wzorem K/(1+i). Pamiętajmy, że realna wartość kapitału mówi o jego sile nabywczej.

4. Realna stopa procentowa

Realny kapitał K nie zostanie zmiażdżony przez inflację, jeśli nominalny kapitał K zostanie odpowiednio zainwestowany. Zwróćmy uwagę na poprzednie zdanie: nie inwestujemy realnego kapitału, bo to jest po prostu niemożliwe! Realny kapitał jest abstrakcją i nie można go inwestować. Inwestujemy nominalny kapitał, a realny kapitał nie zostanie zmieciony przez inflację w sposób pośredni dzięki tej inwestycji. Zatem, aby powstrzymać inflację, dokonujemy w tym okresie oprocentowania K(1+r), gdzie r - nominalna stopa oprocentowania o tej samej częstotliwości co stopa inflacji. Siła konstrukcyjna będzie przeważać nad destrukcyjną dopóki r > i. Gdy cena rośnie zgodnie z inflacją, to jednocześnie nominalny kapitał rośnie zgodnie z oprocentowaniem, co powoduje złudzenie, że faktycznie mamy wzrost pieniędzy o K*r. Teraz jednak już wiemy, że realna wartość oprocentowanego kapitału wyniesie:



Możemy więc powiedzieć, że nominalny kapitał K został realnie oprocentowany zgodnie ze stopą r(i) w sposób następujący:



K się skraca i w końcu otrzymujemy wzór:




5. Perspektywa inwestora

A teraz przedstawimy podobny dowód na realną stopę zwrotu, ale z perspektywy inwestora.

W standardowej wersji inwestor szacuje wartość akcji na podstawie wartości przyszłych dywidend, jakie będzie otrzymywał od spółki. Dywidendy powinny być wypłacane co pewien stały odcinek czasu przez okres n odcinków. Ponieważ wartość kapitału w przyszłości nie jest równa wartości obecnej, kapitał musi zostać zdyskontowany do dziś za pomocą stopy dyskontowej r. Ponadto istnieje ryzyko takiej inwestycji, dlatego też stopa zwrotu staje się już oczekiwaną stopą zwrotu, która jest właśnie równa stopie dyskontowej r. Ponieważ inflacja wynosi i, to znaczy, że zyski spółki muszą w każdym kolejnym odcinku średnio rosnąć zgodnie z inflacją (ponieważ o tyle zwiększa swoje ceny). Wobec tego wartość wewnętrzna akcji jest dana wzorem:



gdzie D - dywidenda wypłacana dziś

Inaczej zapisując:



Po podstawieniu (1+r)/(1+i) = 1+r(i) znów otrzymujemy ten sam wzór na realną stopę zwrotu co wcześniej. Dostaniemy model dyskontowy już z realną oczekiwaną stopą zwrotu:



A gdy n dąży do nieskończoności powyższy szereg geometryczny sprowadza się do:



Zauważmy, że jeśli spółka rozwija się, a nie tylko zwiększa swoje ceny, to za i można podstawić g, przy własności g > i. W takiej sytuacji również można mówić o "realnej oczekiwanej stopie zwrotu": nominalna oczekiwana stopa zwrotu zostaje skorygowana o stopę wzrostu zysku spółki. Taka realna stopa zwrotu przechodzi jeszcze w wyższy stopień abstrakcji ekonomicznej, bowiem uznaje się tutaj, że wzrost zysków spółki jest jedynie "nominalny" pomimo że pokonuje inflację. Kwestia ta dotyka już jednak innych zagadnień ekonomicznych, choć analogii jest tak dużo, że warto przynajmniej je zasygnalizować.

wtorek, 12 października 2010

Średnioroczna realna stopa zwrotu DJIA wraz ze stopą dywidendy

Aby było jasno przedstawione, napiszę raz jeszcze jaka jest średnioroczna stopa zwrotu z aprecjacji kursów akcji oraz stopa dywidendy DJIA wraz z korektą o inflację. Na stronie: http://observationsandnotes.blogspot.com/2009/03/average-annual-stock-market-return.html dowiadujemy się, że

* Roczny zwrot od 1900 do 2009 wyniósł w przybliżeniu 9,4% (4,7% aprecjacji cenowej plus 4,7% z dywidendy)
* Zwrot od 1929 do 2009 wyniósł w przybliżeniu 8,8% (4,5% plus 4,3%)
* Od 1933 do 2009: 11,1% (6,9% plus 4,2%)
* Ostatnie 25 lat: 11,9% (9,0% plus 2,9%)
* Ostatnie 20 lat: 9,4% (6,9% plus 2,5%)
* Ostatnie 10 lat: 1,3% (-1,0% plus 2,3%)

Porównałem te stopy z danymi na Stooq.pl i stronie Shillera (http://www.multpl.com/s-p-500-dividend-yield/), przy czym ta ostatnia strona podaje dane dla S&P500, a nie DJIA. Wyniki są jednak podobne,a więc można im wierzyć.

Porównajmy otrzymane stopy zwrotu ze stopami inflacji Stanów Zjednoczonych.

* Od 1900 do końca 2009 inflacja wyniosła 3,12%
* Od 1929 do końca 2009 3,08%
* Od 1933 do końca 2009 3,48%
* Ostatnie 20 lat 2,77%
* Ostatnie 10 lat 2,52%

W przybliżeniu średnioroczne realne stopy zwrotu z DJIA po uwzględnieniu dywidend wyniosły więc:

* Od 1900 do końca 2009: 6,28%
* Od 1929: 5,72%
* Od 1933: 7,62%
* Ostatnie 20 lat: 6,63%
* Ostatnie 10 lat: -1,22%

Pomijając kwestię inflacji i dywidendy, interesujące, że gdy analizujemy dane od 1900 r. to sama aprecjacja indeksu prezentuje prawie ten sam wynik (4,7%) co rentowność 10-letnich obligacji skarbowych wynosząca 4,9%. Natomiast od 1933 r. kursy akcji dają dużo większy zysk (prawie 7%), gdyż rentowność obligacji wyniosła średnio 5,33%. Podobna sytuacja jest za ostatnie 20 lat, kiedy rentowność obligacji to 5,52%. Wynika z tego, że już na poziomie samych kursów akcji występuje tendencja do pokonywania lub co najmniej zbliżania się do rentowności obligacji. Dywidenda dodatkowo potęguje ten efekt sprawiając, że akcje w długim terminie pokonują instrumenty bez ryzyka.

poniedziałek, 11 października 2010

Poprawka starych błędów: problem ceny za ryzyko

Dość dawno temu napisałem post "Dywidenda jako cena za niepewność", do którego ostatnio wróciłem. Z przerażeniem odkryłem, że popełniłem głupie błędy, których wcześniej nie zauważyłem. I możliwe, że nikt nie zauważył, bo nie były wcale banalne. Skasowałem ten wpis niestety, lecz prawie cały tutaj zacytuję, aby potem poprawić. Cytuję:


Ile wynosi średnia stopa dywidendy z DJIA (tj. z 30 spółek, które wchodzą w jego skład)? Na stronie: http://observationsandnotes.blogspot.com/2009/03/average-annual-stock-market-return.html dowiadujemy się, że

* Roczny zwrot od 1900 do 2009 wyniósł w przybliżeniu 9,4% (4,7% aprecjacji cenowej + 4,7% z dywidendy)
* Zwrot od 1929 do 2009 wyniósł w przybliżeniu 8,8% (4,5% plus 4,3%)
* Od 1933 do 2009: 11,1% (6,9% plus 4,2%)
* Ostatnie 25 lat: 11,9% (9,0% plus 2,9%)
* Ostatnie 20 lat: 9,4% (6,9% plus 2,5%)
* Ostatnie 10 lat: 1,3% (-1,0% plus 2,3%)
* Za 2009 22,0% (18,8% plus 3,2%)

Wydaje się, że im dłuższy okres, tym obiektywniejsze stają się te liczby. Przyjęliśmy dotychczas, że DJIA osiąga 4,64%, czyli realnie 1,64%. Przyjmijmy teraz stopę dywidendy na poziomie 4,3%, czyli realnie 1,3% (inflacja dąży nieco powyżej 3% w skali roku).

Zwróćmy uwagę, że 1,64+1,3=2,94%, a pamiętamy, że realny wzrost gospodarczy określiliśmy na poziomie 3,3%. Zatem po pierwsze z DJIA osiągamy średnio realnie więcej niż z najrentowniejszych instrumentów bez ryzyka rynkowego. Roczna stopa zwrotu bez dywidend dąży do poziomu zysku, jaki dają instrumenty bez ryzyka. Za dowód mogą służyć dane od 1962 r: średnia stopa rentowności z obligacji skarbowych wyniosła 6% (dane z: http://www.federalreserve.gov/releases/h15/data.htm#top) i tyle samo wyniosła w tym okresie średnioroczna aprecjacja DJIA. Uwzględnienie dywidendy sprawia, że całkowity zysk jest wyższy. Po drugie zarabiamy tylko nieco mniej niż rośnie gospodarka.

Jednakże trzeba pamiętać, że dywidenda pozwala na reinwestowanie kapitału, na przykład poprzez lokowanie dywidendy w bezpieczne instrumenty.

Wiemy, że do zarobku 1,64% należy dodać stopę dywidendy 1,3% i stopę reinwestycji wynikającą z dywidendy.
Zakładając, że realna stopa oprocentowania utrzymuje się na stałym poziomie średniej stopy zwrotu z DJIA, czyli 1,64%, zysk z reinwestycji to: 0,0164*0,013 = 0,0002, tj. 0,02% aktywów. A więc zysk z dywidendy plus reinwestycji wynosi 1,32%. W sumie więc dostajemy

1,64% + 1,32% = 2,96%.

Oznacza to, że średnio rzecz biorąc nie dogonimy realnego wzrostu gospodarczego, co jest jednak ekonomicznie uzasadnione: trudno wymagać, aby pasywny inwestor zarabiał równie szybko jak przedsiębiorca, który ponosi większe koszty i ryzyko.

Jednak jest tu jeszcze jedna interesująca kwestia natury ekonomicznej. Zgodnie z teorią wyższe zyski na giełdzie są wynagrodzeniem za ponoszone ryzyko. Wynika z tego, że ryzyko ciągnie giełdę w dwie strony, tak że oczekiwana stopa zwrotu z akcji równa się stopie zwrotu z instrumentów bez ryzyka. Natomiast ze statystycznego punktu widzenia ryzyko nie jest duże, gdyż średnia z dywidend, które przytoczyłem na początku artykułu wynosi 3,44%, a odchylenie standardowe tylko 0,95%. Biorąc pod uwagę, że w dłuższych okresach stopy zwrotu z akcji dążą do rentowności obligacji skarbowych, wydaje się, że ryzyko, iż będziemy zarabiać mniej niż z obligacji, nie istnieje, jeśli uwzględnimy możliwość otrzymywania dywidend i reinwestycji.

Jak więc wyjaśnić ekonomiczną naturę dywidendy, która sprawia, że zarabiamy więcej niż na obligacjach skarbowych? Dywidenda, choć z punktu widzenia średniej i historii wydaje się być pewna niczym lokata, to jednak w rzeczywistości podlega niepewności. Statystykę często się określa jako jedno wielkie kłamstwo. George Bernard Shaw śmiał się: "Jeśli mój sąsiad codziennie bije swoją żonę, ja zaś nie biję jej nigdy, to w świetle statystyki obaj bijemy je co drugi dzień.". Aaron Levenstein powiedział, że "statystyka jest jak kostium bikini: pokazuje wiele, ale nie pokazuje najważniejszego".
I tak możemy wskazać kilka okresów, kiedy rentowność obligacji skarbowych przewyższała stopy zwrotu z DJIA powiększone o dywidendy. Był to na przykład okres 1970-1980, kiedy obligacje skarbowe przyniosły po całej dekadzie nominalną logarytmiczną stopę zwrotu równą 79%. Dla DJIA było to jedynie 18,6%. Nie mam danych dla dywidend w tym okresie, ale przyjmując nawet średnią 4,3%, to całkowita logarytmiczna stopa zwrotu z akcji wyniesie wtedy 65%, a więc o 14 pkt proc. mniej niż z obligacji.

Z kolei historia to jednak przeszłość i nikt nie gwarantuje, że się powtórzy. Trzeba jakoś uwzględniać możliwość zaistnienia zjawisk nieprzewidywalnych, a mających dalekosiężne skutki - jak wojna czy kryzys gospodarczy o niepohamowanym zasięgu. Stąd dywidenda (i płynące z niej reinwestowane zyski) stanowią wynagrodzenie za tę niepewność. Niepewność w porównaniu do ryzyka jest niemierzalna, lecz można ją wycenić właśnie jako średnią dywidendę + reinwestowany zysk. Z tego punktu widzenia klasyczna teoria pozostaje niezachwiana, a inwestorzy pozostają racjonalni.


............................................................................

Gdzie jest błąd?

Po pierwsze odjąłem dwa razy stopę inflacji. Raz przy stopie zwrotu z indeksu giełdowego i drugi raz przy stopie dywidendy. Chciałem wyciągnąć realną stopę zarówno z indeksu, jak i dywidendy. W rzeczywistości przecież inflacja płynie niezależnie od zmian cenowych i dywidendy. Jeśli w uproszczeniu obliczamy realną stopę zwrotu jako różnicę pomiędzy nominalną stopą kapitalizacji a stopą inflacji (co nie jest do końca prawdą i napiszę o tym następną notkę), to okazuje się, że całkowita realna stopa zwrotu jest większa od stopy wzrostu gospodarczego. W sumie, powinniśmy napisać, że średnio zyskujemy 1,64% z indeksu giełdowego plus 4,3% stopy dywidendy plus 0,054% stopy z reinwestycji dywidendy (w instrumenty bez ryzyka), co daje razem 6% realnej stopy zwrotu. Zatem w długim okresie czasu inwestor stosujący metodę kup i trzymaj średnio zarabia realnie 6%, co oznacza, że zarabia więcej niż wynosi realny wzrost gospodarczy wynoszący przeciętnie 3,3%. Powstaje pytanie oczywiście czy to ma sens, a jeśli tak, to jaki? Zgodnie z modelem Gordona, oczekiwana stopa zwrotu faktycznie powinna być większa niż wzrost zysku bądź free cash flow spółki. Będziemy jeszcze zastanawiać się nad tą sprawą.

Po drugie stwierdzenie, że skoro "zgodnie z teorią wyższe zyski na giełdzie są wynagrodzeniem za ponoszone ryzyko", to "wynika z tego, że ryzyko ciągnie giełdę w dwie strony, tak że oczekiwana stopa zwrotu z akcji równa się stopie zwrotu z instrumentów bez ryzyka" wcale nie jest poprawne. Analizując ten problem myślę, że zbyt intuicyjnie do niego podszedłem.

Zauważmy, że zgodnie z modelem CAPM inwestor może uzyskiwać dużo wyższe zarobki nie tylko niż instrumenty wolne od ryzyka, ale nawet niż sam rynek, jeśli uwzględnimy dodatkowe ryzyko. Oczekiwana stopa zwrotu z akcji będzie równa stopie z instrumentów bez ryzyka, jeśli skorygujemy nasz zysk o cenę za ryzyko. No dobrze, ale jak to rozumieć? Przecież ryzyko, to właśnie - wydawało by się - owe odchylenie w jedną bądź w drugą. A tu się okazuje, że historycznie i średniorocznie jest po prostu opłacalne siedzenie w akcjach. Powstaje pytanie: czy jeśli długo będziemy trzymać akcje, to czy nadwyżka stopy zwrotu z akcji nad obligacjami jest nadal ceną za ryzyko?

W cytowanym tekście przedstawiłem wyjaśnienie w oparciu o dywidendę jako "cenę za niepewność". Obecnie stwierdzam, że nie było ono pełne, a może nawet prawidłowe.

Warto zwrócić uwagę na jedną sprawę - bardzo ważną. Przejrzyjmy raz jeszcze wpis o modelu CAPM, zarówno dla CML, jak i SML. Oczekiwana stopa zwrotu nie jest odniesiona do jakiegoś konkretnego okresu (natomiast sama stopa zwrotu już tak). Nie mówi się też, że inwestor może powtórzyć inwestycję w oparciu o ten model w następnym okresie. Chodzi tylko o to, że inwestor posiada już obrany horyzont inwestycyjny i w nim działa. Ryzyko więc dotyczy tego określonego przedziału czasu. Jeśli więc na przykład inwestor inwestuje przez rok, to tylko ten rok jest ryzykowny. Ponieważ akurat ten rok może być bardzo dobry lub bardzo zły, to właśnie w nim tkwi istota premii za ryzyko. Gdyby wziąć wszystkie lata i uśrednić, to faktycznie nie ma żadnego ryzyka, ponieważ średnio będziemy zarabiać oczekiwaną stopę zwrotu. Jednak istota polega na tym, że inwestor ma określony rok - i tu jest ryzyko.

I dlatego właśnie ryzyko wydaje się nie istnieć, gdy analizujemy perspektywicznie inwestora, który inwestuje przez wiele lat, bez przerwy. Błąd polega na tym, że w takiej sytuacji nie powinniśmy wyciągać średniorocznej stopy zwrotu, ale tę stopę zwrotu, która dotyczy całego okresu inwestycyjnego - wieloletnią stopę zwrotu. A ponieważ jest to ciągle tylko jedna stopa zwrotu, to aby określić oczekiwaną stopę zwrotu, należy znowu wziąć do analizy te wszystkie wieloletnie stopy zwrotu z długiego okresu, z którego dany inwestor korzysta jedynie w pewnym ułamku. Np. jeśli ktoś inwestował ciągle przez 30 lat i powie na koniec tego okresu: pokonałem rynek, gdyż mam większą 30-letnią stopę zwrotu niż S&P500 lub Dow Jones, to może nie mieć w żadnym razie racji. Po pierwsze aby to sprawdzić, należałoby obliczyć 30-letnią oczekiwaną stopę zwrotu portfela oraz indeksu giełdowego, co jest dziś praktycznie niemożliwe ze względu na małą liczbę danych - dla amerykańskiego rynku akcji nie uzyskalibyśmy nawet 5 obserwacji. Po drugie należałoby ocenić ryzyko tej inwestycji oraz ryzyko indeksu giełdowego. Sposób wyznaczenia tego ryzyka jest odrębną sprawą - można się posłużyć betą, odchyleniem standardowym, wartością zagrożoną czy uogólnieniami tychże narzędzi.

No cóż, błędy się zdarzają - dobrze, że na komputerze. Lepiej później je wykryć niż wcale.

czwartek, 7 października 2010

Nierównowagowa termodynamika: od alternatywnej hipotezy ewolucji do "teorii" rynku kapitałowego

1. Wprowadzenie
Przedstawiam teorię nierównowagowej termodynamiki na podstawie artykułu Stephanie Pierce "Non-Equilibrium Thermodynamics: An Alternate Evolutionary Hypothesis". W poprzedniej notce widzieliśmy jak dochodzi do powstania ruchu chaotycznego cząsteczek cieczy. Chaos wiązał się z powstaniem nierównowagi termodynamicznej, a tym samym brakiem maksymalnej entropii. Entropię można rozumieć jako stopień nieuporządkowania. (Jednakże nie jest zbyt dobra definicja dla nowych stanów nierównowagowych - o tym za chwilę). Wobec tego, w takim stanie chaotycznym zaczął automatycznie pojawiać się mniejszy nieporządek. Teraz ciecz rozszerzymy na bardziej złożone układy - wyjaśnimy powstawanie gatunków organizmów biologicznych. Dodatkowo wskażemy w jaki sposób dochodzi do załamywania się porządku ich powstawania, czyli właśnie ewolucji (powstania nowego gatunku) lub wymarcia gatunku. Na koniec powiążemy przedstawioną teorię z rynkiem.

Jakiś czas temu przedstawiłem tutaj argumenty za tym, że teoria doboru naturalnego nie może być pełną teorią wyjaśniającą powstawanie gatunków. Pokazałem wówczas, że ta sama zasada obowiązuje na rynku: teoria rynku efektywnego nie może być pełną teorią wyjaśniającą powstawanie fluktuacji cen akcji.

Obecnie spojrzymy krytycznie na teorię Darwina pod innym kątem. Otóż teoria ta nie wyjaśnia po pierwsze nieodwracalności ewolucji, po drugie złożoności i ujawniania się samoorganizacji systemów biologicznych.

2. Entropia struktur dyssypatywnych

Dlaczego biologiczne organizmy zdolne są do samoorganizacji i utrzymania życia daleko od równowagi termodynamicznej? Odpowiedź znajduje się w 'dyssypatywnych strukturach'. Dyssypatywne struktury są to otwarte systemy, które potrzebują nieprzerwanie dostarczania wolnej energii ze środowiska w celu utrzymania zdolności do pracy. Dyssypatywną strukturą była woda podgrzewana z zewnątrz, jak to ilustrowano w poprzedniej notce. I teraz pytanie. Czy entropia takiej struktury maleje? Wiemy, że druga zasada termodynamiki, zgodnie z którą entropia nie maleje, odnosi się do układów izolowanych. Układ izolowany to oczywiście pojęcie względne. Jeśli więc potraktować wodę i jej podgrzewacz jako układ izolowany, wtedy entropia całego układu rośnie (podgrzewacz może być na baterię). Taki układ będzie funkcjonował przez jakiś czas w stanie "zorganizowanym". Ale skoro chodzi tylko o baterię, to możemy abstrakcyjnie powiedzieć, że sam ruch cząsteczek cieczy jest na baterię i potraktować naczynie w którym ona się znajduje jako układ izolowany. Tak więc entropia będzie rosła.

W takim przypadku rozumienie entropii jako stopnia nieuporządkowania może być mylące. Entropia będzie rosła, a uporządkowanie ruchu cząsteczek również. Dopiero, jak to było pokazane, odpowiednio duża dawka energii doprowadzi do "przegrzania", nastąpi powrót do struktury izotropowej. Dlatego też powinniśmy raczej sięgnąć do ogólniejszej teorii informacji, zgodnie z którą entropia jest miarą "gęstości" informacji. Im więcej informacji w danym zbiorze, tym więcej jest możliwych zdarzeń do wystąpienia, a więc prawdopodobieństwo każdego zdarzenia maleje. Z tego punktu widzenia entropia jest także miarą niepewności i w tym sensie wiąże się z teorią kinetyczną.

Dlatego też organizmy biologiczne są nadal kontrolowane przez drugą zasadę termodynamiki - ich entropia wzrasta i kierują się ku niszczącej równowadze. Jednakże w przeciwieństwie do prostych systemów fizyczno-chemicznych systemy biologiczne zatrzymują 'informacje', co pozwala im się samoreplikować oraz zwiększać złożoność i organizację w czasie.

3. Ograniczenia informacyjne

Wszystkie organizmy biologiczne zawierają informacje w formie DNA (z wyjątkiem wirusów, które zawierają RNA). Biologiczne informacje mogą zostać wyrażone w terminie entropicznego zjawiska: im więcej informacji zawiera system, tym większa entropia systemu (system jest bardziej złożony). Ale skoro biologiczna ewolucja zwiększa złożoność (dzięki przechowywaniu informacji i właśnie II zasadzie termodynamiki), to w jaki sposób system pozostaje zorganizowany?

Sekret biologicznych organizmów leży w informacyjnych ograniczeniach. Biologiczne systemy są ograniczone przez:

1. historię
2. rozwój
3. środowisko

Tak jak to ilustruje poniższy rysunek:



Na chwilę się tu zatrzymam. Te ograniczenia powinny dawać nam inwestorom pewne znaki. Otóż wszystkie trzy ograniczenia wiążą się z pamięcią długoterminową i nieliniową korelacją. Weźmy np. historię. To co się zdarzyło wcześniej będzie silnie oddziaływać przez długi okres. Nieliniowa korelacja, ponieważ wrażliwość na warunki początkowe nie będzie miała liniowego wpływu. Natura wykorzystuje taką korelację, ponieważ nie musi wydatkować dużej energii: wystarczy mały bodziec na początku, by wpływ się kumulował w czasie. Reszta czynników jest niezwiązana z czasem tylko przestrzenią - tutaj pamięć jest trudniejsza do zrozumienia, gdyż w naszym ludzkim pojęciu pamięć bezpośrednio wiąże się z czasem.

Najważniejszym elementem z tych trzech jest historia. Jeżeli system biologiczny nie jest wrażliwy na przeszłość, wówczas entropia wzrasta do maksimum, system umiera w równowadze.

Kolejnym ważnym ograniczeniem jest rozwój, który jest kontrolowany przez historię. Chodzi tu w szczególności o podział komórkowy. Podział ten nie może być zbyt silny, aby nie doszło do "przegrzania" (ilości informacji), czyli do maksymalnej entropii. Popatrzmy na następujący rysunek. H oznacza tutaj entropię (a nie wykładnik Hursta). H(obs) to obserwowana entropia dla systemu biologicznego. H(max) to maksymalna entropia korespondująca z równowagą. Organizacja się zwiększa, w końcu staje się zbyt duża, by utrzymać system.



Nasuwa mi się pytanie czy nie powinniśmy tego przykładu odnieść do życia firm: czy jeśli firma się zbytnio decentralizuje lub po prostu za szybko rozrasta, może dojść do jej upadku?

Trzecim ograniczeniem jest środowisko. Dotyczy ono naturalnej selekcji. Jeśli naturalna selekcja nie bierze udziału w biologicznej ewolucji, wówczas możemy się spodziewać, że wszystkie genotypy w populacji będą równie prawdopodobne i będziemy obserwować wzrost nowości ewolucyjnych. To równe prawdopodobieństwo jest oczywiście silnie związane ze wzrostem entropii. Druga zasada termodynamiki właśnie wynika z rachunku prawdopodobieństwa (bardziej prawdopodobne są stany nieuporządkowane, ponieważ zwyczajnie jest ich więcej). Poniższy rysunek również obrazuje dochodzenie do maksymalnej entropii przy dużej dywersyfikacji genotypów.



Nasuwa mi się także tutaj pytanie: czy nie jest to swoisty dowód, że zbyt duża dywersyfikacja akcji w portfelu prowadzi do znacznego pogorszenia zarządzania nim?

4. Podział lub wymarcie

Wyjaśniliśmy ogólnikowo w jaki sposób organizm pozostaje w stanie zorganizowanym jednak nie powiedzieliśmy dlaczego następuje podział gatunkowy lub wymarcie gatunku. Bo właściwie wiemy jedynie, że są ograniczenia hamujące wzrost entropii, pozwalające na istnienie stabilnego stanu. Dlaczego więc w tym stanie następuje dywersyfikacja lub wymarcie? Jak już zostało powiedziane, zgodnie z termodynamiką nierównowagową, gdy informacji jest zbyt dużo, system staje się zdezorganizowany i zbyt złożony, aby się utrzymać. Aby jeszcze głębiej zrozumieć, dlaczego mniejsza ilość informacji powoduje wzrost organizacji, natomiast już większa psuje system, musimy sięgnąć po dynamikę nieliniową. Dynamiczne systemy nieliniowe charakteryzują się dodatnim sprzężeniem zwrotnym. Najpierw następuje niewielki wpływ jednej zmiennej na drugą zmienną, potem druga zmienna "oddaje" pierwszej zmiennej, tak że ta pierwsza zostaje wzmocniona efektem "uderzeniowym", który to znowu efekt uderzy w drugą zmienną itd. W ten sposób, sprzężenie zwrotne wywołuje reakcję łańcuchową, w której małe ilości nowych informacji wywołują niekontrolowany chaos. To chaotyczne zachowanie może doprowadzić do spontanicznego powstania nowych stanów porządku.

Mówiąc ściślej, nowe stany porządku są kreowane przez informacyjne bifurkacje. Zamiast opisywać co to za czart, najlepiej pokazać graficznie i wszystko będzie jasne:



Jak widać, sprzężenie zwrotne wywołuje lawinę informacyjną, co jest unaocznione przez wzrost entropii. Nagle entropia dochodzi do maksimum, a więc następuje zbliżenie systemu do równowagi termodynamicznej. Ale ze względu na to, że ciągle mamy ograniczenia i wewnętrzne stymulacje, równowaga nie zostaje utrzymana. W pewnym, zupełnie nieprzewidywalnym momencie następuje owa bifurkacja, która jest stymulowana jedynie przez wewnętrzne mechanizmy. Powstają dwa możliwe stany - są to punkty bifurkacyjne. System może wybrać jedną z dwóch gałęzi. Jeśli system nie wymrze (bo może nie nastąpić na czas bifurkacja), "wybiera" gałąź w oparciu o naturalna selekcję. System wówczas nie może skoczyć do kolejnej gałęzi - ograniczenia mu na to nie pozwolą.

Po bifurkacji system rozpoczyna reorganizację, czyli zwiększenie porządku. Reorganizacja pojawia się, ponieważ każda potomna gałąź, która została wyprodukowana przez bifurkację posiada mniejszą entropię czy mniej informacji niż rodowa gałąź. Ta strata entropii nie łamie drugiej zasady termodynamiki, ponieważ obie potomne gałęzie razem posiadają taką samą lub większą entropię niż rodowa gałąź.

5. Podsumowanie

Nierównowagowa termodynamika jest szczególnym przypadkiem drugiej zasady termodynamiki, która jest użyta do wyjaśnienia istnienia samoreplikujących dyssypatywnych struktur. Opisuje w jaki sposób biologiczne systemy stały się bardziej skomplikowane i zorganizowane - jako rezultat, a nie kosztem entropii. Nierównowagowa termodynamika stosuje koncepcję entropii do formowania się informacyjnej złożoności i opisuje jej kształt przez historyczne, rozwojowe oraz środowiskowe ograniczenia, wykorzystując teorię układów nieliniowych. Opisuje także w jaki sposób dochodzi do destrukcji systemu.

6. "Teoria" rynku kapitałowego

Jak ma się ta teoria do rynku? Nasunęły mi się już dwa pytania w różnych kontekstach, jednak można też próbować poszukiwać innych. Rynek jest strukturą złożoną z popytu i podaży. Gdy panuje rynek byka, inwestorów kupujących przybywa więcej niż sprzedających, więc można byłoby powiedzieć, że rynek staje się coraz bardziej złożony, ale i bardziej zdywersyfikowany. Kolejne bifurkacje mogą wywoływać korekty, aż w końcu pewna bifurkacja dokona dzieła zniszczenia. Bifurkacje te są kompletnie nieprzewidywalne pomimo deterministycznego charakteru układu. Podobny układ powstaje na rynku niedźwiedzia.

Mamy więc na razie jedno ograniczenie - zainteresowania rynkiem. Jednak ono samo nie wystarcza, bo rynek to oczekiwania, to gospodarka i dopiero na końcu spekulacja. Potrzebne jest więc pewne ograniczenie oczekiwań, odzwierciedlające stan oczekiwań sytuacji finansowej spółki oraz gospodarki krajowej i światowej. Jeśli zaczyna się sytuacja poprawiać, inwestorzy oczekują, że poprawa będzie kontynuowana, co przekłada się na wzrost indeksów. Warunkiem wydaje się, aby nie było za dobrze. Muszą dochodzić jakieś niepokojące sygnały z różnych sektorów gospodarczych lub innych krajów, aby ogólnie inwestorzy pozostawali w dezorientacji (ilość pozytywnych informacji nie może być zbyt duża). Gdy sytuacja się pogarsza, inwestorzy oczekują jej kontynuacji i indeksy spadają. Podobnie, sytuacja nie może być zbyt zła.
Z drugiej strony, rzecz nie tylko zależy od tego czy sytuacja jest świetna czy fatalna, ale także od tego czy akcje są przewartościowane czy niedowartościowane. Im akcje będą bardziej odbiegać od wartości wewnętrznej, tym większe będą oczekiwania co do powrotu do wartości. Można powiedzieć, że pomimo silnych sprzężeń zwrotnych powodujących utrzymywanie się trendu, zgodnie z którym kurs oddala się od wartości wewnętrznej, w pewnym momencie odchylenie jest tak silne, że przy następującej bifurkacji rynek wybiera odwrócenie trendu w kierunku wartości wewnętrznej.

PS. Na pewno niejednemu przychodzi silne skojarzenie z algorytmami genetycznymi. Wygląda na to, że mogą się one wiązać z teorią chaosu. Ale to już nowy temat.


Źródło:

S. Pierce, "Non-Equilibrium Thermodynamics: An Alternate Evolutionary Hypothesis", 2002.

wtorek, 14 września 2010

Porządek z chaosu

Swego czasu w Świecie Nauki (grudzień, 2008) pojawił się ciekawy artykuł zatytułowany "Termodynamika ma się dobrze" autorstwa J. Miguela Rubi'ego (Kiedyś "w nawiązaniu" do tego artykułu napisałem swój: Klasyka żyje i ma się dobrze). Opisuje w nim w jaki sposób druga zasada termodynamiki pozornie jest sprzeczna z obserwacjami powstawania samoorganizacji w przyrodzie i wyłaniania się z nieporządku coraz większego porządku. Od razu zwraca uwagę, że pojęcie takie jak temperatura jest zazwyczaj mylnie rozumiane, gdyż w rzeczywistości odnosi się ono do stanu równowagi termodynamicznej (lub bliskiego jej stanu), czyli stanu największego nieporządku (maksymalnej entropii). W sytuacji braku równowagi, należy pojęcia uogólniać. Tak więc uogólniono termodynamikę równowagową na termodynamikę nierównowagową. Początkowo do opisu zjawisk wykorzystywano pojęcie równowagi lokalnej w sensie przestrzennym (w małych częściach układu została zachowana równowaga termodynamiczna). Miało ono znaczenie, gdy zaburzenie równowagi nie było silne. W przypadku bardziej złożonych zjawisk o naturze nieliniowej, taka równowaga lokalna przestaje istnieć. Pojawiło się więc dodatkowo pojęcie równowagi lokalnej w sensie czasowym: badane procesy nie zmieniają się gwałtownie, tak że badając je "klatka po klatce" w stadiach pośrednich zachowana zostaje lokalna równowaga. Ale w sensie globalnym ciągle istnieje struktura uporządkowana. Mimo to, co zobaczymy na rysunku poniżej, może wystąpić krytyczny moment, po którym następuje załamanie się porządku i powrót do nieporządku.

Ponieważ już dobrze rozumiemy zwykłe błądzenie przypadkowe (ruchy Browna) oraz jego różnorakie uogólnienia, obejrzymy graficzną "opowieść" o odchyleniach od termodynamiki równowagowej, którą możemy sami odnieść do rynków finansowych.

1.

czemu towarzyszy następujący rozkład liczby cząsteczek:



Jest to zwyczajny ruch Browna, czyli otrzymujemy rozkład normalny.

2.



3.




Powyższa historia dotyczy powstania chaosu, tyle że nie skupia się na powstaniu porządku. Zobaczmy jak wyłania się i ginie porządek, gdy dostarczana energia rośnie coraz silniej.

1.

2.

3.

4.

5.

Nie ma wątpliwości, że rynek kapitałowy jest także "podgrzewany" nowym kapitałem oraz emocjami. Pytanie tylko, kiedy ta energia staje się zbyt duża, by utrzymać "porządek".

Pewną podpowiedzią (choć nie odpowiedzią) może być intrygujący artykuł Stephanie E. Pierce "Non-Equilibrium Thermodynamics: An Alternate Evolutionary Hypothesis". Teorię zawartą w tej pracy nie można przedstawić w dwóch zdaniach - to byłoby nachalne jej spłaszczenie. Dlatego przedstawię ją w odrębnym artykule.


Źródło:

J. Miguel Rubi, Termodynamika ma się dobrze, Świat Nauki, Nr 12 (208), s. 44-49.

środa, 8 września 2010

Modele klasy ARCH

1. Wprowadzenie

Dwa współczesne problemy ryzykowności instrumentów finansowych: zmienność wariancji w czasie oraz jej nieskończoność rozwiązuje się w praktyce za pomocą modelu ARCH o rozkładzie t-Studenta. Rozkład t-Studenta posiada grubsze ogony w stosunku do rozkładu normalnego, więc może "symulować" rozkład Levy'ego, a jednocześnie dzięki ścisłemu związkowi z rozkładem normalnym jego wariancja jest skończona. Nawiasem mówiąc Bollerslev [3] wykazał, że pod pewnymi warunkami, stacjonarny uogólniony proces ARCH - GARCH posiada rozkład t-Studenta. Tak więc teoria połączyła się z praktyką. Współcześnie prognostycy rynków stosują często ARCH o rozkładzie t-Studenta, pomimo, iż pierwotnie został on stworzony dla rozkładu Gaussa (zaproponował go w 1982 r. Robert Engle i został za to uhonorowany Nagrodą Nobla). ARCH okazał się "hitem" i z czasem zaczął być rozszerzany i modyfikowany na wszelkie możliwe sposoby. Warto wspomnieć, że dzięki ARCH "ulepszono" CAPM, APT oraz model Markowitza, uwzględniając w tych modelach zmienność ryzyka w czasie. Dzięki temu znacznie poprawiła się wiarygodność CAPM i modelu Markowitza (występowanie efektu ARCH nie implikuje nieefektywności rynku). Beta ożyła. Spotykamy się z sugestią, że wycena dyskontowa akcji nie będzie prawidłowa ze względu na zmienność stopy dyskontowej. Modele ARCH dokonały "rewolucji", zaczęły służyć do zarządzania ryzykiem poprzez jego precyzyjną estymację, co umożliwiło wyznaczyć stopę dyskontową w danym okresie.

2. Co to jest model ARCH?

ARCH jest to model oparty na procesie autoregresyjnym z warunkową heteroskedastycznością (Autoregressive Conditional Heteroscedastic process, ARCH), w którym wariancja składnika losowego w modelu autoregresyjnym jest objaśniana przez odpowiednie równanie. Pozwala opisywać niejednorodność składnika losowego w czasie lub inaczej niejednorodność warunkowej wariancji (i warunkowego odchylenia standardowego jako ryzyka) w czasie i ich autokorelacje. Należy tu podkreślić słówko "warunkowa". Oczywiście mówiliśmy wcześniej po prostu o wariancji, która zmienia się w czasie. W rzeczywistości w klasycznym modelu ARCH niewarunkowa wariancja jest stała w czasie, czyli niewarunkowy proces ARCH jest homoskedastyczny. Zmienia się wariancja warunkowa, czyli wariancja pod warunkiem wystąpienia poprzedniej wariancji (warunkowej). Dlatego mamy nazwę "warunkowa heteroskedastyczność". Ale po kolei.

Model ARCH można rozumieć w sposób wąski lub szeroki. Znaczenie wąskie: wariancja składnika losowego zmiennej objaśnianej jest procesem ARCH; znaczenie szerokie: jeśli wariancja składnika losowego zmiennej objaśnianej jest procesem ARCH, to zmienną objaśnianą również można uważać za proces ARCH.
Zaprezentujemy podejście "szerokie" definicji procesu ARCH(S).

W modelu ARCH stopa zwrotu jako zmienna zależna r(t) jest generowana przez:



IID oznacza Independent and Identically Distributed, czyli zmienną o identycznym i niezależnym od czasu rozkładzie. Jak widać przy składniku losowym stoi literka t wyrażająca zmienność w czasie, ale niewarunkowo rozkład jest stały.


Dodatkowo zachodzi jednocześnie:




Czyli kwadrat składnika losowego możemy zapisać w postaci:



Jeśli chodzi o sam model ARCH, to w zasadzie wszystko. No, nie do końca wszystko, ale o tym zaraz. Teraz trzeba zinterpretować to co dostaliśmy. Przede wszystkim - początkowa zmienna x(t) oznacza, że możemy wszystko pod nią podstawić. Może być to więc zwykła regresja lub też autoregresja, czyli r(t-s). x(t) może być także wielowymiarową zmienną, czyli możemy mieć jednocześnie autoregresję i regresję - np. dodatkowa zależność od wolumenu czy stóp zwrotu jakichś indeksów. Dalej mamy składnik losowy stopy zwrotu, który jest funkcją czasu. Sam proces tego składnika zależy od pewnej zmiennej h(t). To h(t) jest właśnie ową tajemniczą wariancją warunkową. Pytacie się: wariancją warunkową czego? Otóż - to interesujące - wariancją warunkową zarówno składnika losowego stopy zwrotu, jak i samej stopy zwrotu. I właśnie w tym ostatnim zdaniu jest zawarta istota dlaczego ARCH można rozumieć w sposób wąski lub szeroki - ale zostawiamy to na boku.

Warunkowość oznacza się kreską pionową |. W naszym przypadku istnieje zarówno warunkowa wartość oczekiwana, jak i warunkowa wariancja. Jeśli więc r(t) zdarza się pod warunkiem r(t-1), to warunkową wartość oczekiwaną oznaczamy E[r(t)|r(t-1)], zaś warunkową wariancję D^2[[r(t)|r(t-1)]. Model ARCH charakteryzuje się następującymi własnościami:



Ostatni wzór wskazuje, że niewarunkowa wariancja składnika losowego istnieje i jest stała w czasie.


Przykład.

W poniższych dwóch przykładach za regresor x podstawiono r(t-1). Będzie to ARCH(1). Całość można nazwać AR(1)-ARCH(1). Dane empiryczne są w wielkościach procentowych.

a) Miesięczne stopy zwrotu S&P500 od początku 1933 do końca lipca 2010 - po skorygowaniu o inflację. Otrzymano następujące (istotnie statystycznie) parametry:



Tak więc po pierwsze, na starcie otrzymujemy 0,4 pkt proc. "na zachętę". Po drugie gdy stopa zwrotu zmieniła się o 1 pkt proc w danym miesiącu, w następnym miesiącu średnio biorąc zmieniła się w tym samym kierunku o 0,25 pkt proc. Po trzecie losowe odchylenie od tej wielkości o 1 pkt proc. w danym miesiącu spowodowało, że w następnym miesiącu wariancja warunkowa wyniosła 7.31 + 0,063 = 7.37%. Czyli warunkowe odchylenie standardowe wyniosło wtedy 2.715%. Po czwarte niewarunkowa wariancja składnika losowego wyniosła 7.31/(1-0,063)= 7.8%. Czyli niewarunkowe odchylenie st. składnika losowego = 2.9%.

Oto jak zmieniała się wariancja warunkowa stóp SP500:



b) Dzienne stopy zwrotu WIG od początku 2000 do końca lipca 2010.



Wszystkie parametry są istotne.

Wykres wariancji warunkowej stóp WIG:



3. GARCH(S,Q) - uogólniony proces ARCH (Generalized Autoregressive Conditional Heteroscedastic process)

Engle, oprócz tego, że odkrył ARCH, empirycznie doszedł do wniosku, że krok s w funkcji wariancji warunkowej powinien być duży. Aby poradzić sobie z uciążliwością obliczeniową (były to lata 80-te XX w.) zaproponował pewną modyfikację modelu ARCH. Jednak w empirycznych zastosowaniach nie przyjęła się. Stało się tak zapewne z powodu małej atrakcyjności teoretycznej takich przekształceń. Jednak już w 1986 r. Bollerslev i Taylor niezależnie od siebie zaproponowali rewolucyjny model GARCH (Jak to się dzieje, że często w tym samym roku dokonywane są te same odkrycia przez niezależnych naukowców?), który jednocześnie rozwiązał poprzedni problem oraz zachował spójność teoretyczną. W zasadzie jest on banalnym uogólnieniem ARCH. W stosunku do ARCH został po prostu wprowadzony w h(t) proces autoregresyjny. Jest to analogia uogólnienia modelu MA na ARMA.
W modelu GARCH funkcja wariancji warunkowej jest następująca:



Wariancja niewarunkowa składnika losowego jest dla GARCH równa:



Wariancja ta istnieje pod warunkiem, że:




Przykład.
Dla porównania z ARCH(1) przyjmiemy GARCH(1,1) i AR(1) oraz również te same dane co poprzednio.

a) S&P500 (miesięczne):



b) WIG (dzienne):



Zauważmy, że efekt GARCH jest bardzo silny i dzięki zastosowaniu autoregresji w h(t) wolny parametr w funkcji h(t) znacznie się zmniejszył. Potwierdza to, że GARCH lepiej odzwierciedla dynamikę rynku niż ARCH.


Obecnie omówimy krótko inne znane modele ARCH.

4. NARCH(S,Q) - Nieliniowy ARCH (non-linear ARCH) posiada następującą funkcję wariancji warunkowej:



Dla parametru μ = 1 NARCH sprowadza się do:



Czyli otrzymujemy bezpośrednią postać warunkowego odchylenia standardowego.


5. EGARCH(S,Q) - wykładniczy GARCH (exponential GARCH) umożliwia wyłuskać dwa efekty, których nie dostarczał GARCH. Po pierwsze ujmuje ujemną korelację pomiędzy stopą zwrotu a wariancją. Wariancja wzrasta zwykle w odpowiedzi na negatywne informacje - wtedy stopa zwrotu spada. Wariancja z kolei często spada w odpowiedzi na pozytywne informacje - stopa zwrotu rośnie. Po drugie symuluje zjawisko grupowania wariancji, czyli zaburzenia wariancji w sposób cykliczny.W szczególnym przypadku może także realizować eksplozję wariancji, z czym często mamy do czynienia. EGARCH posiada funkcję wariancji warunkowej o postaci:



lub o postaci:



6. MARCH(S,Q) - multiplikatywny ARCH (multiplicative ARCH) o funkcji wariancji warunkowej postaci:



Uwzględnia te same efekty co EGARCH i dodatkowo nadaje postać logarytmiczną elementom h(t).


7. ARCH-M(S) - ARCH-in-Mean (lub GARCH-M) to model, w którym wariancja warunkowa bezpośrednio determinuje stopę zwrotu:



Za h(t) można podstawić dowolną funkcję z poprzednich modeli, czyli ARCH, GARCH, NARCH, EGARCH, MARCH i wielu wielu innych.

Model ARCH-M pozwala połączyć model ARCH i CAPM-CML. Proponowałbym, aby oczekiwaną stopę zwrotu dla "nowoczesnego" CAPM-CML wyrazić wzorem:



gdzie standardowo:

R(p,t) - oczekiwana stopa zwrotu z portfela P
R(f,t) - stopa wolna od ryzyka (zysk z obligacji skarbowych, bonów skarbowych, lokat)
R(M,t) - oczekiwana stopa zwrotu z tzw. portfela rynkowego
h(M,t) - wariancja stopy zwrotu z portfela rynkowego
h(p,t) - wariancja stopy zwrotu z portfela P

Chociaż sam ARCH zachowuje stacjonarność - tzn. niewarunkowe parametry rozkładu jak widzieliśmy są stałe w czasie, to przedstawiony proces CAPM-CML byłby niestacjonarny, gdyż wartość oczekiwana R(t) zmienia się w czasie. Ale to takie subtelności.


8. Co jeszcze?


Na koniec zasygnalizujemy, że przedstawiony obraz modeli ARCH to jedynie zalążek tego, z czym mamy dzisiaj do czynienia. Stworzono modele ARCH uwzględniające asymetrię pomiędzy składnikiem losowym a wariancją warunkową. Są to AARCH (Asymetryczny ARCH), QARCH (Quadratic ARCH, TARCH (Threshold ARCH). Bardziej rozwinięte estymatycznie to QTARCH (Quadratic Threshold ARCH) oraz TVP ARCH-M (Time-Varying Parameter ARCH-M), będący modyfikacją ARCH-M. Oddzielną gałąź stanowią modele SWARCH (Switching ARCH), wykorzystujące idee regresji przełącznikowej. Wszyscy doświadczeni gracze twierdzą, że rynki są zmienne i to co działa dziś, za miesiąc może nie działać. Podstawowym założeniem SWARCH jest możliwość jednoczesnego istnienia wielu modeli ARCH oraz przechodzenie z jednego na drugi.

Rynek kapitałowy jest niezwykle skomplikowanym układem, gdzie wiele zmiennych współgra, oddziaływuje nieliniowo zarówno w przestrzeni jak i czasie. Wektorowy model ARCH oraz Diagonalny model ARCH uwzględniają wielowymiarową strukturę rynku. Dzięki nim można np. obliczyć wpływ zaburzenia na rynku akcji na rynki obligacji czy walut.

W końcu, odrębną koncepcyjnie i metodologicznie jest grupa modeli HARCH, czyli Heterogenicznie Interwalny Autoregresyjny Model o Warunkowej Heteroskedastyczności (Heterogenous Interval Autoregressive Conditional Heteroscedasticity). Zakłada się w nich, że wariancja warunkowa powinna być mierzona w przedziałach czasowych o różnej długości, których rozkład zależy od struktury inwestorów. Są bowiem różni inwestorzy: mają inny horyzont inwestycyjny, w innych przedziałch zawierają transakcje, nieco inaczej interpretują informacje oraz posiadają inny poziom awersji do ryzyka. Mówiąc krótko, rynek jest niejednorodny (heterogeniczny). Można powiedzieć, że HARCH zakłada fraktalną strukturę rynku.

Jedną z nowszych i również odrębnych gałęzi ARCH są modele FIGARCH (Fractionally Integrated ARCH) oraz jego uogólnienie HYGARCH (Hypebolic ARCH). Różnica pomiędzy zwykłym GARCH a nimi polega na tym, że GARCH uwzględnia jedynie pamięć krótkoterminową wariancji warunkowej, natomiast FIGARCH i HYGARCH uwzględniają pamięć długoterminową wariancji warunkowej. Ta klasa modeli wymaga oddzielnego opracowania.


Źródło:

1. J. Brzeszczyński, R. Kelm, Ekonometryczne modele rynków finansowych, W-wa 2002;
2. A. K. Bera, M. Higgins, ARCH Models: Properties, Estimation and Testing, 1993.
3. T. Bollerslev, A Conditionally Heteroskedastic Time Series Model for Speculative Prices and Rates of Return, 1987.

czwartek, 19 sierpnia 2010

Dlaczego przypadek udaje trend? Odchylenie standardowe kontra średnie odchylenie absolutne

Ten artykuł wydaje się zupełnie nie pasować do serii, jaką ostatnio przeprowadzam. Praktycy giełdowi mogą go zupełnie pominąć. Potrzebny mi jest jednak z trzech powodów. Po pierwsze, zostanie wykazane, że gdy ruch jest brownowski - tj. obserwacje zmiennej losowej gaussowskiej o wartości oczekiwanej = 0 są niezależne od siebie, to rzeczywiście droga, jaką "przebywa" zmienna jest proporcjonalna do pierwiastka z czasu (pokonania tej drogi). Po drugie, jak sądzę, inwestor powinien dogłębnie rozumieć skąd się biorą fałszywe trendy. To zostanie przedyskutowane w sposób ścisły. Po trzecie, w następnym odcinku opiszę modele klasy ARCH, których istotą jest wariancja, a więc dobrze jest ją rozumieć. (Chociaż w artykule nie badamy samej wariancji, ale jej pierwiastek. Jest ona pojęciem bardzo abstrakcyjnym i mało który statystyk ją pojmuje).

Co to jest ruch Browna?

Nieustanne i nieregularne ruchy makrocząsteczki zawieszonej w ośrodku ciekłym, gazowym lub stałym nazywamy ruchami Browna.

„Paradoks” ruchu Browna

Powstaje pewien pozorny paradoks związany z fizycznym ruchem Browna. Skoro ruch Browna – jako proces szumu białego - ma wartość oczekiwaną równą 0, ale wiadomo, że w takim układzie panuje równowaga termodynamiczna, która zapewnia jednorodność i izotropowość przestrzeni oraz jednorodność czasu, to wydawałoby się, że ruch w takim układzie jest w ogóle niedopuszczalny. Makrocząsteczka jest bowiem bombardowana ze wszystkich stron z ogromną częstotliwością (ok. 10^20 uderzeń na sekundę), więc nawet, jeśli zostałaby poruszona w jedną stronę, to na skutek uderzenia z drugiej strony zostałaby natychmiast zatrzymana. Właśnie takie stwierdzenie wyraził Karl Nageli w pracy z 1879 r. Marian Smoluchowski odpowiedział na ten zarzut w następujący sposób:

Jest to taki sam błąd rozumowania, jak gdyby człowiek uprawiający grę hazardową (np. rzucanie kostki) sądził, że nigdy większej straty ani też większego zysku mieć nie będzie, niż wynosi stawka na jeden rzut. Wiemy dobrze, że szczęście i nieszczęście zwykle niezupełnie się równoważą; że im dłużej gra trwa, tym większa jest przeciętna suma albo wygrana albo przegrana.

Smoluchowski przytoczył proste obliczenie ściśle potwierdzające powyższy punkt widzenia. Mianowicie, zarówno prawdopodobieństwo rzutu korzystnego jak i niekorzystnego jest równe 1/2. Zatem, prawdopodobieństwo Pn(m) otrzymania m korzystnych wyników w n próbach (a tym samym n - m niekorzystnych), lub inaczej otrzymania nadwyżki równej m – (n – m) = 2m – n korzystnych wyników nad niekorzystnymi, dane jest po prostu rozkładem Bernoulli’ego, gdyż pojedyncze rzuty są statystycznie niezależne:



Stąd wynika, że średnia wartość bezwzględnej nadwyżki v = │2m - n│ wynosi:



gdzie przykładowo n przyjęto parzyste. Dla bardzo dużych n stosując do silni wzór Stirlinga:



można sprowadzić powyższą średnią do zależności:



Czyli v jest proporcjonalne do pierwiastka kwadratowego z liczby prób n. Jest to kluczowy wynik pozwalający zrozumieć fluktuacyjny charakter ruchów Browna. Makrocząsteczka zawieszona w cieczy jest uderzana przez cząsteczki ośrodka ok. 10^20 razy w ciągu sekundy. Zatem przeciętna nadwyżka uderzeń z jednej strony nad uderzeniami z drugiej wynosi w tym czasie ok. 10^10. Nawet, jeśli pojedyncze zderzenie powoduje bardzo małe przesunięcie, całkowity efekt może być znaczny. A zatem, makrocząsteczka może się poruszyć.

Gdyby rynek znajdował się w równowadze, także popyt i podaż "uderzając" w kurs z tą samą siłą z przeciwnych stron, mogą utworzyć całkowicie losowy "trend", który "make you pent"...

Odchylenie standardowe jako droga

Liczba prób n jest tym samym co czas pokonywania drogi t (kolejna próba to kolejna jednostka czasu). Okazuje się, że całkowita droga ruchu Browna jest po pierwsze proporcjonalna do pierwiastka z t, po drugie jeśli za wartość oczekiwaną we wzorze na odchylenie standardowe zmiennej niezależnej od czasu podstawimy zero (tak jak to ma miejsce dla naszego ruchu), wówczas odchylenie standardowe jest równe pierwiastkowi z t, czyli pokonanej drodze.

Odchylenie standardowe a średnie odchylenie absolutne

Średnia wartość bezwzględnej nadwyżki v to po prostu średnie odchylenie absolutne. Jednocześnie wiadomo, że pierwiastek z n odpowiada odchyleniu standardowemu. Wynika z tego, że relację pomiędzy odchyleniem standardowym a średnim odchyleniem absolutnym można zapisać jako:



I ten właśnie wzór możemy znaleźć tutaj w Wikipedii. Średnie odchylenie absolutne stanowi ok. 0.8 odchylenia standardowego.

Wniosek? Dla zmiennych losowych niezależnych o rozkładzie Gaussa i wartości oczekiwanej równej zero średnie odchylenie absolutne wyraża średnią nadwyżkę wyników jednego kierunku ponad wyniki drugiego kierunku. Zauważmy, że ta nadwyżka rośnie wraz z czasem! Odchylenie standardowe z kolei w takim przypadku stanowi przebytą drogę zmiennej, która również rośnie w czasie. Mówi się, że rozkład Gaussa ulega rozmyciu lub dyfuzji w czasie - czas "rozszerza" parametry dzwonu. W ten oto sposób przedstawiliśmy matematyczny mechanizm powstawania dyfuzji zarówno w przyrodzie jak i w ekonomii - złudzenie trendu.


Przykład błądzenia losowego

P.S. Warto zauważyć, że do wyprowadzenia wzoru na "drogę" ruchu Browna, nie przyjęliśmy rozkładu Gaussa. Wynikałoby z tego, że cały wywód obowiązuje także dla rozkładu Levy'ego, jeśli zmienne są niezależne. Jednak sytuacja wcale nie jest oczywista, gdyż Smoluchowski do wyprowadzenia wzoru użył rozkładu Bernoulliego, którego wariancja wynosi np(1 − p), gdzie p - prawdopodobieństwo sukcesu. W przypadku r. Levy'ego, jak wiemy, wariancja jest nieokreślona, co wskazuje, że owe wyprowadzenia wcale nie muszą być poprawne. Nawiasem mówiąc, Einstein wyprowadzając wzór na drogę t^0.5 nie zwrócił uwagi na ów fakt. Dopiero jego potomkowie dowiedli, że wzór jest prawidłowy - należało dowieść, że w ośrodku brownowskim nie występują zdarzenia rzadkie, a tym samym, że wariancja jest skończona. W ogólnym przypadku dla ruchu Levy'ego droga jest proporcjonalna do t^H, gdzie H - wykładnik Hursta.