Pokazywanie postów oznaczonych etykietą efektywność rynku kapitałowego. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą efektywność rynku kapitałowego. Pokaż wszystkie posty

sobota, 13 listopada 2010

Teoria ekonomii jak filozofia Wschodu

Mistycy Wschodu nauczają ludzi, że przeszłość i przyszłość to złudzenie umysłu, a istnieje jedynie teraźniejszość. Stwierdzenie to okazuje się zgodne z teorią efektywności rynku. W teorii tej przeszłość nie ma żadnego znaczenia, ponieważ wszystkie informacje mające znaczenie dla instrumentu finansowego zostały już zdyskontowane w jego wartości bieżącej. Podobnie wygląda sytuacja w przypadku przyszłości. Można się trochę dziwić - jak to, przecież racjonalne oczekiwania (teoria racjonalnych oczekiwań związana z teorią efektywnego rynku) właśnie dotyczą przyszłości. Należy przede wszystkim zauważyć, że oczekiwania te stanowią dzisiejsze oczekiwania co do przyszłości. Przyszłość jest nieznana, niepewna, ryzykowna. Ponadto sam wymiar czasu powoduje, że znaczenie przyszłości staje się zniekształcone. Dlatego właśnie w modelach dyskontowych dokonujemy dyskonta kapitałów. Omawialiśmy model DDF:



gdzie:

P(0) - wartość wewnętrzna akcji w okresie 0
D - dywidenda (płacona dziś)
D*(1+g)^t - oczekiwana dywidenda w okresie t
r - stopa dyskontowa (wymagana stopa zwrotu)

Wartość wewnętrzna akcji stanowi wynik dzisiejszych oczekiwań co do kształtu przyszłych dywidend. Każda oczekiwana w przyszłości dywidenda jest jednak dyskontowana do dziś - stopa dyskontowa powoduje zmniejszenie jej wartości. Dzieje się tak, ponieważ inwestor płaci za czas i za ryzyko, co oznacza, że przyszła wartość dywidendy nie jest równa dzisiejszej wartości. Stopa dyskontowa jest równa:

r = cena za czas + cena za ryzyko

Oczywiście jest to model CAPM.

Wartość czegokolwiek w jakiejś abstrakcyjnej przyszłości nie istnieje. Wartość zawsze odnosi się do teraźniejszości. Dlatego też to, że będziemy otrzymywać strumień pieniędzy w nieskończonym horyzoncie czasu nie ma znaczenia, a więc w sumie informacja o tym, że uzyskujemy nieskończoną sumę pieniędzy jest "bezwartościowa". Całą tę sumę należy odnieść do dziś.


Innym twierdzeniem mistrzów Wschodu jest to, że każdy zysk, "sukces" jest złudzeniem umysłu. Również to zdanie jest zgodne z teorią efektywnego rynku. Na tym rynku inwestor kupuje akcje po cenie równej ich wartości wewnętrznej. Poprzednio dowiedliśmy, że wartość tę można wyrazić za pomocą wzoru (pamiętamy, że jest to przekształcony model Gordona):



Inwestor oczekuje w okresie 1 dywidendy na poziomie D(1+g) i tego, że cena rynkowa akcji wyniesie w tym czasie P(1) - będzie mógł po takiej cenie sprzedać akcje. Powyższy model możemy przekształcić:



A więc można oczekiwać, iż cena P(0) wzrośnie w okresie 1 zgodnie z wymaganą stopą zwrotu r. Jak widać P(0)*(1+r) nie jest równa cenie rynkowej akcji w okresie 1, czyli P(1). Możemy zapisać, że cena rynkowa P(1) równa się:



Zauważmy, że właśnie to odjęcie następuje na (naszym) rynku - kurs odniesienia jest obniżony o wielkość dywidendy w dniu ustalenia prawa do dywidendy. A więc inwestor sprzedaje akcję po cenie P(1), ale dodatkowo uzyskuje dywidendę D(1+g), wobec czego jego całkowity oczekiwany zysk wynosi P(0)*r:



Oczywiście widać natychmiast, że jego oczekiwana stopa zwrotu wynosi właśnie r:



Jak widać, nie ma znaczenia czy powiemy, że inwestor kupił akcję po cenie P(0) i sprzedał po cenie P(1), czy też, że inwestor kupił akcję po cenie P(0) i sprzedał po cenie P(0)*(1+r). W pierwszym przypadku po prostu dodajemy dywidendę, a drugim już ona "siedzi" w cenie sprzedaży.

Powyżej stwierdziliśmy, że stopa dyskontowa r jest równa sumie ceny czasu i ceny ryzyka. Wynika z tego, że r jest to koszt inwestora. Nazywamy go kosztem kapitału własnego. Otrzymujemy wniosek, że całkowity zysk inwestora jest równy kosztowi, który ponosi. Płacąc za czas i ryzyko, otrzymuje on po prostu taki nominalny wzrost wartości akcji. Innymi słowy musi zwyczajnie odjąć ten koszt, tak jak robi się to w rachunkowości, aby otrzymać zysk ekonomiczny:



I w ten sposób dowodzimy, że na rynku efektywnym inwestor zarabia ekonomicznie ZERO.

Ten wniosek ma kolejne implikacje. Jeśli rynek kapitałowy daje zerowy zysk, to i każdy inny rynek musi taki dawać. Inaczej bowiem stwarzałoby to możliwość dodatkowego zarobku, która powinna zostać szybko wykorzystana. Wynika z tego, że każdy przedsiębiorca zarabia również w swojej działalności zero.

W sprawozdaniach finansowych zyski oczywiście nie są zerowe. Rachunkowość uwzględnia tylko te przychody i koszty dotyczące działalności gospodarczej, które są łatwo "obliczalne". W ekonomii jednak mamy także do czynienia z "niewidzialnymi" przychodami i kosztami.

Kosztem ekonomicznym nie znajdującym odzwierciedlenia w rachunkowości jest koszt kapitału własnego. Koszt kapitału własnego to właśnie wymagana stopa zwrotu przez inwestora, a zatem cena czasu i ryzyka. Odpowiada na pytanie, ile można wyciągnąć zysku (w postaci gotówki) z kapitału własnego (cena akcji powinna równać się odpowiednio skorygowanej wartości księgowej - ta kwestia powinna być jeszcze oddzielnie omówiona). Dlaczego zysk równa się kosztowi? Właśnie dlatego, że zysk wynika jedynie z podjętego ryzyka oraz wymiaru czasowego, za które się płaci. Zarówno czas jak i ryzyko są siłami destrukcyjnymi, stanowiąc ekonomiczny koszt, ale nie księgowy (w księgowości dokonuje się amortyzacji, ale dotyczy jedynie środka trwałego lub wartości niematerialnej i prawnej). W rachunkowości kategoria kosztu kapitału własnego jak na razie nie istnieje. Ale widzimy teraz jak to działa. Po odjęciu tego kosztu, zysk staje się zerowy.

Niektórzy mogą mieć wątpliwości, rzucając sarkastyczne pytanie: to co, powinniśmy leżeć i nic nie robić, bo i tak wyjdziemy na zero? Takie pytanie wynika z dużego niezrozumienia przedstawionej teorii. To tak jakby powiedzieć, że skoro otrzymujemy energię z zewnątrz, ale po jakimś czasie ją tracimy, to nie ma sensu w ogóle tej energii używać. Dzięki dostarczonej energii możemy robić to co preferujemy i nierobienie niczego jest raczej nieefektywnym zużywaniem energii. Otrzymujemy energię, ale płacimy czasem, a jeśli podejmujemy ryzykowne działania - ryzykiem. Innymi słowy, nierobienie niczego prowadziłoby po prostu do straty. Czyli nie można niczego ekonomicznie zyskać, ale za to można stracić. Energia jest po prostu budżetem, który należy wykorzystać najefektywniej. Co to znaczy najefektywniej? Oznacza to, że cała energia zostaje w pełni wykorzystana, a więc efekt włożonej pracy jest jej równy. Związek z termodynamiką jest jak widać bardzo głęboki.

No a przecież to jest właśnie teoria efektywności rynku! Najefektywniejsze wykorzystanie zasobów. Energia stanowi w tym przypadku kapitał jaki posiadamy, za który możemy kupować instrumenty finansowe, wykorzystując dostępne informacje. Początkowy kapitał musi być całkowicie wykorzystany, inaczej czas (a w fizyce ciepło lub entropia (entropia to zmiana ciepła podzielona przez temperaturę)) dokona zniszczenia. Na marginesie warto zauważyć, że pierwsza zasada termodynamiki stanowi:




Otrzymujemy następującą analogię z ekonomią:

Przychód ekonomiczny = (Koszt czasu + Koszt ryzyka) + Koszt pracy

Koszt czasu można traktować jak ciepło, które ucieka z układu "samo z siebie", cenę ryzyka jak coś pośredniego pomiędzy ciepłem a pracą (gdyż ryzyko trzeba podjąć samemu), zaś koszt pracy po prostu jak pracę (niewykonanie pracy kosztuje w postaci braku wyniku - praca posiada wartość równą kosztowi jej niewykonania).


Przychody ekonomiczne są równe wszystkim ekonomicznym kosztom. Wobec tego:

Zysk ekonomiczny = Przychody ekonomiczne - koszty ekonomiczne = 0.


Powyższa równowaga prowadzi do wniosku, że ani praca, ani kapitał intelektualny nie kreuje zysku ekonomicznego. Weźmy na przykład talent do danego zawodu. Talent pracownika to po prostu koszt pracodawcy w postaci wynagrodzenia. Pracodawca ekonomicznie nie zyska niczego na talencie pracownika, dopóki ów pracownik jest racjonalny - to znaczy wycenia swój talent. Wartość talentu jest obliczona na podstawie zdyskontowanych oczekiwanych dochodów jakie można uzyskać dzięki temu talentowi. Gdyby pracodawca nie płacił danej osobie dokładnie tyle, ile uzyskuje z jej talentu przychodów, toby ta osoba u niego nie pracowała: albo założyłaby swoją działalność gospodarczą wykorzystującą ów talent, albo znalazłaby racjonalnego pracodawcę. Jeśli zakłada własną działalność gospodarczą, to sama siebie wynagradza w ten sam sposób. Niczego nie zyskuje, ponieważ jej talent jest tyle wart, ile uzyskuje dzięki niemu przychodu, a ten talent ją właśnie tyle kosztuje jako pracodawcę siebie samego. To co jest tu abstrakcyjne i niełatwe do zrozumienia, to podzielenie jednej osoby na dwie części: ja jako pracodawca i ja jako pracownik. Mamy więc dwie odrębne jednostki w jednej osobie. Może się to wydać bezsensowne, ale i w psychologii, i filozofiach Wschodu pojawiają się również takie rozbicia indywiduów. Zauważmy, że jeśli w danym momencie myślę o tym, że myślę, to nie znaczy przecież, że jestem tą myślą, ponieważ myśli można zmienić. Ludzie jednak identyfikują się z własnymi myślami, głównie, gdy dotyczą one myśli o sobie. Szerzej, ludzie identyfikują się także z daną grupą społeczną, polityczną lub zawodem. Nie znaczy to jednak, że jeżeli teraz jest się Polakiem, to zawsze się nim będzie, gdyż obywatelstwo można w każdej chwili zmienić. Podobnie, jeśli ktoś mówi, że jest republikaninem, to się myli, bo może zmienić swoje poglądy polityczne. Ktoś, kto mówi, że jest prawnikiem także się myli, bo może zmienić zawód itd. Oczywiście samo pojęcie "bycia" jest bardzo filozoficzne i o tym co to znaczy w ogóle "być" napisano wiele tomów książek. Podkreślam jedynie, że traktowanie siebie w ramach jakiegoś pojęcia - pracownika czy pracodawcy, jest jedynie konwencją.


Przedstawiony idealistyczny świat ekonomii to świat pełen pokoju i równości, w którym zanika wszelka chciwość, żądza, strach i bezlitosna walka o ułamki procent. Każdy w tym świecie zdaje sobie sprawę, że i tak osiągnie zerowy zysk, dopóki będzie podejmował racjonalne decyzje (w przypadku braku racjonalności - poniesie straty). Jedynie preferencje będą pchały do ustalania kupna lub sprzedaży walorów (teoria Markowitza, CAPM). Nie ma już wyścigu kto pierwszy, ten lepszy. Nie ma "wyleszczania". Inwestor kupuje akcje o określonym przez swoje preferencje ryzyku i sprzedaje, gdy zakończy się jego horyzont inwestycyjny (od początku powinien go ściśle określić). Inwestorzy mogą także wymieniać się akcjami z powodu zmian swoich preferencji. Debiutant giełdowy po udanych transakcjach może poczuć większą pewność siebie i zacząć kupować akcje o większym ryzyku. Gdy już na nich straci, to albo wróci do mniejszego ryzyka, albo w celu "odkucia się" podejmie jeszcze wyższe ryzyko. Na szczęście jako racjonalny inwestor nie przejmie się potencjalnym bankructwem (taki żart).

Oczywiście, rzeczywistość nieco się różni od modelu ekonomicznego - rynek nie jest w pełni efektywny. Występuje nie zawsze silna, ale statystycznie istotna autokorelacja pomiędzy kolejnymi zmianami kursów akcji i indeksów giełdowych. Występuje zarówno korelacja liniowa, jak i nieliniowa. Korelacje te występują w różnych częstotliwościach (kilku, kilkunasto-, kilkudziesięciominutowych, dziennych itd.). Problem polega tu na pewnej ułamkowości. Wszystko to dzieje się na płaszczyźnie statystyki. Średnio tak wychodzi, co nie znaczy, że można na tym zawsze ponadprzeciętnie zarobić. Trend może się zmienić właściwie w każdej chwili, ale fraktalność rynku statystycznie zostanie uchwycona. Wynika z tego, że przeszłość ma znaczenie dla przyszłego zachowania kursu. Czyli stopa dyskontowa, która powinna dyskontować czas i ryzyko, a więc przyszłość, nie będzie prawidłowym narzędziem do wyceny akcji (klasyczny CAPM się sypie). Zyski ekonomiczne mogą być różne od zera. W prawdziwym świecie nie ma równości, a przede wszystkim doskonałej informacji. Insider trading na co dzień towarzyszy rynkom. Niejednokrotnie obserwujemy, że kurs akcji rośnie jeszcze przed publikacją raportu, a gdy się ten pojawia, kurs już spada.

poniedziałek, 11 października 2010

Poprawka starych błędów: problem ceny za ryzyko

Dość dawno temu napisałem post "Dywidenda jako cena za niepewność", do którego ostatnio wróciłem. Z przerażeniem odkryłem, że popełniłem głupie błędy, których wcześniej nie zauważyłem. I możliwe, że nikt nie zauważył, bo nie były wcale banalne. Skasowałem ten wpis niestety, lecz prawie cały tutaj zacytuję, aby potem poprawić. Cytuję:


Ile wynosi średnia stopa dywidendy z DJIA (tj. z 30 spółek, które wchodzą w jego skład)? Na stronie: http://observationsandnotes.blogspot.com/2009/03/average-annual-stock-market-return.html dowiadujemy się, że

* Roczny zwrot od 1900 do 2009 wyniósł w przybliżeniu 9,4% (4,7% aprecjacji cenowej + 4,7% z dywidendy)
* Zwrot od 1929 do 2009 wyniósł w przybliżeniu 8,8% (4,5% plus 4,3%)
* Od 1933 do 2009: 11,1% (6,9% plus 4,2%)
* Ostatnie 25 lat: 11,9% (9,0% plus 2,9%)
* Ostatnie 20 lat: 9,4% (6,9% plus 2,5%)
* Ostatnie 10 lat: 1,3% (-1,0% plus 2,3%)
* Za 2009 22,0% (18,8% plus 3,2%)

Wydaje się, że im dłuższy okres, tym obiektywniejsze stają się te liczby. Przyjęliśmy dotychczas, że DJIA osiąga 4,64%, czyli realnie 1,64%. Przyjmijmy teraz stopę dywidendy na poziomie 4,3%, czyli realnie 1,3% (inflacja dąży nieco powyżej 3% w skali roku).

Zwróćmy uwagę, że 1,64+1,3=2,94%, a pamiętamy, że realny wzrost gospodarczy określiliśmy na poziomie 3,3%. Zatem po pierwsze z DJIA osiągamy średnio realnie więcej niż z najrentowniejszych instrumentów bez ryzyka rynkowego. Roczna stopa zwrotu bez dywidend dąży do poziomu zysku, jaki dają instrumenty bez ryzyka. Za dowód mogą służyć dane od 1962 r: średnia stopa rentowności z obligacji skarbowych wyniosła 6% (dane z: http://www.federalreserve.gov/releases/h15/data.htm#top) i tyle samo wyniosła w tym okresie średnioroczna aprecjacja DJIA. Uwzględnienie dywidendy sprawia, że całkowity zysk jest wyższy. Po drugie zarabiamy tylko nieco mniej niż rośnie gospodarka.

Jednakże trzeba pamiętać, że dywidenda pozwala na reinwestowanie kapitału, na przykład poprzez lokowanie dywidendy w bezpieczne instrumenty.

Wiemy, że do zarobku 1,64% należy dodać stopę dywidendy 1,3% i stopę reinwestycji wynikającą z dywidendy.
Zakładając, że realna stopa oprocentowania utrzymuje się na stałym poziomie średniej stopy zwrotu z DJIA, czyli 1,64%, zysk z reinwestycji to: 0,0164*0,013 = 0,0002, tj. 0,02% aktywów. A więc zysk z dywidendy plus reinwestycji wynosi 1,32%. W sumie więc dostajemy

1,64% + 1,32% = 2,96%.

Oznacza to, że średnio rzecz biorąc nie dogonimy realnego wzrostu gospodarczego, co jest jednak ekonomicznie uzasadnione: trudno wymagać, aby pasywny inwestor zarabiał równie szybko jak przedsiębiorca, który ponosi większe koszty i ryzyko.

Jednak jest tu jeszcze jedna interesująca kwestia natury ekonomicznej. Zgodnie z teorią wyższe zyski na giełdzie są wynagrodzeniem za ponoszone ryzyko. Wynika z tego, że ryzyko ciągnie giełdę w dwie strony, tak że oczekiwana stopa zwrotu z akcji równa się stopie zwrotu z instrumentów bez ryzyka. Natomiast ze statystycznego punktu widzenia ryzyko nie jest duże, gdyż średnia z dywidend, które przytoczyłem na początku artykułu wynosi 3,44%, a odchylenie standardowe tylko 0,95%. Biorąc pod uwagę, że w dłuższych okresach stopy zwrotu z akcji dążą do rentowności obligacji skarbowych, wydaje się, że ryzyko, iż będziemy zarabiać mniej niż z obligacji, nie istnieje, jeśli uwzględnimy możliwość otrzymywania dywidend i reinwestycji.

Jak więc wyjaśnić ekonomiczną naturę dywidendy, która sprawia, że zarabiamy więcej niż na obligacjach skarbowych? Dywidenda, choć z punktu widzenia średniej i historii wydaje się być pewna niczym lokata, to jednak w rzeczywistości podlega niepewności. Statystykę często się określa jako jedno wielkie kłamstwo. George Bernard Shaw śmiał się: "Jeśli mój sąsiad codziennie bije swoją żonę, ja zaś nie biję jej nigdy, to w świetle statystyki obaj bijemy je co drugi dzień.". Aaron Levenstein powiedział, że "statystyka jest jak kostium bikini: pokazuje wiele, ale nie pokazuje najważniejszego".
I tak możemy wskazać kilka okresów, kiedy rentowność obligacji skarbowych przewyższała stopy zwrotu z DJIA powiększone o dywidendy. Był to na przykład okres 1970-1980, kiedy obligacje skarbowe przyniosły po całej dekadzie nominalną logarytmiczną stopę zwrotu równą 79%. Dla DJIA było to jedynie 18,6%. Nie mam danych dla dywidend w tym okresie, ale przyjmując nawet średnią 4,3%, to całkowita logarytmiczna stopa zwrotu z akcji wyniesie wtedy 65%, a więc o 14 pkt proc. mniej niż z obligacji.

Z kolei historia to jednak przeszłość i nikt nie gwarantuje, że się powtórzy. Trzeba jakoś uwzględniać możliwość zaistnienia zjawisk nieprzewidywalnych, a mających dalekosiężne skutki - jak wojna czy kryzys gospodarczy o niepohamowanym zasięgu. Stąd dywidenda (i płynące z niej reinwestowane zyski) stanowią wynagrodzenie za tę niepewność. Niepewność w porównaniu do ryzyka jest niemierzalna, lecz można ją wycenić właśnie jako średnią dywidendę + reinwestowany zysk. Z tego punktu widzenia klasyczna teoria pozostaje niezachwiana, a inwestorzy pozostają racjonalni.


............................................................................

Gdzie jest błąd?

Po pierwsze odjąłem dwa razy stopę inflacji. Raz przy stopie zwrotu z indeksu giełdowego i drugi raz przy stopie dywidendy. Chciałem wyciągnąć realną stopę zarówno z indeksu, jak i dywidendy. W rzeczywistości przecież inflacja płynie niezależnie od zmian cenowych i dywidendy. Jeśli w uproszczeniu obliczamy realną stopę zwrotu jako różnicę pomiędzy nominalną stopą kapitalizacji a stopą inflacji (co nie jest do końca prawdą i napiszę o tym następną notkę), to okazuje się, że całkowita realna stopa zwrotu jest większa od stopy wzrostu gospodarczego. W sumie, powinniśmy napisać, że średnio zyskujemy 1,64% z indeksu giełdowego plus 4,3% stopy dywidendy plus 0,054% stopy z reinwestycji dywidendy (w instrumenty bez ryzyka), co daje razem 6% realnej stopy zwrotu. Zatem w długim okresie czasu inwestor stosujący metodę kup i trzymaj średnio zarabia realnie 6%, co oznacza, że zarabia więcej niż wynosi realny wzrost gospodarczy wynoszący przeciętnie 3,3%. Powstaje pytanie oczywiście czy to ma sens, a jeśli tak, to jaki? Zgodnie z modelem Gordona, oczekiwana stopa zwrotu faktycznie powinna być większa niż wzrost zysku bądź free cash flow spółki. Będziemy jeszcze zastanawiać się nad tą sprawą.

Po drugie stwierdzenie, że skoro "zgodnie z teorią wyższe zyski na giełdzie są wynagrodzeniem za ponoszone ryzyko", to "wynika z tego, że ryzyko ciągnie giełdę w dwie strony, tak że oczekiwana stopa zwrotu z akcji równa się stopie zwrotu z instrumentów bez ryzyka" wcale nie jest poprawne. Analizując ten problem myślę, że zbyt intuicyjnie do niego podszedłem.

Zauważmy, że zgodnie z modelem CAPM inwestor może uzyskiwać dużo wyższe zarobki nie tylko niż instrumenty wolne od ryzyka, ale nawet niż sam rynek, jeśli uwzględnimy dodatkowe ryzyko. Oczekiwana stopa zwrotu z akcji będzie równa stopie z instrumentów bez ryzyka, jeśli skorygujemy nasz zysk o cenę za ryzyko. No dobrze, ale jak to rozumieć? Przecież ryzyko, to właśnie - wydawało by się - owe odchylenie w jedną bądź w drugą. A tu się okazuje, że historycznie i średniorocznie jest po prostu opłacalne siedzenie w akcjach. Powstaje pytanie: czy jeśli długo będziemy trzymać akcje, to czy nadwyżka stopy zwrotu z akcji nad obligacjami jest nadal ceną za ryzyko?

W cytowanym tekście przedstawiłem wyjaśnienie w oparciu o dywidendę jako "cenę za niepewność". Obecnie stwierdzam, że nie było ono pełne, a może nawet prawidłowe.

Warto zwrócić uwagę na jedną sprawę - bardzo ważną. Przejrzyjmy raz jeszcze wpis o modelu CAPM, zarówno dla CML, jak i SML. Oczekiwana stopa zwrotu nie jest odniesiona do jakiegoś konkretnego okresu (natomiast sama stopa zwrotu już tak). Nie mówi się też, że inwestor może powtórzyć inwestycję w oparciu o ten model w następnym okresie. Chodzi tylko o to, że inwestor posiada już obrany horyzont inwestycyjny i w nim działa. Ryzyko więc dotyczy tego określonego przedziału czasu. Jeśli więc na przykład inwestor inwestuje przez rok, to tylko ten rok jest ryzykowny. Ponieważ akurat ten rok może być bardzo dobry lub bardzo zły, to właśnie w nim tkwi istota premii za ryzyko. Gdyby wziąć wszystkie lata i uśrednić, to faktycznie nie ma żadnego ryzyka, ponieważ średnio będziemy zarabiać oczekiwaną stopę zwrotu. Jednak istota polega na tym, że inwestor ma określony rok - i tu jest ryzyko.

I dlatego właśnie ryzyko wydaje się nie istnieć, gdy analizujemy perspektywicznie inwestora, który inwestuje przez wiele lat, bez przerwy. Błąd polega na tym, że w takiej sytuacji nie powinniśmy wyciągać średniorocznej stopy zwrotu, ale tę stopę zwrotu, która dotyczy całego okresu inwestycyjnego - wieloletnią stopę zwrotu. A ponieważ jest to ciągle tylko jedna stopa zwrotu, to aby określić oczekiwaną stopę zwrotu, należy znowu wziąć do analizy te wszystkie wieloletnie stopy zwrotu z długiego okresu, z którego dany inwestor korzysta jedynie w pewnym ułamku. Np. jeśli ktoś inwestował ciągle przez 30 lat i powie na koniec tego okresu: pokonałem rynek, gdyż mam większą 30-letnią stopę zwrotu niż S&P500 lub Dow Jones, to może nie mieć w żadnym razie racji. Po pierwsze aby to sprawdzić, należałoby obliczyć 30-letnią oczekiwaną stopę zwrotu portfela oraz indeksu giełdowego, co jest dziś praktycznie niemożliwe ze względu na małą liczbę danych - dla amerykańskiego rynku akcji nie uzyskalibyśmy nawet 5 obserwacji. Po drugie należałoby ocenić ryzyko tej inwestycji oraz ryzyko indeksu giełdowego. Sposób wyznaczenia tego ryzyka jest odrębną sprawą - można się posłużyć betą, odchyleniem standardowym, wartością zagrożoną czy uogólnieniami tychże narzędzi.

No cóż, błędy się zdarzają - dobrze, że na komputerze. Lepiej później je wykryć niż wcale.

wtorek, 14 września 2010

Porządek z chaosu

Swego czasu w Świecie Nauki (grudzień, 2008) pojawił się ciekawy artykuł zatytułowany "Termodynamika ma się dobrze" autorstwa J. Miguela Rubi'ego (Kiedyś "w nawiązaniu" do tego artykułu napisałem swój: Klasyka żyje i ma się dobrze). Opisuje w nim w jaki sposób druga zasada termodynamiki pozornie jest sprzeczna z obserwacjami powstawania samoorganizacji w przyrodzie i wyłaniania się z nieporządku coraz większego porządku. Od razu zwraca uwagę, że pojęcie takie jak temperatura jest zazwyczaj mylnie rozumiane, gdyż w rzeczywistości odnosi się ono do stanu równowagi termodynamicznej (lub bliskiego jej stanu), czyli stanu największego nieporządku (maksymalnej entropii). W sytuacji braku równowagi, należy pojęcia uogólniać. Tak więc uogólniono termodynamikę równowagową na termodynamikę nierównowagową. Początkowo do opisu zjawisk wykorzystywano pojęcie równowagi lokalnej w sensie przestrzennym (w małych częściach układu została zachowana równowaga termodynamiczna). Miało ono znaczenie, gdy zaburzenie równowagi nie było silne. W przypadku bardziej złożonych zjawisk o naturze nieliniowej, taka równowaga lokalna przestaje istnieć. Pojawiło się więc dodatkowo pojęcie równowagi lokalnej w sensie czasowym: badane procesy nie zmieniają się gwałtownie, tak że badając je "klatka po klatce" w stadiach pośrednich zachowana zostaje lokalna równowaga. Ale w sensie globalnym ciągle istnieje struktura uporządkowana. Mimo to, co zobaczymy na rysunku poniżej, może wystąpić krytyczny moment, po którym następuje załamanie się porządku i powrót do nieporządku.

Ponieważ już dobrze rozumiemy zwykłe błądzenie przypadkowe (ruchy Browna) oraz jego różnorakie uogólnienia, obejrzymy graficzną "opowieść" o odchyleniach od termodynamiki równowagowej, którą możemy sami odnieść do rynków finansowych.

1.

czemu towarzyszy następujący rozkład liczby cząsteczek:



Jest to zwyczajny ruch Browna, czyli otrzymujemy rozkład normalny.

2.



3.




Powyższa historia dotyczy powstania chaosu, tyle że nie skupia się na powstaniu porządku. Zobaczmy jak wyłania się i ginie porządek, gdy dostarczana energia rośnie coraz silniej.

1.

2.

3.

4.

5.

Nie ma wątpliwości, że rynek kapitałowy jest także "podgrzewany" nowym kapitałem oraz emocjami. Pytanie tylko, kiedy ta energia staje się zbyt duża, by utrzymać "porządek".

Pewną podpowiedzią (choć nie odpowiedzią) może być intrygujący artykuł Stephanie E. Pierce "Non-Equilibrium Thermodynamics: An Alternate Evolutionary Hypothesis". Teorię zawartą w tej pracy nie można przedstawić w dwóch zdaniach - to byłoby nachalne jej spłaszczenie. Dlatego przedstawię ją w odrębnym artykule.


Źródło:

J. Miguel Rubi, Termodynamika ma się dobrze, Świat Nauki, Nr 12 (208), s. 44-49.

sobota, 29 maja 2010

Jak rozumieć długą pamięć?

Musimy wreszcie lepiej się przyjrzeć pojęciu pamięci długoterminowej. Wiemy, że jej istnienie wiąże się z trendem. Wspomniałem już jednak wcześniej, że czasu trwania długiej pamięci nie można utożsamiać z długością trendu. Na czym więc polega jej zjawisko?

Można podejść do tego problemu od czysto matematycznego punktu widzenia. Podejście to pozwala zauważyć ścisłą zależność pomiędzy fraktalnością procesu a długą pamięcią. Zrozumielibyśmy wówczas, że długa pamięć nierozerwalnie wiąże się z fraktalami. Doskonale zaczęlibyśmy czuć różnicę pomiędzy trendem (jako dryfem) a długą pamięcią.

Na początek jednak lepiej zacząć od intuicji i przykładów graficznych.

1. Funkcja liniowa



Oto wykres analizy R/S:



Tutaj H = 0.994. Nie może być nic innego - każda kolejna zmiana wartości ma ten sam znak co poprzednia.

2. Funkcja sinus





Dla sinus dostałem H = 0.936 dla całego okresu. A więc zauważmy co się dzieje. Funkcja wydaje się przecież antypersystentna. Dlaczego więc analiza R/S wychwytuje długą pamięć? Żeby to zrozumieć powinniśmy wrócić do wzoru na wariancję i odchylenie standardowe ułamkowego ruchu Browna:



Odchylenie standardowe jest po prostu średnią drogą, jaką pokonuje jakaś cecha zmiennej. Wynika z tego, że im większe H, tym dłuższa jest ta droga. Wiemy, że dla błądzenia przypadkowego H = 0,5. Dla naszego przypadku H = 0,93 oznacza, że średnio zmienna pokonuje dłuższą drogę niż błądzenie losowe. Jeśli zaczniemy powiększać wykres funkcji sinus, zobaczymy, że rzeczywiście tak jest. W dowolnie małym otoczeniu dowolnego punktu kolejna wartość funkcji przyjmie ten sam znak co poprzednia wartość - z bardzo dużym prawdopodobieństwem. To prawdopodobieństwo równałoby się jeden, gdyby nie występujące minima i maksima. Ile wynosi to prawdopodobieństwo? Można powiedzieć, że właśnie H = 0,936. Nie jest to jednak taka oczywista odpowiedź, nie wynika bowiem z definicji prawdopodobieństwa, lecz następujących spostrzeżeń.

Na H powinniśmy patrzeć jak na miarę zmienności. Jeśli w danym czasie ma być pokonana dłuższa droga, to wykres po prostu musi być mniej postrzępiony, a więc mniej zmienny. Jeżeli jednak ma być mniej zmienny, to znaczy, że kolejna zmiana wartości zmiennej z większą szansą będzie miała ten sam znak co poprzednia.

Na przedstawionym wykresie log(R/S) zauważamy, że następuje w pewnym momencie załamanie się linii. Od tego miejsca pamięć długoterminowa szybko zanika, tak że proces staje się wręcz antypersystentny. Dlaczego jednak tak się dzieje, skoro przed chwilą powiedzieliśmy, że w dowolnie małym otoczeniu punktu proces jest prawie zawsze persystentny? Poprzedni wzór na wariancję - również to widzieliśmy - można przedstawić jako:



t > 0, t > s.

Możemy więc analizować różne przedziały drogi od s do t, w której s jest jakimś opóźnieniem. Na wykresie log(R/S) przedziały te są zaznaczone są literką n. I tak dla n = 758 długa pamięć się załamuje. Co to oznacza? Oznacza to, że w takim przedziale proces pokonuje dłuższą drogę niż błądzenie przypadkowe, a w dłuższym przedziale już nie.

Popatrzmy na wykres sinus. Zauważmy, że cykl pamięci kończy się nie w momencie gdy następuje załamanie kierunku - zmiana trendu - ale w momencie, gdy funkcja "przechodzi" cały cykl wzrostów i spadków (n=758). W rzeczywistości nie ma znaczenia od którego punktu startujemy: dopiero gdy sinus pokona nieco ponad cały cykl, wówczas proces staje się antyuporczywy.

Uporczywość istnieje pomimo zmiany trendu, ponieważ błądzenie przypadkowe "nie nadąża" za sinusem, co wynika z większej wariancji, czyli większego H dla sinus. Dopiero kiedy analiza R/S wykrywa, że sinus znowu zaczyna zmieniać kierunek, co u nas wychodzi po punkcie 758, zaczyna "chwytać" powroty do średniej częstsze niż powroty występujące w błądzeniu przypadkowym, co sygnalizuje antyuporczywością.

3. Dla porównania, weźmy bardzo antypersystentną funkcję złożoną jedynie z punktów 1 i 3 (połączonych linią prostą):





Dostajemy H = 0,06. Tutaj jest odwrotnie, ponieważ kolejne zmiany są przeciwnego znaku, dlatego też prawdopodobieństwo warunkowe kontynuacji danego znaku jest bliskie zera.

4. Weźmy przekształcenie sinus:





H = 0,98

Długa pamięć tutaj zanika bardzo wolno z powodu "silnej" gładkości funkcji. Dopiero po 4788 obserwacjach wykres staje się słabo persystentny.

5. Inne przekształcenie sinus





H = 0,665 dla całego okresu. Jednak do punktu załamania H = 1,026. Czas pamięci wynosi n = 158.

Przyjrzyjmy się bliżej temu punktowi:



Przykład ten jest interesujący ponieważ dowodzi, że długa pamięć nie wiąże się z samą cyklicznością funkcji. Przedstawiona wyżej funkcja jest idealnie cykliczna, jednak analiza R/S wychwytuje krótszy okres tej pamięci niż wynosi cykl funkcji.

Jednakże jest to całkowicie poprawny wynik, bowiem funkcja zaczyna powracać do średniej średnio po 158 obserwacjach.

6. Funkcja quasiperiodyczna. Wreszcie najciekawsze, bowiem taka funkcja jest już bardzo bliska chaosowi deterministycznemu.





H = 0,783, E(H) = 0,55, sqrt(1/N) = 0,018, H - E(H) = 0,229 > 0,018

W tym przypadku H jest już na poziomie H dla kursów giełdowych (miesięcznych stóp zwrotu).

Powiększmy ten fragment gdzie przedział n = 199 zawiera długą pamięć, a po nim zaczyna ona zanikać.



Pamiętajmy, że n jest jedynie przedziałem, w którym zmienna pokonuje drogę. Możemy więc punkt startu tego przedziału dowolnie przesuwać, ale sam zakres n musi pozostać stały. I właśnie W TYM ZAKRESIE długa pamięć zostaje wykryta. Przy zwiększeniu n następuje powrót do średniej, tak że proces staje się antyuporczywy.

Ale zwróćmy uwagę, że okres tej pamięci jest jedynie przeciętny. Nigdy nie odgadniemy czy to początek, środek czy koniec okresu spadków lub wzrostów. Jeśli to pojmiemy, to pojmiemy też, że giełda nawet podczas trwania trendu i wykrycia w tym okresie długoterminowej pamięci, jest nieprzewidywalna w tym okresie.

Jedynie co można przewidzieć, to to, że ten sam znak kolejnych zmian obserwacji jest bardziej prawdopodobny niż przeciwny. Jest tak dlatego, że zmienna musi pokonać dłuższą drogę niż błądzenie przypadkowe.

Jeszcze inaczej. Pomimo że trend jest nieprzypadkowy, to tak naprawdę jest... losowy. Innymi słowy długość trendu jest losowa. Każdy kolejny ząbek może być tym ostatnim tylko dlatego, że bierzemy pod uwagę średnią. Może być tak, iż dany trend właśnie osiąga maksimum lub minimum, choć w całym zakresie równym n - a więc w uśrednieniu - kolejny wzrost lub kolejny spadek jest bardziej prawdopodobny.

Ponieważ jednak kolejna obserwacja jest zależna od poprzedniej w tym sensie, że droga staje się dłuższa niż droga błądzenia losowego, to ta obserwacja jest również zależna od wcześniejszych obserwacji, a zatem droga staje się dłuższa od błądzenia losowego w całym przedziale n dopóki analiza R/S wyczuwa długą pamięć.

Nawet więc jeśli następuje silne załamanie, to ponieważ wcześniej droga była dłuższa niż błądzenia przypadkowego, to ma ona jeszcze "zapas" i dopóki nie będzie intensywniejszych powrotów do średniej, proces będzie uznawany za persystentny.

7. Wykres giełdowy S&P500: obserwacje miesięczne od 1933 (odfiltrowana inflacja)





Do momentu utraty pamięci H = 0,787; E(H) = 0,604. Pamięć średnio kończy się po 42 miesiącach. Oznacza to tyle, że hossa lub bessa była tak silna, że nawet gdy następuje odwrócenie trendu, kurs nadal w danym przedziale pokonuje więcej drogi niż błądzenie przypadkowe. I w tym sensie prawdopodobieństwo (uśrednione), że wzrost lub spadek będzie kontynuowany wynosi ok 0,69. Nie możemy uznać, że wynosi 0,79, gdyż wartość oczekiwana wynosi 0,6, a nie 0,5, więc zmniejszam H o 0,1. Natomiast powrót do średniej i zmiana trendu w końcu powoduje, że proces zostaje uznany za błądzenie przypadkowe. Następuje to przeciętnie po 42 miesiącach.

Stopniowo zaczynamy dostrzegać, że nie ma tu żadnych czarów. Wiemy czym jest średnia. Dokładnie tak jak w tym żarcie o psie i trzech nogach. Chaos na giełdzie po prostu skłania nas do przyjęcia koncepcji ułamkowej efektywności rynku.

środa, 10 marca 2010

Paradoks rynku efektywnego. Natura rynku fraktalnego (ułamkowo efektywnego)

Rynek efektywny to taki, na którym wszelkie istotne informacje zostają natychmiast uwzględnione w cenach. Paradoksalnie w takiej sytuacji racjonalny inwestor nie powinien dyskontować informacji, gdyż szansa na to jest nikła. Jest takie powiedzenie o rynku efektywnym: Jeśli zobaczysz leżącego na ulicy dolara, nie podnoś go, bo już go ktoś znalazł przed tobą. Idiotyczne to, ale jakże znamienne dla rynku, któremu poświęcamy tyle czasu.

Inwestor dyskontujący informacje na doskonałym rynku, na którym wszyscy robią to samo co on, poniósłby duże ryzyko, inwestując w konkretne akcje. Jak pamiętamy, zgodnie z teorią efektywnego rynku oczekiwana stopa zwrotu z dowolnego papieru wartościowego leży na linii papierów wartościowych (SML). A zatem inwestor, który dyskontuje informacje powinien liczyć się z ryzykiem rynkowym wynoszącym beta.
Oczywiście mógłby inwestować w takie akcje, jeśli posiada niską awersję do ryzyka, ale i tak byłaby to zwykła spekulacja, bo zgodnie z teorią już ktoś przed nim albo w tym samym momencie co on zdyskontował wszelkie wiadomości.

Dlatego powinien stosować model linii rynku kapitałowego (CML) lub przynajmniej metodę Markowitza. W takim razie nikt nie powinien dyskontować informacji, lecz używać CML, a więc rynek przestałby być efektywny. Cóż za paradoks.

Oczywiście, gdyby wszyscy stosowali CML, ruchy cen nadal mogłyby być całkowicie losowe, lecz ważne wiadomości nie byłyby uwzględniane w cenach. Ktoś powie: a jakie to ma znaczenie, po prostu powstanie prawdziwy hazard. Jest to błędne rozumowanie.

Przychodzi informacja, że zysk spółki X wzrósł o 50% i zamierza ona o tyle samo zwiększyć dywidendę. Efektywny rynek powinien natychmiast na to zareagować zwyżkami cen, gdyż każdy może skorzystać z dodatkowego zysku firmy bez ryzyka. Po dniu ustalenia prawa do dywidendy (a na GPW 3 dni przed tym dniem, gdyż tyle trwa rozliczenie transakcji w KDPW) cena akcji powinna spaść dokładnie o wielkość stopy dywidendy, tak że informacja o dywidendzie już nie miałaby żadnego znaczenia dla kursów, a inwestor nie miałby żadnych korzyści z trzymania tych akcji, gdyż zysk z dywidendy zostałby skorygowany spadkiem kursu.

Jeśli wszyscy stosują CML, to kurs porusza się losowo, wobec czego w dniu ustalenia prawa dywidendy także. Ten dzień nie ma znaczenia. Oznacza to, że po tym dniu kurs nie musi spadać, lecz będzie zachowywać jak zwykle. Wynika z tego, że sprytny inwestor "wyłamujący się" ze schematu CML, mógłby znacznie więcej zarobić niż inni, czyli ponadprzeciętnie. Przerzuciłby wszystkie lub większość środków na spółkę X. Otrzymuje więc dużą dywidendę, a ponadto posiada ciągle akcje, których oczekiwana stopa zwrotu nie zmienia się (tj. nie spada). Wprawdzie ryzyko z samych akcji wzrasta (gdyż jak wiemy dywersyfikacja w CML jest maksymalna, a więc zapewnia najmniejsze ryzyko), ale zostaje to skompensowane dywidendą. Czy więc wychodzi na to samo, tzn. czy znów większy zysk jest okupiony większym ryzykiem? Nie, ponieważ inwestor zachowuje się tak, jakby stosował SML, czyli model bez dywersyfikacji, który właśnie przedstawia potencjalny większy zysk okupiony ryzykiem. A więc zgodnie z SML bez ryzyka niemożliwe jest uzyskanie zysku większego od stopy zwrotu z obligacji lub bonów skarbowych. A w omawianym przypadku dostajemy dodatkowy zysk z dywidendy. Tym samym inwestor pokonuje rynek, co jest niedopuszczalne na efektywnym rynku.

Oczywiście inwestorzy nie są głupi i szybko zauważyliby i wykorzystaliby takie możliwości. W zasadzie, wszyscy powinni tak zrobić, co oczywiście znów doprowadziłoby do powrotu rynku efektywnego. Ale jeśli każdy jest statystycznie identycznie spostrzegawczy, to statystyczny inwestor winien zarobić zero. A więc lepiej stosować strategię pasywną, bo po co się jak Syzyf męczyć... a więc każdy racjonalny jednak powinien nie dyskontować żadnych informacji i rynek znów staje się nieefektywny...

Znów więc stoimy wobec pytania, która postawa - aktywna czy pasywna - jest racjonalna na (efektywnym?) rynku?
Aby odpowiedzieć na to pytanie, zróbmy przykład. Powiedzmy, że na rynku są dwaj gracze A i B. Jeśli obaj dyskontują w tym samym czasie informację, to każdy zarobi V + 0 - Z, gdzie V - przeciętna wygrana wynikająca z SML lub CML - nie ma znaczenia która, gdyż oba modele po skorygowaniu o ryzyko dają te same oczekiwane stopy zwrotu. Dodajemy zero, gdyż 0 = 0,5*D + 0,5(-D), gdzie D - nadwyżka stopy zwrotu wynikająca ze zdyskontowania informacji (np. o dywidendzie). Któryś zarobi, ale średnio nikt. Z - koszt zarządzania wynikający z tego, że inwestor ciągle śledzi informacje napływające z minuty na minutę i dokonuje szybkich decyzji. Dla uproszczenia uznamy, że Z = V. A więc oczekiwany zysk, gdy wszyscy dyskontują informacje, równa się zero. Jeśli tylko jeden gracz dyskontuje informacje, to zarabia on V + D - Z = D, a wtedy drugi grając pasywnie, tj. stosując metodę CML, zarabia V. Jeśli obaj stosują CML, wtedy obaj zarabiają V. Dlaczego V nie rozdwaja się? Uznajemy, że parametry rozkładu stopy zwrotu są identyczne i niezależne od czasu. CML opiera się na tym, że po prostu kupujemy rynek, który zachowuje się losowo zgodnie z pewną wartością oczekiwaną (a ta jest z założenia stała).



Schemat ten został przedstawiony powyżej. Macierz jest symetryczna. Poziome strategie dotyczą gracza A, zaś pionowe gracza B. Lewa strona każdego okna odpowiada zyskom gracza A, prawa - oddzielona kreską - gracza B.

Od razu widać, że paradoks jest trudniejszy niż w standardowym przypadku paradoksu Newcomba. Strategia dominująca nie istnieje. Czy istnieje równowaga Nasha? Popatrzmy. Jeśli gracz A wybiera góra, wtedy gracz B wybiera zawsze prawa. Jeśli zaś B wybiera prawa, to A wybiera zawsze góra. Istnieje zatem równowaga Nasha. Ale jeśli gracz A wybiera dół, to gracz B wybiera zawsze lewa. Jeśli B wybiera lewa. to A wybiera zawsze dół. A więc też istnieje równowaga Nasha. Są dwie równowagi Nasha i prowadzi to do zamieszania. Musimy użyć więc strategii mieszanej. Chodzi tu o to, że gracze będą posługiwać się z pewnym prawdopodobieństwem strategią aktywną i pasywną. Gracz A z prawdopodobieństwem p stosuje strategię aktywną, a gracz B stosuje strategię aktywną z prawdopodobieństwem q. Oznacza to, że jeśli gracz A gra aktywnie, to dostaje z prawdopodobieństwem q zero (gdyż B stosuje z szansą q strategię aktywną) oraz z 1-q dostaje D (gdyż B stosuje z szansą 1-q strategię pasywną). Jeśli A gra pasywnie, to zawsze dostaje V, gdyż q*V +(1-q)*V = V. Jeśli gracz B aktywnie, to wszystko jest tak samo, lecz q zostaje zastąpione p. Należy zwrócić uwagę, kiedy używa się p, a kiedy q. A więc dla gracza A mamy:

Strategia aktywna: q*0 + (1-q)*D = D - q*D
Strategia pasywna: V.

Dla gracza B:

Strategia aktywna: p*0 + (1-p)*D = D - p*D
Strategia pasywna: V.

Gracz A stosuje strategię aktywną z prawdopodobieństwem p i pasywną z 1-p, lecz już przy danej strategii jego wygrana zależy od decyzji B, czyli prawdopodobieństwa q. Powstaje pytanie, ile musi wynieść p i q? Odpowiedź wydaje się logiczna. Wiadomo, że żadna strategia nie może być lepsza od drugiej, gdyż gracz zawsze by wybierał lepszą. Zatem wartość oczekiwana strategii aktywnej musi być równa wartości oczekiwanej strategii pasywnej. Weźmy gracza A:

D - q*D = V
q = (D - V)/D.

Dla gracza B:

p = (D - V)/D.

Stąd p = q.

W równowadze, gdy strategia aktywna jest równoważna pod względem wartości oczekiwanej strategii pasywnej, każdy gracz będzie dyskontował informacje z tym samym prawdopodobieństwem wynoszącym różnicę pomiędzy nadwyżkową stopą zwrotu a przeciętną stopą zwrotu podzieloną przez nadwyżkową stopę zwrotu.

Niech V = 100. Jeśli np. zysk w wyniku zdyskontowania istotnej informacji wynosi D = 1000, to p = (1000 - 100)/1000 = 0,9. Ale już przy D = 200, p = 0,5. A przy D = 100, p = 0, zaś przy D = 50, p = -1. Jak interpretować ujemne prawdopodobieństwo? Przypomnijmy, że założyliśmy, iż zmienna zarządzania Z = V. Jeśli więc zysk D jest mniejszy od kosztów zarządzania, to jest to to samo, co dopłacanie do rynku. Oznacza to, że aby inwestor dyskontował z jakąś szansą informacje, D > V.

Nasza dyskusja jest kluczowym momentem do zrozumienia, dlaczego rynki kapitałowe nie mogą być całkowicie efektywne, nawet jeśli wszyscy inwestorzy są równi i tak samo szybcy. Gracze - w równowadze - będą aktywnie dyskontować informacje na rynku efektywnym z prawdopodobieństwem (D-V)/D i będą grać pasywnie z prawdopodobieństwem 1 - (D-V)/D = V/D.

Jeśli częstość z jaką inwestorzy się zachowują jest znana, to jeśli trochę pomyślimy, dotrzemy do głębokiego wniosku. Jeśli mamy populację inwestorów, to (D-V)/D populacji będzie dyskontować informacje, a V/D jedynie grać pasywnie...

Teoria efektywnego rynku jest analogią teorii darwinowskiej, czyli teorii doboru naturalnego. Czytelnik sam to szybko zauważy, po przeczytaniu przytoczonego fragmentu pracy A. Łomnickiego: Ekologia ewolucyjna - 2008.

Proste rozumowanie wskazuje, że w sytuacji, gdy dwa osobniki walczą o ograniczone zasoby, na przykład gniazdo, samicę lub pokarm osobnik wygrywający powinien zostawić w przyszłych pokoleniach więcej swego materiału genetycznego, niż osobnik wykazujący tendencję do ustępowania. Zatem jeśli tendencja do ustępowania i tendencja, aby walczyć aż do wygranej lub do śmierci są genetycznie zdeterminowane, wówczas należy się spodziewać, że tendencja do ustępowania i wszelkie walki nie na serio, czyli typu konwencjonalnego powinny być już dawno wyeliminowane przez dobór. Jeśli akceptujemy takie rozumowanie, wówczas przyjmujemy też, że ustępowanie, unikanie konfliktów i wszelkiego rodzaju walki konwencjonalne nie mogły powstać drogą doboru naturalnego między osobnikami, ale jakimś innym sposobem. Konrad Lorenz w swych książkach sugerował, że takie zachowanie utrzymuje się, ponieważ jest dobre dla gatunku i zapobiega nadmiernej śmiertelności w wyniku agresji.
Za rozumowaniem Konrada Lorenza i wielu innych biologów myślących podobnie nie stał i nie stoi żaden opis mechanizmu doboru, który mógłby doprowadzić do powstania cech dobrych dla gatunku, a nie dla osobnika. Można stwierdzić, ze ograniczona agresja i walki konwencjonalne były w świetle Darwinowskiej teorii doboru naturalnego niezrozumiałe, a neodarwinizm z genetyką populacyjną też tych zjawisk nie tłumaczył. Była to wyraźna słabość biologii ewolucyjnej, która skończyła się, gdy do badania konfliktów między zwierzętami zastosowano teorię gier.


Łomnicki przedstawia w jaki sposób w ewolucji ukształtował się pewien podział na "agresorów" (jastrzębie) i "ustępujących" (gołębie). Zarówno jastrzębie jak i gołębie mogą współistnieć. Co więcej, muszą występować zarówno i ci, i ci. Zastosowana strategia jest właśnie tą, jaką tutaj zaprezentowaliśmy. Strategia ta nazywana jest strategią ewolucyjnie stabilną. Przytaczam kolejny fragment:

Strategia mieszana może być realizowana na dwa sposoby. Przy pierwszym sposobie, wszystkie osobniki w populacji mogą posługiwać się takim samym programem: z prawdopodobieństwem P bądź agresorem, zaś z prawdopodobieństwem (1 - P) bądź ustępującym. Przy sposobie drugim bycie agresorem lub ustępującym jest cechą zdeterminowaną genetycznie i dobór będzie prowadził do polimorfizmu zrównoważonego, czyli takiego, przy którym proporcja agresorów będzie równa P. (s. 1)

(...)ewolucyjnie stabilna strategia mieszana wyjaśnia częściowo zmienność genetyczną w naturalnych populacjach. Taką zmienność można sprowadzić do problemu zrównoważonego polimorfizmu genetycznego, czyli utrzymywania się w populacji w jednym locus dwóch lub więcej różnych alleli. Genetyka populacyjna tłumaczy polimorfizm genetyczny wyższym dostosowaniem heterozygot w stosunku do obu homozygot i doborem zależnych od częstości allelu, powodującym niższe dostosowanie formy bardziej pospolitej. Koncepcja mieszanej strategii ewolucyjnie stabilnej sugeruje jeszcze jeden powód doboru zależnego od częstości i tym samym utrzymywania się zmienności genetycznej przy założeniu, że strategia mieszana jest zdeterminowana genetycznie. (s. 4).

Jest to właśnie to o czym mówiliśmy. Częstość danej strategii może być używana przez naturę jako całość, bądź przez pojedyncze osobniki.

Wyobraźmy sobie, że populacja składa się tylko z gołębi. Nagle w wyniku mutacji pojawia się jastrząb. Jak to w przyrodzie, jednostki walczą ze sobą. Jastrząb wygrywa każdą potyczkę, co zwiększa szansę na pozostawienie potomstwa. Można byłoby krzyknąć, że gołębiom grozi zagłada! Załóżmy więc, że gołębie zostały zgładzone i zostały same jastrzębie. Doprowadzi to do wyniszczenia gatunku, gdyż każdy jastrząb ma taką samą szansę wygranej. Straty statystycznie będą większe od zysków (u nas byłby to koszt zarządzania większy od wygranej: D < Z). Nagle pojawia się mutacja w postaci gołębia. Biedaczyna nie ma szans, chociaż... jeśli statystyczna wygrana jest mniejsza od ceny przegranej gołębia, to okaże się, że gołąb będzie statystycznie zarabiał na przegrywaniu więcej niż jastrzębie! Skutkiem będzie wzrost liczebności gołębi. Okazuje się więc, że ze statystycznego punktu widzenia musi istnieć pewna proporcja gołębi i jastrzębi.

Na rynku efektywnym słabsi lub - co wychodzi na jedno - ustępujący gracze, powinni zostać wyeliminowani przez agresywnych i szybkich inwestorów. Wolniejsi nie zdołaliby zdyskontować informacji przed szybkimi, straciliby więc wszystkie pieniądze, bo to szybcy sprzedawaliby im lub odkupywaliby od nich. Ale widzieliśmy do czego prowadzi taka sytuacja. Zastępując gołębie graczami pasywnymi, a jastrzębie graczami aktywnymi, natura ekonomiczno-psychologiczna doprowadzi do współistnienia tych dwóch typów graczy.

Pasywny nie musi tu wcale oznaczać, że stosuje CAPM. Może oznaczać po prostu gracza, który ucieka z pola walki.

Jest dwóch graczy, którzy trzymają akcje. Dokupić czy sprzedawać? Chiken? Macierz jest podobna do tej pierwszej z małym wyjątkiem. 0 - gdy obaj dokupują. Windują cenę tak, że nikt od nich drożej nie odkupi, D - gdy dokupuje pod warunkiem, że drugi sprzedaje, V - gdy sprzedaje pod warunkiem, że drugi kupuje, V/2 - obaj sprzedają. W tym ostatnim przypadku siła podaży silnie zaniża cenę i obaj średnio zarabiają V/2. Oto macierz w tym przypadku:



Obliczmy p w równowadze (ze względu na symetrię macierzy p jest nadal równe q).

Dokupuje: p*0 + (1-p)*D = D - p*D
Sprzedaje: p*V + (1-p)*V/2 = p*V + V/2 - p*V/2

D - p*D = p*V + V/2 - p*V/2
p = (D - V/2)/(D + V/2).

A więc też bardzo ładny wynik.

Zakładamy istnienie trendu zwyżkującego. Aby zaistniała równowaga jeden z nich musi ustąpić - sprzedać, aby drugi mógł kupić. Jest to ważne, gdyż w następnej rozgrywce mogą się zastąpić miejscami. Tak tworzą trend.

Nie znaczy to, że muszą całkowicie nie zgadzać się co do tego czy będą w najbliższym czasie wzrosty czy spadki. Jeśli gracz A ma horyzont krótkoterminowy, a gracz B długoterminowy, to obaj mogą rozumować nieco innymi kategoriami. Inną możliwością wymiany a nie konkurencji, jest to, że gracz, który ma większy kapitał lub też dłużej trzyma dane akcje, więcej na nich zarobił i może być bardziej skłonny do sprzedaży akcji pomimo, iż może zgadzać się, że warto ciągle je kupować. Nawet jeśli prawdopodobieństwo dalszych zwyżek wynosi więcej niż 50:50 i tak będzie odczuwał pokusę realizacji zysków. Co więcej, będzie miał rację, bo w przeciwnym wypadku, jeśli wielu będzie takich jak on, którzy nie zdecydują się na sprzedaż, to nastąpią spadki. Jeśli jednak wielu się zdecyduje na sprzedaż, wtedy lepiej dokupować, a wygrana D gwarantowana. Statystycznie należy raz ustąpić, raz nie.

Tak, udało się. Rozwiązaliśmy paradoks rynku efektywnego. Rynek staje się fraktalny, czyli ułamkowo efektywny, gdyż tylko część graczy będzie dyskontować w pełni informacje (na przykład o istnieniu trendu - na efektywnym rynku trend powinien natychmiast zniknąć, gdy wszyscy się o nim dowiadują) lub też wszyscy będą dyskontować informacje z pewnym prawdopodobieństwem. Ta część lub to prawdopodobieństwo zależy od maksymalnej wygranej i od przeciętnej wygranej i można je łatwo obliczyć. Świadczy to o tym, że na giełdzie nie warto maksymalizować zysków za wszelką cenę.

Źródło:

1. A. Łomnicki, Ekologia ewolucyjna - 2008. Strategia ewolucyjnie stabilna,
2. T. Rostański, M. Drozd, Teoria gier, 2003.


................................................................................

We wpisie "Jak powstają cykle i podcykle? Ułamkowość jest wszędzie. Część piąta": http://gieldowyracjonalista.blogspot.com/2009/10/jak-powstaja-cykle-i-podcykle-uamkowosc.html napisano:

Przede wszystkim należy zauważyć, że zbiorowość jako pewna zorganizowana struktura tworzy się dlatego, że siła (użyteczność) zbiorowości jest wyższa niż siła (użyteczność) sumy jednostek ją tworzących. Pod tym względem rzeczywiście rynek zdobywa siłę, kształtuje się trend. To jest to, o czym pisałem w drugiej części cyklu, że inwestorzy niejako sami się racjonalizują. Aby utrzymać organizm przy życiu komórka musi współpracować z innymi komórkami.


Wcześniej, w "Jak powstają cykle i podcykle? Część druga": http://gieldowyracjonalista.blogspot.com/2009/08/jak-powstaja-cykle-i-podcykle-czesc.html stwierdzono:

Rynek kapitałowy jest ograniczony pewną ilością kapitału w danym przedziale czasowym. Musi "racjonalizować" tę ilość, czyli wykorzystywać kapitał jak najwydajniej. Choć zabrzmi to bardzo ezoterycznie, "coś" zmusza inwestorów do zachowania ograniczonej racjonalności. Ekonomicznie może być to ograniczony horyzont czasowy, a psychologicznie - pokusa kupna lub sprzedaży. Połączenie homo oeconomicusa i człowieka nieracjonalnego daje pewną kombinację: człowieka ograniczenie racjonalnego.

Można zajrzeć:

1. http://gieldowyracjonalista.blogspot.com/2009/08/jak-powstaja-cykle-czesc-pierwsza.html
2. http://gieldowyracjonalista.blogspot.com/2009/08/jak-powstaja-cykle-i-podcykle-czesc.html
3. http://gieldowyracjonalista.blogspot.com/2009/09/jak-powstaja-cykle-i-podcykle.html
4. http://gieldowyracjonalista.blogspot.com/2009/09/jak-powstaja-cykle-i-podcykle-giedowy.html
5. http://gieldowyracjonalista.blogspot.com/2009/10/jak-powstaja-cykle-i-podcykle-uamkowosc.html
6. http://gieldowyracjonalista.blogspot.com/2009/10/jak-powstaja-cykle-i-podcykle-czesc_18.html

Teraz wszystko zaczyna łączyć się w jedną całość. Dotąd brakowało tego budulca w postaci teorii gier, która rozwiązuje problem racjonalności i efektywności rynku.

środa, 17 lutego 2010

CAPM - Security Market Line (SML)

Jak już zostało powiedziane, CAPM (Capital Assets Pricing Model) składa się z dwóch zależności: linii rynku kapitałowego (Capital Market Line - CML) oraz linii rynku papierów wartościowych (Security Market Line - SML). Pierwszą zależność przedstawiłem w poprzednim poście. Obecnie zajmę się drugą.

Przedsiębiorczy inwestor poszukuje najlepszych, tj. przynoszących największe zyski, walorów na rynku. Gdyby był inwestorem pasywnym, maksymalnie dywersyfikowałby portfel, co znaczyłoby, że nie wierzy w możliwość zainwestowania w najlepsze spółki i opierałby się na teorii efektywności rynku - teorii portfela Markowitza oraz CAPM-CML. Czy jest racjonalne bycie przedsiębiorczym inwestorem czy raczej pasywnym? Odpowiedź zależy od tego czy rynek jest efektywny czy nie. Jeśli jest efektywny, to jedynie racjonalne jest bycie inwestorem pasywnym (co jest oczywiście paradoksem, bo gdyby wszyscy byli racjonalni, nikt nie dyskontowałby nowych informacji, a więc rynek nie byłby efektywny; o tym paradoksie warto byłoby jeszcze podyskutować). Jeśli nie jest efektywny, wtedy warto być inwestorem przedsiębiorczym. Wynika z tego, że trzeba najpierw sprawdzić hipotezę efektywności rynku, a następnie obrać odpowiednią postawę.

Model SML pozwala właśnie sprawdzić czy rynek jest efektywny czy nie. Jest to bowiem model "wyceny" dowolnego aktywa kapitałowego, na przykład pojedynczych papierów wartościowych. Jeśli aktywo nie leży na SML, rynek nie jest efektywny. Przypomnijmy, że model CML dotyczył jedynie portfeli leżących na granicy portfeli efektywnych, a więc służył jedynie inwestorowi pasywnemu. W tym sensie model SML staje się bardziej ogólny od CML. Interpretacja SML jest następująca:

zysk z aktywów = cena czasu + cena jednostki ryzyka rynkowego*ilość ryzyka rynkowego.

Postać SML wyznacza równanie:



gdzie:

μ(i) - oczekiwana stopa zwrotu inwestycji w i-ty walor lub portfel ryzykowny w warunkach równowagi
R(f) - stopa wolna od ryzyka
μ(M) - oczekiwany zysk portfela rynkowego
beta(i) - współczynnik ryzyka systematycznego (rynkowego) i-tego waloru dany wzorem:



gdzie:

cov - kowariancja
σ(M)^2 - wariancja portfela rynkowego
R(M) - zysk portfela rynkowego
R(i) - stopa zwrotu inwestycji w i-ty walor lub portfel ryzykowny

Współczynnik beta staje się wskaźnikiem ryzyka (ilość ryzyka), zastępując tym samym odchylenie standardowe w modelu CML. Wielkość R(M)-R(f) nazywana jest premią za ryzyko. Premia za ryzyko stanowi więc cenę jednostki ryzyka.

Można udowodnić, że w warunkach równowagi (rynku efektywnego), kiedy wszyscy inwestorzy wybierają portfele znajdujące się na CML, stopy zwrotu poszczególnych portfeli ryzykownych (w tym również pojedynczych walorów) są wyznaczane przez równanie SML.

1. Wyprowadzenie modelu

Przypomnijmy metodę tworzenia linii CML. Na poniższym rysunku widać krzywą minimalnego ryzyka, na której leży portfel rynkowy M, zaś CML powstaje poprzez dołączenie do tego portfela instrumentu bez ryzyka rynkowego F, co graficznie powoduje utworzenie się linii prostej łączącej F z M:



Pamiętajmy, że ta krzywa powstaje w oparciu o wszystkie ryzykowne aktywa kapitałowe. Dzięki temu dywersyfikacja ryzyka jest maksymalna dla aktywów ryzykownych, co powoduje, że krzywa minimalnego ryzyka przesunięta jest maksymalnie w lewo.

Jednym z aktywów ryzykownych jest walor A widoczny na rysunku. Możemy zrobić następujący zabieg: potraktować portfel M jak zwykły walor i stworzyć portfele złożone z dwóch walorów: A i M. Taki schemat pokazano na poniższym rysunku:



Należy zauważyć, że powstała krzywa musi mieć nachylenie równe CML. Dlaczego? Spójrzmy na sytuację, gdy krzywa jest nachylona na lewo od punktu M:



A teraz na prawo od M:



W obydwu przypadkach nowa zakreskowana CML jest mocniej nachylona niż pierwotna, co zostaje spowodowane innym nachyleniem krzywej minimalnego ryzyka. Staje się więc możliwe uzyskanie wyższej oczekiwanej stopy zwrotu przy danym ryzyku, albowiem nowa CML okazuje się być bardziej efektywna. Ale to przeczy logice: pierwotna krzywa minimalnego ryzyka optymalizuje portfele składające się ze wszystkich ryzykowanych walorów, zatem również powstająca w oparciu o nią CML musi być najlepszą z możliwych. Wynika z tego, że nowa krzywa minimalnego ryzyka musi mieć w punkcie M nachylenie równe pierwotnej CML.

Na naszym rysunku widoczny jest portfel P1 złożony z A i M. Oczekiwana stopa zwrotu P1 (μ(P1)) jest dana wzorem:

(1)


gdzie:

x - udział waloru A, μ(A) - oczekiwana stopa zwrotu waloru A, μ(M) - oczekiwana stopa zwrotu portfela rynkowego M.

Z kolei odchylenie standardowe stopy zwrotu P1 (σ(P1)) jest równe:

(2)


σ(A)^2 - wariancja stopy zwrotu A, σ(M)^2 - wariancja stopy zwrotu M, Cov(A,M) - kowariancja stóp zwrotu A i M.

Rozważmy nachylenie krzywej minimalnego ryzyka w punkcie P1, z którym ściśle związany jest tangens kąta nachylenia tej krzywej. Tangens kąta jest to pochodna μ(P1) względem σ(P1). Jednocześnie μ(P1) oraz σ(P1) są funkcjami zależnymi od udziału x. Zatem pochodna μ(P1) względem σ(P1) jest pochodną zewnętrzną, natomiast zarówno pochodna μ(P1) względem x jak i σ(P1) względem x jest pochodną wewnętrzną. Aby wyznaczyć pochodną zewnętrzną, wyznaczamy najpierw wewnętrzną zgodnie ze wzorem:

(3)


Na podstawie (1) dostajemy:

(4)


Na podstawie (2) dostajemy

(5)


Kolejny krok polega na tym, że przesuwamy po krzywej portfel P1 w stronę M. W punkcie M udział x wynosi 0. Uwzględniając to i podstawiając (4) i (5) do (3) otrzymujemy:

(6)


Przedostatni krok polega na spostrzeżeniu, że w punkcie M nachylenie krzywej minimalnego ryzyka jest równe nachyleniu CML. Przypomnijmy, że wzór na oczekiwaną stopę zwrotu portfela CML jest dany wzorem:

(7)


Dla przypomnienia - tutaj wyprowadzam CML.

Zatem tangens kąta nachylenia krzywej jest równy współczynnikowi kierunkowemu CML:



Po przekształceniu tego równania otrzymujemy:



Upraszczając to zapisujemy:



Ostatni krok polega na zauważeniu, że powyższą procedurę możemy powtarzać dla każdego i-tego waloru. Zastąpimy A literką i:



I to jest właśnie równanie SML.

Ponieważ beta(i) i μ(i) będą zmieniać swoje wartości dla różnych i-tych aktywów, natomiast R(f) i μ(M) są stałe, to możemy potraktować SML jako zwykłą funkcję liniową. Wielkość R(f) - μ(M) to współczynnik kierunkowy SML. Graficznie SML przedstawia rysunek:



Teraz udowodnimy, że SML stanowi uogólnienie CML. Wzór na betę zawiera kowariancję. Przypomnijmy, że kowariancja może być wyrażona za pomocą wzoru:



gdzie ρ(i,M) to współczynnik korelacji liniowej pomiędzy walorem i oraz M.

Zatem równanie SML można wyrazić w postaci:



Łatwo zauważyć, że gdy współczynnik korelacji równa się 1, wtedy SML = CML. Dokładnie tak; SML staje się CML, ponieważ walor i zmienia się dokładnie z taką samą siłą i kierunkiem jak M. W końcu w CML siedzi zawsze pewna część M, natomiast drugą część stanowi niezmienna stopa zwrotu wolna od ryzyka R(f).

Należy rozumieć, że SML jest rozszerzeniem CML na wszelkie aktywa kapitałowe. Portfele CML były efektywne w sensie Markowitza. Portfele SML muszą być dobrze wycenione, a nie muszą być efektywne.

2. Współczynnik beta

Współczynnik beta jest często określany mianem ryzyka systematycznego (rynkowego), gdyż wskazuje na wrażliwość zmiany ceny aktywa na zmiany ceny portfela rynkowego. Współczynnik beta decyduje o tym, jaką część premii za ryzyko rynku stanowi premia za ryzyko z tytułu inwestycji w portfel ryzykowny. Można bowiem zapisać, że


Jeżeli beta=0, wówczas stopa zwrotu i-tego waloru nie zależy od zmian koniunktury giełdowej. Jeżeli 0 < beta < 1, wówczas poprawie koniunktury na giełdzie mierzonej przyrostem tempa wzrostu portfela rynkowego (przybliżanego indeksem giełdowym) o 1% towarzyszy przyrost stopy zwrotu i-tego waloru o mniej niż 1%. W przypadku, gdy beta=1 stopa zwrotu z analizowanego waloru wzrasta w takim samym tempie jak indeks giełdowy. Jeżeli beta > 1, wtedy poprawa koniunktury giełdowej mierzona przyrostem tempa wzrostu indeksu giełdowego o 1% wywołuje przyrost stopy zwrotu i-tego waloru o więcej niż 1%. Ujemna wartość współczynnika beta może być interpretowana jako przejaw kształtowania się stopy zwrotu wbrew tendencji panującej na rynku, czyli oznacza jej spadek o beta% w sytuacji poprawy koniunktury o 1%.

Z jednej strony, jeśli akcje są silniej skorelowane z rynkiem, to rośnie beta. Z drugiej strony, jeśli zmienność akcji rośnie szybciej niż zmienność rynku, wtedy też rośnie beta. Beta nazywa się ryzykiem systematycznym, ponieważ nie ma sposobu na jego dywersyfikację - będzie systematycznie towarzyszyć inwestycji.

4. Równowaga na rynku kapitałowym

Co by się stało, gdyby oczekiwana stopa zwrotu nie leżała na linii rynku papierów wartościowych?

a) Leży powyżej SML

μ(i) > R(f)+ β[μ(m) - R(f)] => μ(i)- β[μ(m) - R(f)] > R(f).

Aktywa te stanowią bardzo dobry interes. Po skorygowaniu ich stopy zwrotu o ryzyko przynoszą wciąż wyższy przychód niż aktywa wolne od ryzyka. Jeśli inwestorzy odkryją, że takie aktywa istnieją, zechcą je kupić. Ktoś musi im sprzedać, kto również widzi tę zależność. Żeby więc inwestor mógł kupić aktywa, będzie musiał podnieść swoją cenę. Ponieważ stopa zwrotu to (cena 1 - cena 0)/(cena 0), cena 0 wzrośnie, a więc stopa zwrotu spadnie, tak że nadwyżka zysku zostanie zredukowana.

b) Leży poniżej SML

μ(i) < R(f)+ β[μ(m) - R(f)] => μ(i) - β[μ(m) - R(f)] < R(f).

Wszystko na odwrót. Aktywa te stanowią bardzo zły interes. Po skorygowaniu ich stopy zwrotu o ryzyko przynoszą niższy przychód niż aktywa wolne od ryzyka. Jeśli inwestorzy odkryją, że takie aktywa istnieją, zechcą je sprzedać. Ktoś musi od nich kupić, kto również widzi tę zależność. Żeby więc inwestor mógł sprzedać aktywa, będzie musiał obniżyć swoją cenę 0, co oznacza wzrost stopy zwrotu, czyli redukcję niepożądanej straty.

Rynek powinien więc dążyć do równowagi, czyli do spełnienia równania SML, μ(i) = R(f)+ β[μ(m)-R(f)]

5. Problemy praktyczne

Jeśli oczekiwana stopa zwrotu nie będzie leżeć na linii SML, to CAPM stwierdza, że rynek nie jest efektywny. Należy być jednak ostrożnym w stawianiu tezy o nieefektywności rynku, bo założenie o jednorodności i niezależności parametrów w czasie mogą być nieprawdziwe. (Należy wykorzystać wtedy uogólniony model CAPM).

W końcu trzeba znów podkreślić, że na dziś CAPM jest nieweryfikowalny. Portfel rynkowy bowiem zawiera wszelkie, nawet bardzo specyficzne aktywa na rynku (przy założeniu, że posiadają mierzalne parametry stopy zwrotu), będąc przy tym efektywnym w sensie Markowitza. Portfel indeksu giełdowego, który ma zastępować portfel rynkowy, nie musi być efektywny. Jeśli jakiś walor (portfel) uzyskuje stopę zwrotu średnio większą od indeksu giełdowego, to tylko w tym sensie oceniamy, że przynosi on ponadprzeciętne zyski. Jeśli słyszymy, że jakieś badanie wykazało, że CAPM nie sprawdza się w praktyce, to możemy być pewni, że badacz wcale tego nie udowodnił (na dziś). W istocie portfel rynkowy będzie stanowił indeks giełdowy tylko przy założeniu, że wszyscy inwestorzy będą racjonalni (pełne wyjaśnienie tego zagadnienia we wpisie: Dlaczego indeks ważony kapitalizacją uważany jest za benchmark? ).

6. Podsumowanie

CAPM-SML stanowi swego rodzaju uogólnienie CAPM-CML, rozszerzając go na wszelkie aktywa kapitałowe. Model ma na celu prawidłowo wycenić dowolny walor poprzez wyznaczenie optymalnej struktury zysku jaki on generuje i ryzyka systematycznego towarzyszącego mu. Jest to model zupełnie różny od CML z dwóch związanych ze sobą powodów. Po pierwsze nie służy on inwestorowi pasywnemu, który jedynie dywersyfikuje portfel, lecz przedsiębiorczemu, aby mógł sprawdzić hipotezę rynku efektywnego. Na podstawie SML inwestor może oszacować czy walor jest przewartościowany, niedowartościowany czy dobrze wyceniony. Po drugie zapis SML - choć na pierwszy rzut oka bardzo podobny do CML - znaczy kompletnie co innego. W modelu CML inwestor kupuje w pewnych proporcjach wolne od ryzyka na przykład obligacje skarbowe i portfel rynkowy. Ograniczają go jedynie jego możliwości kapitałowe, stąd wyznacza on własną kombinację zysku wolnego od ryzyka i oczekiwanego zysku z portfela rynkowego. W modelu SML nie musi kupować żadnych obligacji skarbowych ani też portfela rynkowego. Instrumenty te stają się jedynie punktem zaczepienia przy osiąganiu stopy zwrotu z akcji czy innych aktyw kapitałowych. Implikacją jest to, że na efektywnym rynku, czyli na linii SML, giełda pozwala zarobić na dowolnym papierze wartościowym lub portfelu dokładnie tyle ile daje papier wolny od ryzyka (cena za czas) plus tyle ile wynosi premia za ryzyko przemnożona przez ilość ryzyka (cena ryzyka).


P.S. Chociaż CAPM został uogólniony na model APT (Teorię Arbitrażu Cenowego wprowadzoną przez Stephana Rossa), to jednak ten drugi nie jest już modelem tak zwartym teoretycznie jak CAPM. CAPM chociażby teoretycznie (a może nawet kiedyś praktycznie) jest falsyfikowalny, a APT nawet teoretycznie nie jest. Jego uogólnienie polega po prostu na uogólnieniu czynników ryzyka, nie mówi się jednak jakie są to czynniki. Jajuga podaje, że na amerykańskim rynku takimi czynnikami są m.in. zmiany PKB, zmiany stopy bezrobocia, zmiany stopy inflacji, zmiany indeksu produkcji przemysłowej, zmiany w różnicy stóp dochodu obligacji o wysokim i niskim ryzyku itp. W sumie więc wszelkie wskaźniki ekonomiczne. Oczywiście przy większej liczbie zmiennych objaśniających, linia SML (tutaj nazywana linią arbitrażu cenowego) staje się hiperpłaszczyzną. W modelu APT nie musi być wcale oczekiwanego zysku portfela rynkowego. Można powiedzieć, że został on rozbity na wiele czynników, bowiem już ten zysk powinien mieć zakodowaną informację o wszystkich przedstawionych elementach wpływających na zmiany kursu. APT jest to model do eksperymentowania, nie do weryfikowania.

W ten sposób zakończyliśmy klasyczną teorię rynków kapitałowych. Należy jednak powiedzieć wprost - to jedynie wstęp do modeli uogólnionych.

Źródło:

1. T. Bołt, Rynki finansowe, część II, rok akademicki 2004/2005;
2. H. R. Varian, Mikroekonomia, W-wa 2002.
3. K. Jajuga, T. Jajuga, Inwestycje. Instrumenty finansowe, ryzyko finansowe, inżynieria finansowa, 2006.