piątek, 27 kwietnia 2012

Jak CAPM wiąże się z teorią wyceny akcji? Przykład wyceny KGHM

CAPM zarówno swoją nazwą (Capital Asset Pricing Model to po polsku model wyceny aktywów kapitałowych) jak i istotą nawiązuje do wyceny akcji, więc tytułowe pytanie wydaje się bez sensu. W rzeczywistości model ten nie wyznacza bezpośrednio wartości wewnętrznej akcji, lecz właściwą oczekiwaną stopę zwrotu dowolnego aktywa kapitałowego (aktywom o określonym ryzyku rynkowym musi towarzyszyć odpowiednia oczekiwana stopa zwrotu). Zbyt wysoka oczekiwana stopa zwrotu w stosunku do ryzyka sprawi, że cena akcji szybko pójdzie w górę. Akcje znajdują się bowiem powyżej SML, a skoro cena wzrośnie, to oczekiwany zysk spadnie, a więc akcje powrócą na SML. Z kolei zbyt niska oczekiwana stopa zwrotu spowoduje, że cena szybko spadnie. Wtedy akcje znajdują się poniżej SML, a skoro cena spadnie, to oczekiwany zysk wzrośnie, a więc akcje powrócą na SML.

Fakt - CAPM można w takim sensie użyć jako narzędzie do wyceny akcji. Jednak rodzą się problemy w ogólniejszych przypadkach. W sytuacji gdy spółka dopiero co została założona lub gdy akcje dopiero co wchodzą na giełdę nie ma możliwości użycia CAPM. Innym kłopotem jest sytuacja, gdy spółka jest młoda i znajduje się w fazie ekspansji, a także gdy następują jakieś bardzo istotne fundamentalnie zmiany dla spółki - wtedy liczy się przede wszystkim analiza fundamentalna. Nawet w tych przypadkach nie wolno lekceważyć CAPM, ponieważ obecnie naukowcy pracują nad coraz bardziej zaawansowanymi rozszerzeniami i uogólnieniami tegoż modelu. Niemniej wszelkie niuanse i subtelności w zmianach wyceny mogą jedynie zostać odkryte w toku analizy fundamentalnej.

W sytuacji, gdy spółka wypłaca dywidendy i oczekuje się, że będą one rosły w średnim tempie g, wtedy możemy zastosować model wyceny Gordona:



gdzie:

P(0) - obecna wartość wewnętrzna akcji
D(1) - oczekiwana dywidenda w okresie 1
r - wymagana stopa zwrotu przez akcjonariusza (koszt kapitału własnego)
g - oczekiwana stopa wzrostu dywidendy

Krytycy tego prostego modelu przekonują, że jest on nieprzydatny, ponieważ istnieje zbyt duża niepewność co do przyszłości nawet stabilnej firmy; zmienność i cykliczność otoczenia gospodarczego nie pozwala wyznaczyć precyzyjnie wartości, natomiast inwestorzy różnią się znacznie oczekiwaniami na temat przyszłych zysków. Ponadto nawet niewielkie różnice pomiędzy tempem wzrostu zysku/dywidendy a kosztem kapitału własnego powodują silne zmiany w wycenie. Koszt kapitału własnego jest pojęciem abstrakcyjnym, umownym, ponieważ jego oszacowanie jest często intuicyjne. Powyższej krytyce można przeciwstawić 5 kontrargumentów.

Po pierwsze budowa modelu wyceny nie polega na znajomości przyszłości, lecz na posiadaniu racjonalnych oczekiwań. Racjonalne oczekiwania są często błędnie rozumiane przez inwestorów. Na przykład uważają, że wartość wewnętrzna powinna odzwierciedlać oczekiwania (prognozy) zarządu spółki lub też ich własne optymistyczne oczekiwania. W rzeczywistości rynek ocenia wartość obiektywnie, a więc uśrednia pesymistyczne i optymistyczne założenia. Oczywiście optymistyczne założenia będą mieć większą wagę, jeśli spółka dobrze sobie radziła w przeszłości.

Po drugie w psychologii, a także w ekonomii behawioralnej dobrze znane jest zjawisko regresji do średniej. Z tego punktu widzenia optymistyczne założenia, że firma będzie się rozwijać szybciej niż rynek, nie mogą być odpowiednie w długim okresie czasu, ponieważ należy założyć zbieżność do tempa rynku. Mogą przy tym istnieć pewne wyjątki, jeśli np. spółka ma już dziś przewagę monopolistyczną i jest w stanie ją utrzymać. Podobnie w drugą stronę - jeśli firma w najbliższym czasie będzie się wolniej rozwijać od rynku, to w dalszych okresach powinniśmy uwzględnić powrót do średniej. Mogą istnieć wyjątki także w tej sytuacji, np. jeśli zarząd ewidentnie niszczy wartość firmy lub jest strukturalnie nieefektywny.

Obok zjawiska regresji do średniej, można także zasygnalizować "działanie" prawa wielkich liczb. Zgodnie z tym prawem średnia z próby dąży wraz ze wzrostem liczebności próby do średniej z populacji. Prawo regresji do średniej nie jest prawem wielkich liczb. To pierwsze prawo jest prawem "natury", z kolei drugie - prawem matematyki.

Po trzecie bardzo ważny jest wyraz D(1) w modelu Gordona. To dzięki niemu możemy kalibrować zmianą wyceny. Wydaje się rozsądne założenie, że o ile dywidendy w okresach dalszych mogą rosnąć w średnim tempie g, o tyle dywidenda w okresie 1 może być dość dokładnie oszacowana, ponieważ zysk w okresie 1 można prognozować w oparciu o przeszłe i bieżące informacje.

Po czwarte racjonalny inwestor musi "chronić się" przed zbyt dużą niepewnością przyszłego wzrostu zysku firmy tak samo jak chroni się przed skutkami inflacji. Jeśli inflacja wzrasta, to będzie on wymagał większego zwrotu skorygowanego o stopę inflacji. Podobnie dzieje się, gdy firma potrafi zwiększyć tempo wzrostu zysku wykorzystując zwiększoną rentowność kapitału własnego. Inwestor w takiej sytuacji także musi zwiększyć wymaganą stopę zwrotu, ponieważ rodzi się niepewność, że ROE powróci do średniej po jakimś czasie. Z drugiej jednak strony nie wie jak oszacować takie ryzyko, bo nie ma na czym się oprzeć. Dlatego koszt kapitału własnego rośnie, ale nie aż tak mocno jak tempo wzrostu zysku (ani więc samo ROE). Kwestia ile dokładnie wzrośnie jest rzeczywiście złożona, ale tematem tym należałoby się zająć oddzielnie. Tak czy inaczej inwestor nie pozwoli, aby różnica pomiędzy r a g stała się nagle zbyt mała.

Po piąte siła wymienionych argumentów pozwala także wykorzystać prosty CAPM, który precyzyjnie wyznacza oczekiwaną stopę zwrotu. Ponieważ oczekiwana stopa zwrotu = wymagana stopa zwrotu akcjonariusza = koszt kapitału akcjonariusza, to teza o tym, że koszt kapitału własnego stanowi zbyt niejasną koncepcję traci rację bytu - nawet jeśli spółka nie była dotąd notowana na giełdzie, to do obliczenia wymaganej stopy zwrotu możemy wykorzystać dane statystyczne dotyczące spółki podobnej, ale notowanej na giełdzie zgodnie z twierdzeniem, że w długim okresie oczekiwana stopa zwrotu zbiega do średniej (w tym przypadku dla danej branży). Większy problem powstaje dla spółki o zupełnie nowym profilu czy zupełnie nowej branży nieobecnej na rynku. W tym przypadku ryzyko jest na tyle duże, że należy po prostu potraktować wartość księgową kapitału własnego jako wartość wewnętrzną, co spowoduje, że wymagana stopa zwrotu będzie bliska ROE. Większy problem powstaje w sytuacji, gdy spółka już istnieje jakiś czas na rynku, nie jest notowana na giełdzie i jednocześnie stosunek zadłużenia do kapitału własnego znacznie się różni od średniej ze spółek w branży. Wielkość zadłużenia wpływa bowiem na koszt kapitału własnego. Niektórzy próbują rozwiązać to zagdnienie wykorzystując tzw. równanie Hamady. Niestety podejście to zazwyczaj błąd, gdyż aby stosować r. Hamady trzeba rozumieć skąd ono wynika. Najlepsze rozwiązanie tego problemu polega na tym, aby
(a) obliczyć koszt kapitału dla branży lub spółki podobnej za pomocą CAPM ,
(b) obliczyć stosunek [ROE(dla danej spółki) / ROE(dla branży lub spółki podobnej) ]
(c) przemnożyć (a) przez (b).


Tak więc CAPM można włączyć do modelu wyceny dla każdej akcji. Przypomnijmy wzór CAPM-SML:



μ(i) - oczekiwana stopa zwrotu waloru i
Rf - stopa wolna od ryzyka rynkowego
beta(i) - ryzyko rynkowe waloru i
μ(M) - oczekiwana stopa zwrotu z portfela rynkowego (M)


Do wyceny wykorzystujemy prosty CAPM, ponieważ interesuje nas tylko uśredniona oczekiwana przyszłość wzrostu akcji. Koszt kapitału własnego w dużej części musi odzwierciedlać wynagrodzenie za ryzyko fundamentalne, a je możemy jedynie ocenić z perspektywy teraźniejszości (bieżących oczekiwań).

Przykład dla KGHM.

Akcje KGHM cieszą się dużą popularnością, ale jednocześnie są trudne do wyceny. Różnice w wycenach tej spółki różnych instytucji są olbrzymie. Fakt - ogromna zmienność cen miedzi powoduje, że wartość KGHM może bardzo szybko spaść i bardzo szybko wzrosnąć. Jednak paradoksalnie jest to właśnie dość pozytywny aspekt wyceny, ponieważ racjonalne oczekiwania będą polegały na uśrednianiu możliwych wydarzeń, a większe ryzyko będzie uwidocznione w większej oczekiwanej stopie zwrotu.

Wyznaczmy roczną wymaganą stopę zwrotu KGHM za pomocą CAPM. Dane obejmują okres od końca 1997 do końca 2011. Pobieramy dane ze stooq.pl. Wymagana stopa zwrotu obejmuje nie tylko wzrost kapitałowy ale także z dywidend. Stooq.pl zawiera opcję uwzględniania dywidend w kursie. Na podstawie wpisu Dlaczego indeks ważony kapitalizacją uważany jest za benchmark? wiadomo już, że indeks giełdowy stanowi przybliżenie portfela rynkowego. Przyjmiemy oczywiście za portfel rynkowy WIG. WIG jest to indeks uwzględniający także dywidendy.
Stopy zwrotu wraz ze średnimi przedstawia poniższa tabela:



Możemy graficznie porównać KGHM z WIG:



KGHM w tym okresie wzrósł wielokrotnie silniej od WIG. Roczna średnia arytmetyczna stopa zwrotu wyniosła prawie aż 49%, podczas gdy indeks 11,5%. Powstaje pytanie czy średnia stopa zwrotu KGHM nie była za duża? KGHM posiada dużą oczekiwaną stopę zwrotu, ponieważ jego wartość silnie zależy od czynników zewnętrznych: cen miedzi (które zależą od sytuacji makroekonomicznej) oraz czynników politycznych. Aby oszacować właściwą wymaganą stopę zwrotu, użyjemy wzoru SML.

Zanim jednak zastosujemy ten wzór, powinniśmy sprawdzić czy stopa zwrotu KGHM nie posiada przypadkiem rozkładu Levy'ego z nieskończoną wariancją. Ja używam programu J. P. Nolana Stable. Oczywiście obserwacji jest tu zdecydowanie za mało, by móc coś konkretnego powiedzieć. Jednak zamiast częstości rocznych, możemy użyć do sprawdzianu częstości kwartalnych. Program wylicza, że dla tych danych parametr alfa = 2, czyli KGH ma skończoną wariancję. Możemy zatem spokojnie zastosować klasyczny SML.

Pewien problem leży w wyznaczeniu stopy wolnej od ryzyka Rf. Za Rf najczęściej przyjmuje się średnią rentowność 52-tygodniowych bonów skarbowych. Jednak średnia rentowność bonów w danym okresie, których dane uzyskałem z portalu money.pl wynosi 8,59%, co jest spowodowane występowaniem bardzo dużej inflacji w początkowych latach badanego okresu.

Wydaje się, że aby prawidłowo wyznaczyć r, trzeba używać tych samych okresów co KGH zarówno dla WIG jak i Rf. Wymagana stopa zwrotu w różnych okresach może mieć bowiem inne parametry. Problem jednakże polega na tym, że przecież na podstawie danych historycznych chcemy wyliczyć oczekiwaną stopę zwrotu w teraźniejszości i przyszłości, a więc aproksymujemy przeszłość na teraźniejszość i przyszłość. Ale z tego wynika, że przyjmujemy te same parametry co w przeszłości. Nie można zgodzić się na to, aby Rf wyniosła 8,59%, ponieważ dziś rentowność bonów sk. wynosi 4,58%. W momencie gdy inflacja zaczęła silnie spadać, rentowność zaczęła się normować. I tak od 2003 r. do końca 2011 średnia rentowność bonów wynosi 5,2%. Przyjmiemy zatem za Rf = 5,2%, ponieważ taką wolną od ryzyka stopę można założyć w przyszłości.

Ostatnia kwestia to beta, do obliczenia której używamy wzoru:



Średnia stopa zwrotu WIG w danym okresie wynosi 11,48%. Na marginesie dodam, że o ile stopą wolną od ryzyka można manipulować, to już samą średnią stopą WIG nie można. Beta liczona jest bowiem w oparciu o stopy w danym w okresie, dlatego też Rm musi być dokładnie średnią arytmetyczną z tego okresu. Nie może być geometryczną średnią, ani jakąś inną którą sobie arbitralnie ustalamy. To jest zabronione, bo beta uwzględnia prawdziwą średnią arytmetyczną. Zatem jeśli np. w danym okresie Rm = 14%, to wstawiamy 14%, a nie 10% bo nam się tak wydaje lepiej.

Po obliczeniu bety, która wyszła 2,4 podstawiamy dane do wzoru na CAPM:

r = 5,2 + 2,4*(11,48-5,2) = 20,3%.

Otrzymana wymagana stopa zwrotu dla KGH wynosi 20,3%.

Porównując średnią stopę zwrotu KGH 49% z wymaganą stopą zwrotu 20,3% możemy początkowo wnioskować, że oczekiwana stopa zwrotu dla KGHM leży powyżej SML, czyli rynek jest czy był nieefektywny - KGH był za nisko wyceniony. W rzeczywistości ten wniosek może się okazać tylko pozorny. Arytmetyczna średnia będzie prawidłowa dla długich okresów obserwacji, lecz dla krótszych przypisze zbyt dużą wagę obserwacjom odstającym. Aby rozwiązać ten problem można użyć średniej geometrycznej za pomocą wzoru:

średnia geometryczna stopa zwrotu = (wartość końcowa/wartość początkowa)^[1/(n-1)] - 1.

Podstawiając dane dostaniemy (110,6/6,9229)^(1/(15-1)) - 1 = 21,9%.

Jak widać średnia geometryczna bardzo bliska jest wartości otrzymanej za pomocą CAPM. Jednakże średnia geometryczna ma jedną podstawową wadę: w ogóle nie uwzględnia wartości środkowych. Dlatego najlepszą estymację średniej uzyskuje się stosując regresję liniową wg następującego wzoru:

ln(kurs) = a + b*t + e

Współczynnik kierunkowy (b) tej funkcji staje się średnim procentowym wzrostem zmiennej objaśnianej. Podstawiając dane dla KGHM, otrzymałem b = 22,4%.

A zatem w tym przypadku średnia stopa zwrotu jest bardzo zbliżona do geometrycznej i nieco mniej do CAPM. Niemniej odchylenie jest niewielkie i widać, że CAPM prawidłowo wyliczył wymaganą stopę zwrotu. KGHM leży praktycznie na SML (rynek prawidłowo wycenia akcje).

Powstaje jednak pytanie czy statystyczna wycena (czy statyczna jak kto woli) będzie odpowiadać fundamentalnej. na razie wiemy tylko, że KGHM statystycznie jest dobrze wyceniony, co nie znaczy, że jest dobrze wyceniony na chwilę obecną - pełną dynamikę wyceny może jedynie oddać model dyskontowy uwzględniając fundamenty. Aby sprawdzić czy dzisiejsza rynkowa wycena KGHM jest prawidłowa, użyjemy wzoru Gordona, gdyż KGHM jest spółka, która konsekwentnie wypłaca dywidendy od 2005 r. Tak więc dane będą dotyczyć okresu 2005-2011.

Aby wyznaczyć wartość wewnętrzną akcji KGHM potrzebujemy wyliczyć tylko dwie zmienne: g oraz D(1), ponieważ r już obliczyliśmy. Zajmijmy się g. We wpisie Analiza tempa wzrostu zysku firmy pisałem o 3 metodach szacowania stopy wzrostu zysku: historycznej, eksperckiej i fundamentalnej (teoretycznej). Najlepiej użyć wszystkich 3 i połączyć. Tak też zrobimy. Z historycznego punktu widzenia tempo g wyznaczamy w oparciu o parametr b' tendencji rozwojowej:

ln(dywidenda) = a' + b'*t

Ocena parametru b' wynosi 21,1%, choć przy dużym odchyleniu standardowym. Wartość ta jest większa niż r, więc nie może być użyta do wyceny: w którymś miejscu popełniamy błąd. Od razu warto sprawdzić czy przypadkiem nie mamy tu do czynienia z trendem nieliniowym. Logarytmiczna dywidenda ma następujący wykres:



Danych jest zbyt mało, by rozsądzać o trendzie. Powinniśmy więc zastąpić dywidendy zyskami. Sprawdźmy jak zyski rosną od 1998 do 2010 r. (pomijamy 2011, bo dywidendy odnoszą się do zysku z poprzedniego roku). Wyznaczenie tendencji rozwojowej musi tu odbyć się bez stosowania logarytmów, gdyż zyski w niektórych latach były ujemne. W takiej sytuacji często rozwiązuje się ten problem następująco:
1. najpierw wyznacza się regresję liniową dla samej zmiennej, czyli zysku, aby uzyskać średnią zmianę zysku równą współczynnikowi kierunkowemu regresji,
2. następnie oblicza się średni zysk w danym okresie
3. Dzieli się współczynnik kierunkowy z (1) przez średni zysk z (2), aby uzyskać średnią procentową zmianę zysku.

Okazuje się, że zysk średnio rośnie w tempie 24%, czyli zdecydowanie nadal zbyt dużo.

Widać więc, że metoda historyczna w tym przypadku jest niewystarczająca. Gdybyśmy dodatkowo posiadali pewne fundamentalne informacje, być może problem udałoby się rozwikłać. Podpowiedź znajdujemy w zdarzeniach ostatnich miesięcy.

W 2011 r. akcjonariusze KGHM mieli wyjątkowego pecha. Z jednej strony wyniki spółki były rekordowe, ale stało się tak w dużej części dzięki zdarzeniom jednorazowym. Z drugiej strony pojawiły się silne sygnały recesyjne w Europie i USA, co natychmiast przełożyło się na spadki notowań miedzi, a więc także KGHM. Pod koniec roku, gdy wydawało się, że kurs akcji może wrócić do ostatnich maksimów, jak obuchem uderzyła w rynek wiadomość o wprowadzeniu przez rząd podatku od niektórych kopalin, w tym miedzi. Kurs KGHM natychmiast zareagował potężną wyprzedażą.

Te negatywne zdarzenia wpłynęły na całą strukturę wyceny akcji. Łatwo to dostrzeżemy, gdy obliczymy r z CAPM ucinając rok 2011. Wtedy okazuje się, że r = 26,2%. Płyną z tego ważne wnioski. Stopa r prawdopodobnie zmniejszyła się z ok. 26 do ok. 20%. Również g spadło. Pytanie jak bardzo? Aby uzyskać odpowiedzieć na to pytanie, musimy się dowiedzieć, jaki wpływ ma nowy podatek na wyniki spółki. W artykule na forbes.pl Podatek od kopalin zmniejszy potencjał KGHM czytamy:

Zdaniem analityka wprowadzenie podatku od kopalin da budżetowi Polski, przy obecnym poziomie cen miedzi, prawie 2,5 mld zł rocznie dodatkowych wpływów. To oznacza jednak, że KGHM będzie miał właśnie o taką kwotę mniej pieniędzy na inwestycje, dywidendę, czy inne projekty, na które chciałby wydać te pieniądze.


Połączmy ten fragment z prognozą zysku KGHM na 2012 r. W artykule money.pl Najnowsza prognoza zysku netto dla KGHM czytamy, że spółka zakłada zysk na poziomie 3,8 mld zł. Dodając do 3,8 wartość 2,5 dostajemy 6,3 mld. Zatem stosunek 3,8/6,3 = 0,6 jest to wielkość korygująca zysk o podatek od kopalin. Oznacza to, że aby oszacować g po uwzględnieniu podatku, musimy przemnożyć stare g przez 0,6. Z regresji otrzymaliśmy 21,1%. Oznacza to, że właściwe g = 0,6*21,1% = 12,66%.

Porównamy następnie ten wynik z metodą fundamentalną. Metoda ta polega na zastosowaniu dla ROE = const, wzoru g = k*ROE, gdzie k = 1-dywidenda/zysk netto. Natomiast w ogólnym przypadku g(t) = k(t)*ROE(t) + s(t), gdzie s(t) = ROE(t)/ROE(t-1)-1. Oczywiście ROE zmienia się dla każdego okresu, ale nas interesują średnie wielkości - jeśli średnie ROE istnieje dla danego okresu, to różnice w ROE w różnych latach można potraktować jak odchylenia statystyczne. Dlatego też używamy pierwszego wzoru na g. Średni stosunek dywidenda/zysk netto w l. 2005-2011 wyniósł 0,485, czyli k = 1-0,485 = 0,515. Średnie ROE w okresie 2004-2010 wyniósł 38,7% (dywidenda liczona jest od zysku z zeszłego roku, czyli od 2004 do 2010). Czyli

g = 0,515*38,7% = 19,9%.

Otrzymany wynik metodą fundamentalną jest bardzo zbliżony do uzyskanego za pomocą regresji liniowej. Aby uzyskać właściwą wartość g, skorygujemy również tę wielkość o 0,6. Stąd g za pomocą metody fundamentalnej wynosi:

g = 0,6*19,9% = 11,94%.

Aby połączyć metodę ekonometryczną z fundamentalną, obliczmy średnią wyników z obu metod:

g = (12,66+11,94)/2 = 12,3%.

Liczba akcji KGH wynosi 0,2 mld. Ponieważ zysk KGHM w 2012 r. zakładany jest na poziomie 3,8 mld zł, to zysk na akcję wynosi 3,8 zł/0,2 = 19 zł. Wcześniej podałem, że średni stosunek dywidenda/zysk wynosi 0,485. Oczekiwana dywidenda z zysku za 2012 r. wypłacona w okresie 1 (w roku 2013) równa się:

0,485*19 zł = 9,215.

Obecnie jesteśmy po 1 kwartale 2012 r. + 1 miesiąc. Zatem oczekiwana dywidenda w okresie 1 dotyczy 2013 + 1 kwartał 2013 + 1 miesiąc 2013. Oczekiwana dywidenda wypłacona za rok, czyli na początku maja 2013 r. uwzględnia dodatkowe odpowiednio proporcjonalne tempo wzrostu w tym czasie, które wynosi 12,3%/4 + 12,3%/12 = 4,1%. (Ponieważ obliczamy wzrost za 1 kwartał + 1 miesiąc). Oczekiwana dywidenda wynosi:

D(1) = 9,215*(1+4,1%) = 9,6 zł.

Podstawmy dane do wzoru Gordona:

P(0) = D(1)/(r - g) = 9,6 /(0,203-0,123) = 120.

Nie można jednak zapomnieć, że dywidenda za 2011 r. jeszcze nie została wypłacona, ale jest już pewna i powiększa wirtualnie kapitał inwestora, a więc i wartość akcji. Gdy dywidenda zostanie wypłacona, kurs zmniejszy się o jej wysokość. W tym momencie wartość wewnętrzna nadal uwzględnia więc wartość jeszcze niewypłaconej dywidendy za 2011 r. Na podstawie artykułu Dywidenda KGHM: możliwa wypłata 18 zł na akcję stwierdzamy, że jest to 18 zł. Tak więc całkowita wartość wewnętrzna akcji KGHM wynosi:

P(0) = 120 + 18 = 138 zł.

A teraz przyglądamy się kursowi akcji. Dziś kurs KGHM wynosi 137,7 zł.

Aby upamiętnić, że tyle rzeczywiście cena obecnie wynosi wklejam wykres:



Podsumowanie.

Przedstawiłem teoretyczną podstawę połączenia CAPM i wyceny akcji za pomocą modelu dyskontowego, a także uzasadniłem użycie prostego modelu Gordona. Przeprowadziłem badanie dla KGHM w dwóch kierunkach: użycia CAPM jako narzędzia estymacji oczekiwanej stopy zwrotu, którą następnie można zastosować do modelu Gordona. I tak po pierwsze prosty CAPM świetnie się sprawdził jako metoda wyznaczania oczekiwanej stopy zwrotu, ponieważ średnio tyle mniej więcej wynosi faktyczny zwrot z akcji. Po drugie model Gordona w połączeniu z CAPM również bardzo dobrze się sprawdził - widać, że rynek właśnie tej metody używa, ponieważ obecny kurs KGHM jest praktycznie równy teoretycznej wycenie. Prawdopodobnie stało się tak przez przypadek, ale zbieżność teorii do rzeczywistej ceny jest imponująca. Możemy stwierdzić, że rynek okazuje się fundamentalnie bardzo efektywny w przypadku akcji KGHM.

Źródło danych statystycznych:

stooq.pl
bankier.pl
money.pl

piątek, 30 marca 2012

Teoria portfela nie implikuje efektywnego rynku

Jak zostało powiedziane, teorię portfela (zarówno klasyczną Markowitza i CML, jak również uogólnioną czy też w wersji alternatywnej) należy stosować pod warunkiem, że spełnione są jej założenia o istnieniu oczekiwanej stopy zwrotu i (mierzalnego) ryzyka instrumentów finansowych. Jak się jednak dobrze zastanowimy, to dojdziemy do wniosku, że ta oczekiwana stopa zwrotu musi być właściwa - warunek ten oznacza, iż akcje muszą być dobrze wycenione. Dlaczego? Najlepiej zrozumieć to na przykładzie. Załóżmy, że kupujemy akcje PKO BP. Spółka ta rozwija się stabilnie w tempie wzrostu gospodarczego (ok. 7% rocznie). Ryzyko tutaj nie jest duże, więc nie powinniśmy oczekiwać dużych zwrotów. Oczekiwana stopa zwrotu powinna wynieść tyle co dla rynku polskiego, czyli ok. 11%. Gdyby więc oczekiwana stopa zwrotu PKO BP wyniosła aż 30%, to inwestorzy zaczęliby oczywiście rzucać się stadem na akcje, bo takiej okazji trudno przegapić. To spowodowałoby, że cena szybko wzrosłaby, a wówczas ostatni inwestorzy nie mogliby już osiągnąć zbyt dużych zwrotów. Pytanie brzmi: do jakiego punktu cena wzrośnie? Odpowiedź: cena wzrośnie do takiego punktu, aby oczekiwana stopa zwrotu wyniosła 11% (spadnie do takiego poziomu). Odwrotnie jeśli oczekiwana stopa zwrotu wyniesie tylko 5%. Tak mały zwrot jest nieopłacalny przy ponoszonym ryzyku, a zatem inwestorzy będą sprzedawać akcje. Cena spadnie do punktu aż oczekiwana stopa zwrotu wyniesie 11% (wzrośnie do takiego poziomu).

Widać więc, że jeśli akcje nie są prawidłowo wycenione, to nie opłaca się stosować teorii portfela: kupujemy akcje najbardziej niedowartościowane, sprzedajemy przewartościowane. Jeśli natomiast akcje są dobrze wycenione, to oczekiwana stopa zwrotu jest właściwa (czyli dobrze odzwierciedla ryzyko), zatem teoria portfela pozostaje ważna.

Warunek dobrze wycenionych akcji nie musi jednak oznaczać, że gracze są w pełni racjonalni lub że rynek jest w pełni efektywny. Może wystąpić sytuacja, gdy stopy zwrotu są skorelowane, daje się przewidzieć kierunek kursu i na tym dodatkowo zarobić, a jednocześnie akcje będą nadal dobrze wycenione. Możemy wszakże spojrzeć na wartość akcji w szerszym kontekście - nie jak na liczbę lecz przedział. Wartość akcji może się mieścić w pewnym przedziale z co najmniej dwóch powodów.

Po pierwsze inwestorzy mają często odmienne oczekiwania co do przyszłych zysków i dywidend. Jeden może uważać, że obecnie to już za drogo, drugi, że poziom cenowy jeszcze nie osiągnął optimum. Należy jednak pamiętać, że gracze mają racjonalne oczekiwania - uśredniają optymistyczne i pesymistyczne założenia, więc różnice oczekiwań nie muszą być wcale duże. Ale w jaki sposób konkretnie tworzą oczekiwania? Aby odpowiedzieć na to pytanie, musimy wrócić do postu Analiza tempa wzrostu zysku firmy. Są trzy podejścia oszacowania przyszłego tempa wzrostu: historyczne, eksperckie i fundamentalne. Metoda ekspercka jest oczywiście mocno subiektywna, choć jak wskazują np. badania O'Brien'a (1988) prognozy analityków dla kolejnych dwóch kwartałów pokonywały modele szeregów czasowych, dla kolejnych trzech kwartałów były tak samo dobre, zaś dla czterech naprzód już gorsze. W podejściu historycznym również występować może duża doza subiektywizmu, jeżeli średnie tempo wzrostu zysku spółki nie było dotąd jednorodne w czasie. W tworzeniu przyszłych oczekiwań należy wykorzystać wówczas Prawo Wielkich Liczb (zgodnie z którym średnia z próby dąży do średniej z populacji) lub znane w psychologii tzw. prawo regresji do średniej. Z tego właśnie względu w modelu wyceny akcji umieszcza się wartość rezydualną, która zakłada po pewnym czasie stały oczekiwany wzrost zysku. Okej, ale od którego okresu przyjąć ten stały wzrost zysku, skoro np. spółka zmieniła strategię lub dokonała restrukturyzacji, tak że po latach wychodzi na prostą? Oto jest pytanie. Z kolei w podejściu fundamentalnym w celu obliczenia parametrów wykorzystuje się metodę historyczną lub/i ekspercką. Dlatego subiektywnego punktu widzenia w praktyce raczej nie da się uniknąć. Dlaczego podkreśliłem "raczej"? Zawsze można porównać daną firmę do innych firm, które przechodziły kiedyś podobną drogę i na tej podstawie wyciągnąć wnioski. Problemem niestacjonarności w ekonomii zajmował się Hamilton w pracy z 1989, którą można przeczytać TUTAJ. Później powstało wiele publikacji na ten temat. S. Eickmeier TUTAJ poszukuje stacjonarnych i niestacjonarnych czynników wpływających na wzrost gospodarczy w strefie euro. Jedną z nowszych prac zajmującą się niestacjonarnością statystycznej aktywności gospodarczej w USA jest praca do przeczytania TUTAJ. Tak czy inaczej, są to tylko narzędzia ekonometryczne, natomiast oceny zawsze dokonuje badacz. Dlatego wcześniej napisałem, że inwestorzy mogą różnić się w szacunkach, ale różnice te mogą nie być wielkie. W każdym razie nie mogą być na tyle duże, aby wywołać długoterminowy trend. Do tego potrzeba czegoś więcej.

Po drugie na rynku panuje asymetria informacji. Niektórzy są lepiej poinformowani i dyskontują szybciej informacje. Ponieważ insider trading jest zakazany, inwestorzy ci odpowiednio się kryją, np. jeśli znają dobre wiadomości przed ogółem, kupują mniejszymi pakietami akcje wcześniej w odpowiednim okresie czasu, wywołując tym rosnący popyt. Inni gracze, np. stosujący analizę techniczną, wyłapują wczesny trend rosnący, co powoduje jego umocnienie. Dodatkowo dobre/złe informacje często występują seriami. Oczywiście racjonalny inwestor dyskontuje taki fakt w momencie ukazania się pierwszej pozytywnej/negatywnej informacji. Jednakże tutaj właśnie włącza się pierwszy podany wyżej powód - różnice w oczekiwaniach wpływu informacji na przyszłe wyniki spółki. Nawet jeśli po pojawieniu się jednej dobrej informacji, rynek natychmiast zdyskontuje ukazanie się prawdopodobnej serii kolejnych pozytywnych informacji, to wcale nie musi być zgody co do siły znaczenia tych następnych informacji. Jeśli np. PKO BP rośnie średnio 7% rocznie, ale w danym roku zysk netto wzrósłby o 15%, to rynek musi przeanalizować z czego to wynikło. Czy miały na to wpływ pojedyncze przypadkowe zdarzenia, czy też był to jakiś zaplanowany sukces inwestycyjny? Do tego wniosku rynek dojdzie rzecz jasna obiektywnie. Ale już wpływ samego zdarzenia jest mocno subiektywny. Mogło być tak, że akurat złożyły się jakieś szczególne okoliczności, które nie są możliwe do spostrzeżenia, a tym bardziej są niemierzalne, lecz pomogły osiągnąć taki rezultat, przy czym spółka przypisuje to własnym umiejętnościom. Jeśli jakieś szczęśliwe okoliczności do tego doprowadziły, wówczas rynek musi to odebrać jako zwykły fart - a zatem jako ten pierwszy wariant. Wtedy oczywiście rynek potraktuje to jako pojedyncze wydarzenie. Jeśli natomiast zadziałał tu jakiś czynnik strukturalny, to rynek musi to odebrać jako coś więcej - być może początek serii tak dobrych wyników. Ale jeśli nawet potraktuje jako zapoczątkowanie serii, to także może się różnić w tym, jak szybko ta seria wygaśnie i z jaką siłą.

Sprzężenia zwrotne pomiędzy różnicami oczekiwań a popytem spekulującym pozytywne/negatywne informacje na podstawie wzrostu/spadku kursu wywołanym przez insiderów może zatem skutkować pojawieniem się długiego trendu. Oznaczać to musi nieefektywność rynku lub niepełną racjonalność graczy.

No dobrze, ale wyobraźmy sobie sytuację, że kurs PKO BP rośnie przez 2 lata, a miesięczne stopy zwrotu są mocno skorelowane. Wiemy, że roczna oczekiwana stopa zwrotu z tej akcji wynosi mniej więcej 11%. Oznacza to, że miesięczna wynosi 0,9%. Jednakże akcje w ciągu tych dwóch lat rosną średnio miesięcznie 5%, czyli 80% rocznie. Oczywiście wiemy, że w długim okresie czasu średnia stopa wróci do wartości oczekiwanej, jednak co zrobić z takim przypadkiem średniookresowym? Potraktować jako przypadkowe odchylenie od normy czy też jako źle wycenioną akcję? Nie, ani to, ani to. Akcje mogą być ciągle dobrze wycenione, jeśli ta oczekiwana stopa zwrotu będzie właściwa przy odpowiednim ryzyku. Można pomyśleć, że ryzyko jest niewspółmiernie niskie w stosunku do stopy zwrotu. Jednak... problem polega właśnie na tym, że ów stosunek może się zmieniać w czasie. Przecież ta zmienność także jest niepewnością! Wchodzimy tutaj znowu w zagadnienia niestacjonarności. Zagadnienie to również nie jest nowe z punktu widzenia teorii portfela. Już Markowitz dostrzegał problem w postaci niejednorodności w czasie parametrów rozkładu stopy zwrotu. Na początku proponowano użyć wielookresowego modelu portfela Markowitza, jednakże taki model jest trudny do zaakceptowania - jest sztuczny i nie uwzględnia efektów niestacjonarności. Pionierami w uogólnieniu teorii portfela na niestacjonarność oczekiwanej stopy zwrotu i ryzyka byli C. B. Barry i R. L. Winkler - Nonstationarity and Portfolio Choice. W kolejnych latach powstało znowu wiele publikacji wnoszących jakieś nowe idee do "niestacjonarnej teorii portfela". W Nonstationary Optimization Approach for Finding Universal Portfolios Autorzy oprócz wyłożenia swojej teorii, przedstawiają też interesujące wyniki empiryczne.

W ten sposób wykazałem, że możliwość (konieczność) zastosowania teorii portfela w szerokim jej znaczeniu nie implikuje efektywności rynku, pomimo że implikuje dobrze wycenione aktywa - pod warunkiem, że potraktujemy wartość aktywa w kategoriach przedziału a nie liczby.

czwartek, 22 marca 2012

Dlaczego indeks ważony kapitalizacją uważany jest za benchmark?

Powiedzmy, że systematycznie co roku pokonujemy bez większych trudności indeks giełdowy. Pada wówczas myśl, że jesteśmy lepsi od rynku, a tym samym od innych inwestorów. Nasuwa się pytanie: dlaczego rynek utożsamiamy z indeksem giełdowym? Dlaczego standardowo porównujemy stopę zwrotu z inwestycji ze stopą zwrotu z indeksu giełdowego, który jest (najczęściej) ważony kapitalizacją (jak np. WIG lub S&P 500)? Dlaczego za benchmark nie uznajemy np. indeksu o równych wagach poszczególnych spółek? Albo jakichś innych? Odpowiedź na to pytanie kryje się w teorii portfela.

Załóżmy najpierw, że spełnione są założenia teorii portfela, o których można przeczytać w skrócie we wpisie Teoria portfela. Model Markowitza - Wprowadzenie W rzeczywistości warunki te nie muszą być w pełni spełnione, ponieważ klasyczną teorię portfela Markowitza można uogólnić, np. na niegaussowskie rozkłady, o czym można poczytać we wpisie Klasyka żyje i ma się dobrze (dlatego teoria portfela jest szerszym pojęciem od teorii Markowitza). Niemniej muszą istnieć warunki pozwalające na to, aby stopa zwrotu z instrumentu finansowego posiadała dwa parametry: ryzyko oraz oczekiwaną stopę zwrotu (wartość oczekiwaną).

Następnie załóżmy, że wszyscy inwestorzy są w pełni racjonalni. Wynikają z tego dwa wnioski. Po pierwsze stosują oni teorię portfela (ponieważ jej założenia są spełnione). Pamiętamy o co w niej chodzi - istnieją walory (np. akcje), które włączamy do portfela i zadanie polega na znalezieniu portfela o minimalnym ryzyku przy wybranej oczekiwanej stopie zwrotu. Logika podpowiada, że im wyższe ryzyko, tym wyższa powinna być oczekiwana stopa zwrotu. Jednak jest to logika ekonomiczna, a nie matematyczna. Poniżej widzimy krzywą minimalnego ryzyka (na mapie ryzyko-oczekiwana stopa zwrotu, przy czym ryzyko jest tu odchyleniem standardowym, tj. pierwiastkiem z wariancji), na której leżą ich portfele - każdy inwestor wybiera portfel na tej krzywej wedle swoich preferencji (wybiera portfel o jakiejś oczekiwanej stopie zwrotu i patrzy jakie ryzyko jej towarzyszy):



Dolna część krzywej jest zakreskowana ponieważ jest to część nieefektywna, którą racjonalni inwestorzy odrzucają (bo wraz ze wzrostem ryzyka oczekiwana stopa zwrotu portfela spada). Górna część krzywej nazywana jest granicą portfeli efektywnych.

Po drugie inwestorzy wykorzystują w pełni wszystkie istotne informacje rynkowe, w tym możliwość pełnej dywersyfikacji portfela. Przypomnijmy definicję dywersyfikacji ryzyka:

Dywersyfikacja ryzyka jest to inaczej rozproszenie (zmniejszenie) ryzyka portfela na skutek włączenia doń dużej liczby różnych walorów bez obniżenia oczekiwanej stopy zwrotu portfela.

Częstym błędem inwestorów jest twierdzenie, że dywersyfikując portfel zmniejszamy ryzyko, ale przy tym także oczekiwaną stopę zwrotu. A właśnie istota dywersyfikacji polega na nie zmniejszaniu oczekiwanej stopy zwrotu. Jest to możliwe dzięki "oczyszczeniu" walorów z wzajemnych korelacji (wtedy kombinacje liniowe walorów stają się niezależnymi stopniami swobody). Istotę dywersyfikacji przedstawia poniższy rysunek znany już z wpisu Teoria portfela Markowitza. Portfel złożony z K walorów:



Widzimy 3 krzywe minimalnego ryzyka. Krzywa N1A jest granicą efektywnych portfeli trzyskładnikowych (ABC), przy czym N1(1,05; 5,9) jest portfelem o globalnie minimalnej wariancji. Krzywa N2B jest granicą efektywną portfeli dwuskładnikowych (BC), przy czym N2(2,47; 4,41) jest portfelem o minimalnej wariancji. Z kolei krzywa N3A jest granicą efektywną portfeli dwuskładnikowych tworzonych z (AB), zaś N3(3,12; 8,78) jest portfelem o minimalnej wariancji. Zatem figura CN1AN3BN2 jest zbiorem portfeli dominujących nad wszystkimi innymi portfelami dwuskładnikowymi.

Stąd granica efektywnych portfeli 3-składnikowych jest bardziej opłacalna od 2-składnikowych.

Im więcej walorów uwzględni się w portfelu, tym ryzyko zostanie bardziej zdywersyfikowane. Wykorzystując możliwie najwięcej walorów na rynku można stworzyć krzywą minimalnego ryzyka, która znajdzie się możliwie najbliżej osi pionowej. Wszyscy inwestorzy mają więc taką samą krzywą minimalnego ryzyka i ich portfele giełdowe znajdują się gdzieś na tej krzywej.

Jednakże rynek kapitałowy to nie tylko akcje, ale także obligacje. Wprawdzie ryzykowne obligacje mogą zostać potraktowane jak akcje, jednakże obligacje rządowe zazwyczaj uznawane są za walory wolne od ryzyka. (Modna obecnie Grecja to nadal skrajność). Mogą także występować wysoko oprocentowane lokaty. Dzięki włączeniu waloru wolnego od ryzyka maksymalnie zdywersyfikujemy portfel. Włączmy zatem walor wolny od ryzyka (F) do portfela. Inwestor dzieli kapitał na dwie części: ryzykowną oraz bez ryzyka. Oczekiwana stopa zwrotu portfela jest więc pewną kombinacją liniową oczekiwanej stopy zwrotu z giełdy i stopy zwrotu z waloru wolnego od ryzyka. Jeżeli sztucznie założymy, że inwestor może także pożyczać od kogoś aktywa po stopie procentowej wolnej od ryzyka, to wizualnie kombinacja ta daje linię prostą (jeśli zaś realnie założymy, że stopa procentowa pożyczki będzie wyższa, to od pewnego punktu linia zmniejszy nachylenie ze względu na dodatkowe koszty - kwestia ta jednak jest głównie techniczna i jej nie omawiam, gdyż niepotrzebnie komplikowałaby ideę zagadnienia). Ale uwaga. Na początku inwestor wybierał dowolny ryzykowny portfel na krzywej minimalnego ryzyka zgodnie ze swoimi preferencjami. Wynikałoby z tego, że po połączeniu z walorem wolnym od ryzyka, może powstać wiele klas kombinacji liniowych. Jednakże szybko spostrzegamy, że istnieje tylko jedna efektywna klasa kombinacji liniowych, tak że tylko jeden portfel (M) leżący na krzywej minimalnego ryzyka może zostać wybrany do tej kombinacji:



Najlepszą linią jest ta która przynosi najwyższą możliwą oczekiwaną stopę zwrotu przy danym ryzyku. Zatem ta linia reprezentuje najlepszą klasę linii, zaś te zakreskowane należy odrzucić, bo są nieefektywne. Dlatego właśnie portfel KAŻDEGO inwestora składa się częściowo z aktywa wolnego od ryzyka F oraz częściowo z portfela M. Portfel M nazywamy portfelem rynkowym, bo zawiera wszystkie ryzykowne walory na rynku kapitałowym.

Powstała linia nazywana jest linią rynku kapitałowego (Capital Market Line - CML).
Łatwo zauważyć, że CML staje się nową granicą portfeli efektywnych, którą inwestorzy będą teraz stosować:



Inwestor wybiera jakiś portfel leżący na CML według swoich preferencji. Tworzy w ten sposób portfel o oczekiwanej stopie zwrotu μ(P), która składa się w proporcji x z oczekiwanej stopy zwrotu portfela rynkowego μ(M) oraz w proporcji 1-x ze stopy wolnej od ryzyka Rf:



(Dla zainteresowanych pełne omówienie CML tutaj).

Wniosek? Z punktu widzenia samego rynku giełdowego WSZYSCY inwestorzy posiadają ten sam skład portfela M! (Różnić się będą jedynie wagami portfela ryzykownego i nieryzykownego). Powstaje pytanie czy można szybko znaleźć skład tego jednego jedynego portfela M? Skoro każdy posiada M, to znaczy, że wszystkich inwestorów giełdowych możemy potratować jak jednego inwestora. Waga waloru A należącego do portfela M jest zdefiniowana jako:



Wszystkie pieniądze na giełdzie (F) to po prostu kapitalizacja giełdowa. Natomiast pieniądze przeznaczone tylko na walor A (F_A), czyli cena waloru A razy ich liczba to właśnie kapitalizacja waloru A. Czyli:



To samo oczywiście dzieje się z kolejnymi walorami B,C itd. Wagi portfela M są ustawiane w porządku od najwyższej do najniższej, ponieważ taki jest algorytm optymalizacji.

A więc dostajemy dokładnie skład indeksu ważonego kapitalizacją. Każdy inwestor będzie kupował indeks giełdowy. Jeśli więc wyłamujemy się z takiej strategii, czyli nie inwestujemy w oparciu o CML, to powinniśmy porównywać swoje wyniki z indeksem giełdowym.

Czy rzeczywiście jednak indeks giełdowy jest prawdziwym benchmarkiem?

Cała powyższa logika będzie w pełni prawidłowa przy dwóch początkowych założeniach:
-że są spełnione założenia teorii portfela oraz
-że wszyscy inwestorzy są racjonalni.

Któreś z tych założeń niestety nie jest spełnione. Skąd to wiadomo? Bo jak dobrze wiemy NIE WSZYSCY inwestorzy stosują teorię portfela. To już wystarczy, by stwierdzić, że indeks giełdowy nie musi być prawdziwym benchmarkiem.

Czy spełnione są założenia teorii portfela? Byłbym ostrożny w formułowaniu kategorycznych stwierdzeń typu: nie są spełnione założenia, więc teoria portfela nie działa. Przede wszystkim należy pamiętać o różnego rodzaju uogólnieniach tej teorii (np. na rozkład Levy'ego. Taki rozkład uwzględnia leptokurtozę, która oznacza, że nietypowe zmiany są częstsze niż dla rozkładu normalnego). Intuicja podpowiada, że dla możliwości zastosowania teorii portfela rozkład stopy zwrotu powinien być symetryczny (ryzyko powinno się równomiernie rozkładać na plus jak i minus). W rzeczywistości rozkłady te są prawostronnie skośne, co oznacza, że wzrosty kursów występują częściej niż spadki. Ale i ten aspekt nie może dezaktualizować teorii portfela, ponieważ sam Markowitz stworzył również alternatywną wersję swojej teorii, w której za ryzyko nie przyjmował wariancji, ale semiwariancję. W innej wersji semiwariancję zastąpiono wartością zagrożoną (Value at Risk - VaR). Istnieją bowiem dwie koncepcje pojmowania ryzyka:
1. z jednej strony jako zagrożenie, z drugiej jako szansa (odpowiednik to zmienność)
2. tylko jako zagrożenie (możliwość, że coś może się nie udać).

Później uogólniono VaR na warunkową wartość zagrożoną (CVaR (Conditional VaR), ponieważ ta pierwsza nie spełnia warunku subaddytywności, co oznacza, że VaR policzona dla zdywersyfikowanego portfela może być większa niż suma VaR-ów policzona dla instrumentów składowych. W wyniku dywersyfikacji zamiast spadku można otrzymać wzrost ryzyka. CVar jest pozbawiona tej wady.

Dodatkowo teoria portfela została zgeneralizowana na zmienne skorelowane (autokorelacja zmienności, autokorelacja stóp zwrotu, korelacja zmienności i stóp zwrotu), pojęcia z zakresu fraktali i multifraktali oraz wielookresowe modele i niestacjonarność struktury danych. J.F Muzy, D. Sornette, J. Delour i A. Arneodo w pracy "Multifractal returns and Hierarchical Portfolio Theory" konstruują wielowymiarowy multifraktalny model budowy portfela, radząc sobie także z kurtozą. Taki model uwzględnia zmienność parametrów w czasie. Widać więc, że sama teoria portfela nie może być tak zwyczajnie odrzucona. Te najnowsze są to jednak bardzo skomplikowane modele i zwykły inwestor nie ma na razie szans ich zastosować. Być może w przyszłości powstaną oprogramowania umożliwiające samodzielne wykorzystanie takich narzędzi.

No dobrze, ale przecież jest jeszcze jeden kontrowersyjny punkt naszego rozumowania. Portfel rynkowy powinien zgodnie z teorią zawierać wszystkie walory na rynku posiadające oczekiwaną stopę zwrotu i zmienność, włączając w to ryzykowne obligacje, nieruchomości i towary, natomiast popularne indeksy zawierają tylko niektóre akcje. Niektórzy inwestorzy posiadają w portfelach egzotyczne walory, które dodatkowo dywersyfikują ryzyko, a tym samym przesuwają krzywą minimalnego ryzyka w lewo. Tak więc można byłoby sądzić, że to z góry przekreśla uznanie indeksu za benchmark.

Jednakże walory na rynku najczęściej są jakoś skorelowane dodatnio, a wtedy... przypomnę ten oto rysunek z wpisu Teoria portfela Markowitza. Portfel złożony z K walorów:



K to liczba składników portfela, natomiast ryzyko jest tutaj mierzone jako procentowy udział ryzyka portfela do oczekiwanego (przeciętnego) ryzyka portfela jednoskładnikowego. Widzimy, że ryzyko spada coraz wolniej aż do pewnej granicy, która stanowi ryzyko niedywersyfikowalne - tutaj stanowi ono średnią kowariancję stóp zwrotu wszystkich walorów (dla klasycznej teorii Markowitza). Tak więc pewnym momencie nie opłaca się już dołączać nowych walorów do portfela. Tutaj leży właśnie źródło tzw. przedywersyfikowania, tj. sytuacji, gdy koszty zwiększania składników portfela są większe niż korzyści w postaci spadku ryzyka.

Możliwe, że to właśnie z tego powodu oczekiwane stopy zwrotu z różnych indeksów giełdowych (różnych krajów) mają podobne wartości. Jeśli to prawda, to otrzymalibyśmy dość silny argument za traktowaniem indeksów jako benchmarki, choćby plus minus parę procent.


Zatem głównie fakt, iż nie wszyscy inwestorzy stosują (lub że duża większość nie stosuje) ściśle teorii portfela sprawia, że indeksu ważonego kapitalizacją (o dużej liczbie walorów) nie należy zbyt poważnie uznawać za benchmark.


Zupełnie odrębną sprawą jest możliwość uzyskania wyższej oczekiwanej stopy zwrotu od portfela rynkowego przy wyższym od niego ryzyku - w tym przypadku to jedynie szczęście powoduje pozorną wygraną z rynkiem, ponieważ ryzyko ma swoją cenę w postaci "premii za ryzyko". (Z punktu widzenia CML aby tak się stało portfel musi mieć ujemną wagę waloru wolnego od ryzyka, co oznacza zaciągnięcie przez inwestora kredytu, za który kupuje dodatkowy udział portfela rynkowego; to oczywiście niesie większe ryzyko, a więc i większy oczekiwany zysk). Główny problem polega właśnie na mierzeniu ryzyka. Nowsze modele radzą sobie z tym coraz lepiej, również dlatego, że uciekają od formalnej efektywności rynku i często zbliżają się w kierunku bardziej ogólnym. Czar inwestowania na giełdzie polega na tym, że zawsze znajdzie się miejsce na wiarę w to, że istotne pokonanie indeksu zostało spowodowane nieefektywnością rynku.

poniedziałek, 20 lutego 2012

Błędy w publikacji

Wczoraj zamieściłem wpis pod tytułem "Badanie 3 wybranych strategii analizy technicznej i ich połączenia na przykładzie S&P 500", w którym opisywałem testy zamieszczone w artykule C. Lento "A Combined Signal Approach To Technical Analysis On The S&P 500". Jeśli ktoś to czytał, na pewno zdziwił się, że do obliczenia średniej kroczącej wykorzystano logarytmiczne stopy zwrotu. Mnie też to zdziwiło - powinno używać się średniej cen z n okresów. Na początku sądziłem, że jest okej, bo może chodzi o to, żeby posłużyć się zlogarytmowanym indeksem. Przepisałem więc wzory i tabele z wynikami. Później jednak zacząłem się zastanawiać nad tymi logarytmicznymi stopami zwrotu wraz z ich sygnałami. Doszedłem do wniosku, że to bzdura. Poszukałem w internecie publikacji, w której ktoś użył tego samego wzoru na średnią kroczącą. Nie znalazłem. Wysnułem wniosek, że C. Lento pomimo dużej wiedzy ekonometrycznej nie przyłożył się; być może nie ma dużego pojęcia o analizie technicznej. Przyjrzyjmy się sygnałowi kupna i sprzedaży na MAC-O lub TRB-O. Przecież każdy zaawansowany technik wie, że trzeba użyć pewnych filtrów procentowych bądź czasowych zanim się dokona się transakcji. Tutaj brakuje takowych. Przejrzałem szybko pracę Brocka, Lakonishoka, i LeBarona "Simple Technical Trading Rules and the Stochastic Properties of Stock Returns" (1992), w której wprowadzają właśnie te metody MAC-O i TRB-O. Po pierwsze w tej publikacji Autorzy stosują metodę bez filtru oraz z filtrem 1%. Po drugie wzoru z logarytmicznymi stopami zwrotu na sygnał kupna i sprzedaży w ich pracy nie zobaczyłem. Dlatego też trzeba stwierdzić, że praca Lento zawiera błędy, czyli nie należy jej traktować poważnie i jej cytować. Co ciekawe wikipedia angielska również posługuje się tą samą pracą Lento w haśle Technical analysis. Świadczy to o tym, że należy bardzo uważać na publikacje naukowe. Jeśli Autor nie jest wybitnym autorytetem w swojej dziedzinie (Brock i Lakonishok są), to należy podchodzić od samego początku nieufnie i krytycznie do treści.

.................................................................................

Poniżej można przeczytać wczorajszy wpis:


Powinniśmy pamiętać, że nawet jeśli analiza techniczna pozwala w niektórych przypadkach poprawnie przewidzieć kierunek kursu, to wcale nie daje to jeszcze przewagi na rynku. W poprzednim artykule dowodziłem (po raz kolejny), że indeks SP 500 podlega pamięci długoterminowej. W tym sensie rynek pozostaje nieefektywny lub co najwyżej staje się ułamkowo efektywny. Oznacza to jedynie, że występują długoterminowe trendy, tak iż ryzyko jest (w pewnych okresach) mniejsze niż dla efektywnego rynku. Metoda "kup i trzymaj" (dla rynku akcji) może się więc okazać równie dobra jak analiza techniczna. Aby analiza techniczna stanowiła zyskowną strategię, to musi pokonać metodę kup i trzymaj.

W artykule "A Combined Signal Approach To Technical Analysis On The S&P 500" C. Lento testuje 3 metody analizy technicznej dla S&P 500, w tym metodę łączonych średnich kroczących. Na końcu nawet zostaje przetestowana strategia połączona, tzn. strategia, w której łączy się te oddzielne metody w jedną całość. Nazywa ją Combined Signal Approach (CSA).

Zajmijmy się metodą średnich kroczących krzyżowanych (łączonych), A moving average cross-over (MAC-O). Autor definiuje reguły tradingu w następujący sposób. Sygnał kupna:



Sygnał sprzedaży:



gdzie:

R(i,t) - logarytmiczna stopa zwrotu w krótkim okresie S (1 lub 5 dni)
R(i,t-1) - logarytmiczna stopa zwrotu w długim okresie L (50, 150 lub 200 dni). Do testu zostały użyte kombinacje (1,50), (1,200) i (5,150).

Metoda filtra generuje sygnał kupna i sprzedaży na następującej zasadzie: kupuj gdy cena rośnie f% powyżej ostatniego dołka i sprzedaj gdy cena spada f% poniżej ostatniego szczytu. Do testu zostały użyte parametry: 1%, 2% i 5%.

Ostatnia z trzech strategii to zasięg przebicia, Trading Range Break-out (TRB-O). Odnosi się ona do poziomu wsparcia i oporu. Generuje sygnał kupna gdy cena przebija w górę opór, a sygnał sprzedaży gdy przebija w dół wsparcie. Poziom oporu został zdefiniowany jako lokalne maksimum, a poziom wsparcia jako lokalne minimum. Matematycznie zostało to zapisane:



gdzie

P(t) - cena w okresie t.

Strategia TRB-O została przebadana dla 50, 150 i 200 dni (n).

Test objął okres 1 styczeń 1950 - 19 marzec 2008 (14646 obserwacji). Opierano się tylko na cenach zamknięcia. Metodologię skonstruowano następująco. W przypadku MAC-O jeśli padał sygnał BUY, zajmowano pozycję long, a gdy następował sygnał SELL, sprzedawano instrument i kupowano instrument bez ryzyka, dla którego zakładano roczną stopę procentową 3%. Z kolei w przypadku filtra cenowego i TRB-O zajmowano pozycję long (dla BUY) i short (SELL).

Najważniejsze wyniki zostały przedstawione w poniższej tabeli:



Okazuje się, że po uwzględnieniu kosztów transakcyjnych tylko strategia oparta na średnich kroczących o parametrach 1/200 i 5/150 jest w stanie pokonać metodę "kup i trzymaj" i to nie więcej niż 0,5% rocznie. W przypadku 1/200 roczna nadwyżkowa stopa zwrotu wyniosła 0,5%, a dla 5/150 0,3%.

Skoro pojedynczo działa jedynie MAC-O, to wydaje się, że należy odrzucić TRB-O i metodę filtra. Jednak Autor sugeruje, że połączenie metod w postaci CSA może dać lepsze rezultaty. Wszystkich reguł razem jest 9. Zatem można kombinować je ze sobą. Liczba danych pozwoliła połączyć ze sobą maksymalnie 6 reguł (6/9). W ten sposób otrzymano wyniki:



De facto jedynie strategia 2/9, tj. połączenie 2 reguł przyniosło nadwyżkę 1,6% po odjęciu prowizji maklerskich. Szczerze mówiąc jednak nie wiadomo do końca o co chodziło tutaj Autorowi, bo przecież nie wiadomo które połączenia najlepiej się sprawdziły.

Podsumowując, mimo iż artykuł Lento prowadzi do konkluzji, że metoda średnich kroczących oraz pewne połączenie strategii pokonuje rynek, to uważam, że jest przeciwnie. Nadwyżka 0,5% rocznie ponad "kup i trzymaj" to przecież ciągle bardzo mało. Z kolei pomysł włączenia do strategii metod które pojedynczo się nie sprawdzają, wydaje mi się nietrafny. Nadwyżka 1,6% ponad "kup i trzymaj" (w sumie też niewiele) uzyskana z połączenia 2 nie wiadomo jakich reguł pozostaje tylko teoretyczną ciekawostką.

Literatura:

C. Lento, A Combined Signal Approach To Technical Analysis On The S&P 500, 2008 - praca jest dostępna w Internecie za darmo. Wystarczy wpisać tytuł w Google Scholar.

poniedziałek, 30 stycznia 2012

Persystencja dla logarytmicznego SP500

Gwałtowne spadki na rynkach kapitałowych, które w przeciągu ostatnich miesięcy zagroziły hossie, skłaniają do powtórnego zastanowienia się nad istnieniem "długiej pamięci" w danych. Przypomnę, że z moich badań wynika, że średnio pamięć długoterminowa dla miesięcznych stóp zwrotu trwa ok. 42 miesięcy dla rynku amerykańskiego (u Petersa wyszło 48 m-cy). Teraz pomyślmy. Hossa rozpoczęta w 2003 r. trwała niecałe 5 lat. Bessa od 2007 r. zaledwie 1,5 roku. Można powiedzieć, że taki jest typowy przebieg cyklu: hossa jest powolna, ale długa, bessa szybka, ale krótka. Jeśli hossa rozpoczęta w marcu 2009 r. miałaby się skończyć w maju 2011, to trwałaby zaledwie 2 lata i 2 miesiące.

Zainteresowało mnie to, co by się stało gdybym przebadał SP500 od stycznia 1940 (a nie jak wcześniej 1933) do końca grudnia 2011. Wykładnik Hursta H wyniósł 0,72. Okazało się, że poziom ten załamuje się dopiero dokładnie średnio po 60 miesiącach. Wynika z tego, że w okresie 1940-2011 długa pamięć miała przeciętny cykl 5 lat a nie 3,5-4 jak wcześniej. Moment od którego nachylenie poniższego wykresu ulega kontrakcji i wyrównaniu do linii regresji to moment załamania się długiej pamięci.



Należy sobie jasno powiedzieć, że nie ma żadnych wątpliwości, że taka pamięć występowała: różnica pomiędzy empirycznym H = 0,72 a teoretycznym H wyniosła prawie 3,5 razy odchylenia standardowego H.

Dowód na persystencję indeksu jest nawet silniejszy. Nie występuje bowiem żadna istotna liniowa autokorelacja dowolnego rzędu w miesięcznych stopach zwrotu dla badanego zakresu. Oznacza to, że autokorelacja liniowa nie może pozorować długiej pamięci jak to czasami bywa.

Przykład dla autokorelacji 1 rzędu miesięcznych stóp zwrotu SP500 w l. 1940-2011:


Wiadomo jednak również, że istotny wykładnik Hursta nie musi dawać sygnału o długiej pamięci jeśli wariancja stopy zwrotu nie istnieje (staje się nieskończona). Aby wygładzić poniższy trend:



dokonałem transformacji w przebieg logarytmiczny:



Wykładnik Hursta praktycznie się nie zmienił dla tej transformacji. Być może wariancja staje się szalona w bessie, ale jeśli popatrzymy na ogólny obraz zlogarytmowanego wykresu, to dostrzegamy pewną kilkuletnią "gładkość".

Na podstawie tutejszych badań trzeba stwierdzić, że średni czas trwania długiej pamięci nie jest ściśle określony. Może to być pomiędzy 3,5 a 5 lat. Dane od 1940 r. wskazują, że trendy są dłuższe. Wydaje się, że duże znaczenie ma tutaj hossa, która zbyt łatwo nie zmienia kierunku.

Ciągle należy mieć na uwadze, że nie mówimy tutaj o autokorelacji liniowej, ale nieliniowej długoterminowej. Oznacza to - mówiąc zwięźle i surowo - że jeśli w jednym miesiącu jest "plus", to w drugim, trzecim, czwartym itd. może być zarówno "plus" jak i "minus", ale "minus" z większym niż 50% prawdopodobieństwem będzie mniejszy niż ten pierwszy "plus", przy czym prawdopodobieństwo to będzie z każdym następnym miesiącem spadać aż do 50%. Pierwszy plus jest jak gdyby "efektem motyla" prowadzącym kurs do góry. W ten sposób powstaje gładkość ruchu. W ten sposób również powstają fale, w tym korekty trendu - np. kliny i trójkąty, znane z analizy technicznej.

czwartek, 26 stycznia 2012

Atak na szczyt

Dla giełd światowych nadeszła decydująca chwila. Indeks DJIA dotarł właśnie do swojego szczytu z początku maja 2011:



Z kolei SP 500 jest ciągle trochę w tyle, ale powoli goni swojego kolegę:



Z tej okazji przygotowałem bardzo ładny fragment utworu z filmu Szklana Pułapka:

Assault On The Tower

A cały utwór można posłuchać tutaj na Youtubie.

(Tylko bez podtekstów w stylu że to co się dzieje na indeksach w USA to pułapka.)

Nasze Wigi oczywiście są daleko, daleko w tyle. Ma na to wpływ kryzys Europejski (DAX i CAC 40 są także daleko od szczytu) oraz negatywne informacje o wprowadzeniu nowego podatku od kopalin ciążącego na KGHM. Ale to jest nic wielkiego wobec faktu, że jeszcze zupełnie niedawno większość inwestorów i analityków ogłosiło jednogłośnie bessę. Dziś im wszystkim głupio? A może liczą, że to jednak pułapka?

niedziela, 15 stycznia 2012

Linie trendu - refleksje

Ostatni wpis Czy analiza techniczna działa? zmieniałem i poprawiałem wielokrotnie. Na przykład wyniki dla BRE Banku zaczęły mnie zastanawiać, bo znacznie się różniły się od pozostałych dużych spółek. Dla wszystkich dużych spółek częstość zmiany kierunku po przecięciu linii trendu wynosiła ponad 55%, a najczęściej ponad 60%. W przypadku BRE dla przecięcia linii trendu rosnącego wyniosło tylko 50% i spadkowego 40%. Przetestowałem więc jeszcze raz BRE Bank i okazało się, że tym razem częstości zbliżyły się do tych, które prezentowały inne duże spółki. Różnica wynika z dwóch powodów. Przede wszystkim za drugim razem podczas testu znalazłem dwa razy więcej obserwacji. Drugą sprawą było to, że - jak mi się wydaje - nabrałem pewnego doświadczenia i "oka technicznego". W analizie technicznej potrzeba dość miękkiego oka na to co się patrzy.

Może podam przykład. Kiedy linia trendu spadkowego zostaje przebita +4%, to zgodnie z punktem 4 oczekuje się wzrostów przez co najmniej ok. tydzień. Ale nie oznacza to, że kurs musi rosnąć w ciągu tego tygodnia. Może tylko stać, nawet przez kilka tygodni i potem znowu zacząć rosnąć, ale ważne by nie spadł poniżej linii, którą niedawno przebił lub po prostu aby nie spadł poniżej ceny zakupu. Minimalna zmiana warunku może diametralnie zmienić wynik testu. A tutaj się właśnie liczą takie niuanse. Potrzebny więc jest albo specjalny program, w którym można byłoby umieścić najbardziej szczegółowe warunki, aby dokonać precyzyjnych oszacowań albo spróbować subiektywnie ocenić sytuację w danym przypadku.

Moja metoda była oczywiście subiektywna. Starałem się wypośrodkować pomiędzy tymi dwoma warunkami. Jeśli uznałem, że kurs za silnie spada pomimo uprzedniego przebicia linii trendu +4% filtru, to oceniałem sytuację jako "porażkę", nawet jeśli później kurs nagle znowu się podniósł - w końcu nie znamy przyszłości, a trader musi się bronić przed stratami.
Z drugiej strony, jeśli kurs spadał, ale za to niezbyt silnie - nawet w ciągu tygodnia od przebicia linii trendu - tak że nie wrócił do punktu kupna, a tym bardziej do linii trendu, to można było zastosować kolejny warunek: oczekiwanie na następny tydzień. Wtedy zaczynamy od nowa. Czyli jeśli w drugim tygodniu kurs rósł - to "sukces". Ale jeśli w tym drugim tygodniu znowu spadał, to znowu pytanie: mocno czy silnie. Ważne by nie spadł poniżej ceny zakupu bądź linii trendu. I potem znowu powtarzamy ów "algorytm". Jednak jeśli po paru tygodniach nie widać wzrostów, to algorytm powinien zostać zatrzymany i sytuacja oceniona jako porażka. Ten sam schemat należy wykorzystać dla przecięcia linii trendu rosnącego.

Im więcej i głębiej analizuję te wykresy, tym silniej dochodzę do wniosku, że w przecięciach wsparć i oporów, czy jak kto woli, linii trendu, tkwi pewien potencjał. Nie chodzi o to, że to są jakieś tam "narzędzia", jak to mawiają technicy. To jest obiektywna metoda przewidywania kursu. Naprawdę chciałem ją obalić, ale dla dużych spółek nie umiałem. Nie wiem czy prawdopodobieństwo jej trafności wynosi 55, 60, 65%, a maksymalnie 70%, ale krótkoterminowa bezwładność kursu wydaje się istnieć. Niemniej pamiętać trzeba, że nawet gdyby w pełni udowodnić jej skuteczność, to nadal nie daje gwarancji ponadprzeciętnej stopy zwrotu.