Pokazywanie postów oznaczonych etykietą efektywność rynku kapitałowego. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą efektywność rynku kapitałowego. Pokaż wszystkie posty

niedziela, 7 października 2012

Czy model Millera działa? Część 2

W ekonomii, jak we wszystkich naukach ścisłych, należy uważać na każde słowo, a jeszcze bardziej na wypowiadane sądy. Nieuwzględnienie pewnych czynników, np. ukrytych założeń, prowadzi często do błędnego wnioskowania. Błędy mogą być dwojakiego rodzaju. Pierwszy błąd powstaje gdy dana teoria czegoś istotnego nie uwzględnia, a drugi błąd, gdy metody badawcze czegoś istotnego nie uwzględniają. Pierwszy błąd łatwo wykryć pod warunkiem, że nie występuje drugi błąd, gdyż wtedy teoria nie zgadza się z doświadczeniem. Gorzej jeśli drugi błąd nie został wykryty, bo wtedy teoria/teza może się wydawać prawdziwa, podczas gdy w rzeczywistości jest fałszywa. Tak więc weryfikacja teorii powinna zawsze zaczynać się od weryfikacji samych metod badawczych.

Weryfikacja modelu Millera stanowi właśnie przykład, gdzie mogą pojawić się błędy obydwu rodzajów. W pierwszej części artykułu poświęconemu weryfikacji teorii Millera, przedstawiłem wyniki badań Diether, Malloy i Scherbiny [1] (DMS), które potwierdziły ją empirycznie. Sytuacja jednak okazuje się dużo bardziej skomplikowana niż to na pierwszy rzut oka wygląda. Przypomnijmy, że teoria Millera przewiduje, że wyższa rozbieżność opinii na temat wartości akcji generuje wyższą wartość akcji, a co za tym idzie mniejsze oczekiwane stopy zwrotu w przyszłości. Ponieważ wartość akcji ściśle zależy od oczekiwanych zysków netto spółki, pośrednikiem rozbieżności opinii o wartości akcji może być rozbieżność opinii o oczekiwanych zyskach netto. Za pośredników inwestorów szacujących te zyski możemy uznać analityków giełdowych. Wydaje się prawidłowe, że rozbieżność taką można obliczyć jako odchylenie standardowe prognoz zysków (szacowanych przez analityków).

Jednak diabeł tkwi jak zawsze w szczegółach. Wahania wyników finansowych zależą w głównej mierze od branży w jakiej spółka funkcjonuje. Np. spółki farmaceutyczne będą niewątpliwie "bezpieczniejsze" od spółek, których wyniki zależą w dużym stopniu od cen surowców. Oznacza to, że sama natura spółek o mniejszym zakresie wahań wyników spowoduje, że oczekiwania wyników będą mniej "rozbieżne" (rozstrzelone). Ten fakt został pominięty przez DMS, na co zwracają uwagę Doukas, Kim i Pantzalis [2] (DKP).

Autorzy podają najpierw teoretyczne uzasadnienie tego błędu wprowadzone przez Barrona, Kima, Lima i Stevensa [3], którzy pokazują, że dyspersja (wariancja) prognoz może być wyrażona w postaci D = V(1-p), gdzie V to niepewność prognozy, a 1-p to rozbieżność opinii analityków, natomiast p to konsensus (stopień zbieżności opinii analityków), który stanowi współczynnik korelacji błędów prognozy wśród analityków. Należy zwrócić uwagę, że wzór został odpowiednio wyprowadzony.

Widzimy więc, że dyspersja prognoz analityków została rozbita na dwie części: zwyczajne ryzyko oraz stopień braku konsensusu prognozy. Jeśli dana branża będzie bardziej ryzykowna, będzie rosło V. Jeśli analitycy będą mniej zgodni w swoich przewidywaniach, wzrośnie 1-p. Jeśli wszyscy będą zgodni w 100%, czyli p = 1, to D = 0, a więc nie będzie istnieć zróżnicowanie prognoz. Jeśli analitycy będą mieć różne nieskorelowane zdania, to p = 0, a stąd D = V, a więc zróżnicowanie prognoz będzie równe zwykłej niepewności prognozy związanej ze zmiennością wyników danej spółki. Jeśli analitycy będą mieć ekstremalnie różne zdania, to p = -1, a stąd D = 2V, tj. zróżnicowanie prognoz podwaja się w stosunku do zwykłej niepewności. DMS posługiwali się całkowitą dyspersją D jako pośrednikiem rozbieżności opinii o wartości akcji, a więc można powiedzieć, że zakładali stałość V. Jednak V zmienia się w zależności od specyfiki branży czy samej spółki, zatem D raczej słabo odzwierciedla faktyczną rozbieżność opinii. DKP stwierdzają, że do testu modelu Millera należy użyć 1-p, gdyż jest to faktyczna miara rozbieżności prognoz zysku.

DKP pobierali, podobnie jak DMS, dane z Institutional Brokers Estimate System. Zakres badania zawiera się w podobnym przedziale co DMS, bo od lipca 1983 do grudnia 2001. Najpierw powtórzono metodę zastosowaną przez DMS. Tak więc dyspersja prognoz analityków została obliczona jako wyskalowane odchylenie standardowe prognoz zysków (tzn. odchylenie standardowe prognoz rocznego zysku podzielone przez moduł średniej prognozy). Następnie podzielono te dyspersje na 5 grup, według wielkości dyspersji: od najmniejszej do największej (kwintyle). Podobnie zostały uszeregowane akcje według wielkości kapitalizacji, dzięki czemu można ocenić wpływ dyspersji na stopy zwrotu dla różnych wielkości spółek. Wyniki zostały zaprezentowane w tabeli poniżej - średnie miesięczne stopy zwrotu w zależności od wielkości spółki (SIZE) oraz dyspersji prognoz zysków (D).


***, **, * oznacza odpowiednio istotność statystyczną na poziomie 1%, 5% i 10%.

Wyniki są zbieżne z otrzymanymi przez DMS. Po pierwsze większa dyspersja prognoz wiąże się z mniejszą stopą zwrotu, dla każdej grupy spółek. Jest to wynik nawet bardziej poprawny z punktu widzenia modelu Millera niż w badaniu DMS. Następnie przeprowadzono ten sam test, ale tym razem sprawdzono zachowanie stóp zwrotu w zależności od (1-p). Otrzymano następujące wyniki:


Rezultaty zmieniają się o 180 stopni. Większej rozbieżności prognoz towarzyszy istotnie większa średnia stopa stopa zwrotu, dla każdej grupy spółek. Wynika z tego, że cały efekt spadku stopy zwrotu wraz ze wzrostem dyspersji wynika z niepewności prognozy V, który kompensuje dodatni wpływ rozbieżności. Zatem większa niepewność prognozy prowadzi do spadku średniej stopy zwrotu, a większa rozbieżność opinii do wzrostu stopy zwrotu.

Rodzą się więc nowe pytania. Dlaczego rozbieżność opinii prowadzi do wzrostu stopy zwrotu? DKP stawiają hipotezę, że rozbieżność opinii stanowi jeden z czynników ryzyka systematycznego (rynkowego), a wyższe ryzyko systematyczne implikuje wyższą oczekiwaną stopę zwrotu. Swoją hipotezę weryfikują budując wieloczynnikowy model wyceny aktywów (rozbudowany model Famy-Frencha), będący modyfikacją CAPM. Hipoteza zdaje test, gdyż rozbieżność opinii okazuje się być istotnym czynnikiem w modelu, a więc prawdopodobnie stanowi czynnik ryzyka dla inwestora.

Kolejne pytanie jakie się nasuwa to: dlaczego wzrost niepewności prognozy prowadzi do spadku stopy zwrotu (wzrostu wartości akcji) i czy nie jest to anomalia sprzeczna z teorią efektywności rynku i CAPM? Na pierwszy rzut oka wydaje się to być faktycznie sprzeczne, gdyż niepewność to po prostu ryzyko, a przecież ryzyko w teorii portfela, CAPM i jego modyfikacji zawsze stanowi koszt inwestora, który w zamian wymaga wyższej stopy zwrotu. Ale samo ryzyko jest pojęciem względnym. W teorii portfela większa wariancja akcji nie implikuje wyższej stopy zwrotu. Dopiero wariancja portfela efektywnego implikuje wyższą oczekiwaną stopę zwrotu. Mówiąc ściślej tylko ryzyko systematyczne (rynkowe) kreuje wyższą oczekiwaną stopę zwrotu, ponieważ jest niedywersyfikowalne. Z kolei ryzyko specyficzne, czyli właśnie wariancja dowolnej akcji jest ryzykiem dywersyfikowalnym, a przez to nie generuje automatycznie oczekiwanej stopy zwrotu.

Jednak taka odpowiedź byłaby nieprzekonująca. W końcu rezultaty statystyczne wskazują na istotną ujemną korelację pomiędzy stopą zwrotu a niepewnością prognozy, a klasyczne teorie tego nie tłumaczą. DKP odpowiadają na to pytanie nawiązując do stosunkowo nowego artykułu Pastora i Veronesi'ego [4], którzy z kolei dowodzą, że na efektywnym rynku zwiększona niepewność prognozy zysku podnosi paradoksalnie wartość akcji (dokładniej zwiększa wskaźnik cena/wartość księgowa), a tym samym - zdaniem DKP - zmniejsza stopę zwrotu. (To czy DKP mają rację, należy omówić oddzielnie). DKP argumentują, że stanowisko DMS było błędne, bo ich badanie nie potwierdziło teorii Millera. Wszystkie wyniki statystyczne można ciągle wyjaśnić na gruncie teorii efektywnego rynku. Zdaje się, że model Millera trzeba odrzucić, bo wyższa wartość rynkowa akcji nie wynika z większej rozbieżności opinii o wartości wewnętrznej, lecz z większej niepewności prognozy - ale to jak niepewność może zwiększyć wartość akcji stanowi oddzielny temat.


Dodatek:

p i V zostały obliczone następująco:

gdzie


h jest to precyzja zwykłej, wspólnej informacji, s jest to precyzja prywatnej informacji (opinii)


gdzie
y - faktyczny prognozowany zysk (EPS),
u(i) - prognoza i-tego analityka
u - średnia prognoz wszystkich analityków
N - liczba analityków (prognoz).


Literatura:

[1] Diether, K, B; C, J, Malloy; A, Scherbina; "Differences of Opinion and the Cross Section of Stock Returns", 2002
[2] Doukas, J.A., Kim C., Pantzalis C., "Divergence of Opinion and Equity Returns", 2006
[3] Barron, O, E,; O, Kim; S, C, Lim; and D, E, Stevens, "Using Analysts' Forecasts to Measure Properties of Analysts' Information Environment," Accounting Review, 73 (1998), 421-433,
[4] Pastor, L., and P. Veronesi. "Stock Valuation and Learning about Profitability." Journal of Finance, 58 (2003), 1749-1789.

sobota, 15 września 2012

Czy model Millera działa? Część 1

Zgodnie z modelem Millera (który został opisany w artykule Rozbieżność opinii, nieefektywność rynku i trendy akcji, czyli model Millera) większa rozbieżność opinii na temat wartości akcji powoduje (przy założeniu, że krótka sprzedaż jest ograniczona) wzrost ceny rynkowej akcji, a co za tym idzie spadek stopy zwrotu.

Model Millera można starać się przeanalizować pod kątem formalnym, aby znaleźć jego słabe punkty. Ukryte założenia lub intuicje zawsze wychodzą na wierzch, jeśli zagadnienie bada się ścisłym językiem.

Na tym etapie skoncentrujmy się jednak na najważniejszej, czyli praktycznej stronie modelu Millera. Diether, Malloy i Scherbina (2002) testują go doświadczalnie. Początkowe pytanie przy jego testowaniu jest takie: jak w ogóle mierzyć rozbieżność opinii na temat wartości akcji? Wartość akcji jest to suma zdyskontowanych oczekiwanych dywidend. Jak już dowiedziono, wartość akcji jest to jednocześnie suma zdyskontowanych oczekiwanych przepływów pieniężnych: jest to Uogólniony model Grahama-Dodda , w skrócie UMGD. Zgodnie z UMGD na wartość akcji wpływają trzy zmienne: oczekiwane zyski netto firmy, oczekiwane inwestycje oraz koszt kapitału własnego. Decydującym i najbardziej zmiennym przy szacunkach czynnikiem są zyski. Zatem pośrednikiem rozbieżności opinii o wartości akcji jest rozbieżność opinii o prognozowanych zyskach firmy. Z kolei za pośredników inwestorów szacujących te zyski możemy uznać analityków giełdowych. Im większa będzie rozbieżność analityków w prognozach zysków, tym większa będzie rozbieżność w ocenie wartości akcji.

Autorzy omawianego artykułu pobierali miesięczne stopy zwrotu z Center for Research in Securities Prices (CRSP), który zawiera dane NYSE, AMEX i Nasdaq. Dane analityków o prognozach zysków zostały wzięte z Institutional Brokers Estimate System (IBES). Test został przeprowadzony dla okresu luty 1983 - grudzień 2000.

Dyspersja prognoz analityków została obliczona jako wyskalowane odchylenie standardowe prognoz zysków (tzn. odchylenie standardowe prognoz rocznego zysku podzielone przez moduł średniej prognozy). Następnie podzielono te dyspersje na 5 grup, według wielkości dyspersji: od najmniejszej do największej (kwintyle). Podobnie zostały uszeregowane akcje według wielkości kapitalizacji, dzięki czemu można także ocenić efekt małych czy dużych spółek. Wnioski zostały zaprezentowane w formie różnych tabel. Poniżej pierwsza z nich:



a, b - istotne statystycznie na poziomie odpowiednio 1 i 5%.

Najpierw przypatrzmy się prawej stronie tabeli, gdzie ujęte są wszystkie akcje (All stocks). Im większa dyspersja (D), tym mniejsza średnia stopa zwrotu (Mean Returns). Teraz możemy przejść do kolejnych grup według wielkości spółek. Najmniejsze spółki (Small) charakteryzują się bardzo silną ujemną korelacją pomiędzy dyspersją a stopą zwrotu. Największe spółki (Large) charakteryzują się już dużo mniejszą taką nagatywną relacją i jak widać jest już ona nieistotna statystycznie.

Dla pełniejszego obrazu Autorzy sporządzili ten sam test dla 3 podokresów.



Sytuacja tutaj bardziej się komplikuje. Efekt dla najmniejszych spółek S1 nadal jest silny, jednak już większe spółki stają się coraz bardziej odporne i tracą istotność. Możliwe, że dzieje się tak, ponieważ większe spółki są bardziej eksponowane i lepiej obserwowane, a więc inwestorzy mogli zacząć wykorzystywać zaobserwowane zależności. Być może jednak chodzi o to, że informacje zaczęły być w latach 80 i 90-tych coraz łatwiej dostępne, w szczególności dla większych spółek. To spowodowało, że inwestorzy lepiej szacowali przyszłe zyski, stąd rozbieżności tych prognoz stały się mniejsze, co z kolei musiało skutkować spadkiem stopy zwrotu (efekt rozbieżności stał się nieistotny).

Warto zasygnalizować, że Autorzy dodatkowo także dla pełniejszego obrazu zrobili test tylko dla spółek z NYSE. Efekt jest podobny, wyniki spółek o mniejszej kapitalizacji mają większą istotność stat.

Autorzy dodatkowo testują teorię Millera w kontekście efektu momentum. Dzielą spółki na małe, średnie i duże, a następnie wszystkie na 3 grupy o stopie zwrotu w ostatnim roku: o najniższej, średniej i najwyższej. "Przegrani" (Losers) stanowią grupę 33% najgorzej zachowujących się akcji, a "Wygrani" (Winners) grupę 33% najlepiej zachowujących się akcji. Oto wyniki:



Pomimo że Autorzy nie badają istotności statystycznej efektu momentum, możemy zauważyć "naocznie", że taki efekt występował. Zarówno małe, średnie, jak i duże spółki mają najniższe średnie stopy zwrotu gdy występują w grupie Losers i najwyższe gdy występują w grupie Winners. Oznacza to, że spółki które gorzej zachowywały się w ostatnim roku, będą również gorzej zachowywać się w kolejnym miesiącu. A spółki które lepiej zachowywały się w ostatnim roku, będą również lepiej zachowywać się w kolejnym miesiącu. Wszystko to dzieje się niezależnie od dyspersji prognoz.

Wpływ samej dyspersji na stopy zwrotu staje się bardziej skomplikowany. Istotna statystycznie ujemna korelacja występuje jedynie dla małych spółek, które nie należą do grupy Winners. Pomimo braku istotności dla Mid-Cap i Large-Cap, dla Losers i środkowej grupy nadal utrzymuje się ujemna zależność. Większa dyspersja ciągle wywołuje mniejszą stopę zwrotu. Ten efekt dopiero psuje się całkowicie dla Winners. Co więcej, dla Small-Cap negatywny wpływ dyspersji także jest tajemniczo słaby. Pytanie co może powodować usunięcie efektu dyspersji? Wprawdzie Autorzy podają różne rozwiązania i podpowiedzi, ale zamiast tego przypomnimy sobie jak wyjaśniłem ostatnio powstanie trendu, czyli właśnie efektu momentum na gruncie teorii Millera.

Wniosek z teorii był taki, że okres wzrastającej rozbieżności opinii podnosi natychmiastowo kurs, co powoduje, że późniejsza stopa zwrotu spada. Ale sam okres wzrostu rozbieżności opinii przynosi oczywiście wyższe stopy zwrotu.

Aby połączyć to z całością teorii, musimy rozbić sytuację na dwa efekty:

- rozbieżność opinii może być sama w sobie wyższa, jeśli informacje są mniej dostępne, jak w przypadku małych spółek. To sprawia, że kurs akcji jest wyższy, ale oczekiwana stopa zwrotu jako taka jest mniejsza,
- rozbieżność opinii może rosnąć lub spadać. Jeśli rośnie, to kurs podnosi się i wtedy dopiero w następnym okresie stopa zwrotu spada. Jeśli z kolei rozbieżność opinii spada, to kurs spada i wtedy dopiero w następnym okresie stopa zwrotu rośnie.

Oba efekty mogą się niwelować lub wzmacniać i tym samym wywoływać różne paradoksalne zjawiska.

W przypadku Losers dla małych spółek trend jest spadkowy lub słabo wzrostowy, bo np. rozbieżność opinii spada. Kurs spada (nie rośnie), oczekiwana stopa zwrotu w kolejnym okresie rośnie, ale jej wzrost jest hamowany przez większą ogólną rozbieżność opinii ze względu na to, że są to małe spółki. W konsekwencji średnia stopa zwrotu pozostaje niewielka (i efekt pozostaje bardzo istotny stat.).
Jednak dla większej spółki (większej kapitalizacji) rozbieżność opinii nie jest tak duża, co powoduje, że stopa zwrotu rośnie. Wtedy - pomimo słabości kursu waloru - przyszła stopa zwrotu może się utrzymywać na wyższym poziomie, powodując nieistotność ujemnej korelacji z rozbieżnością opinii.

W przypadku Winners dla małych spółek trend jest wyraźnie wzrostowy, bo np. rozbieżność opinii rośnie. Kurs rośnie, oczekiwana stopa zwrotu w kolejnym okresie spada, co zostaje wzmocnione przez fakt, iż dla małych spółek rozbieżność opinii jest większa. Ale ponieważ rozbieżność opinii ciągle rośnie, tak że trend wzrostowy się utrzymuje, spadek stopy zwrotu zostaje zahamowany. Stąd ujemna korelacja stopy zwrotu z rozbieżnością opinii staje się słabsza (przestaje być istotna stat).
W przypadku większych spółek rozbieżność opinii jest z natury mniejsza, a więc stopa zwrotu utrzymuje się na wyższym poziomie. Dodatkowo sam wzrost rozbieżności opinii wzmacnia stopę zwrotu w bieżącym okresie. To powoduje, że dla Winners (pozytywnego momentum) stopa zwrotu większych spółek nie koreluje z rozbieżnością opinii lub nawet korelacja ta wydaje się dodatnia.

Przypomnijmy obrazek ilustrujący ideę Millera:



Gdy wszyscy się zgadzają co do wartości akcji (zysku), wartość wewnętrzna równa się G, czyli jest to linia prosta. Gdy rozbieżność opinii o wartości rośnie, krzywa popytu na akcje się wygina, tak że przy stałej podaży będącej liczbą akcji N, cena rynkowa wzrasta (M, R, Q).

W ten sposób można wyjaśnić niejednoznaczne wyniki statystyczne badaczy przy diagnozie momentum.

Na postawione pytanie w tytule Autorzy odpowiadają oczywiście twierdząco, a więc teoria Millera sprawdza się w praktyce.

Na koniec tego artykułu należy zasygnalizować, że choć cała odkryta statystyczna strona modelu Millera wydaje się pociągająca, prawdziwa i niosąca pewne implikacje praktyczne, to inni Autorzy jak John A. Doukas, Chansog (Francis) Kim i Christos Pantzalis (2006) negują te wyniki, przedstawiają własne, które są przeciwne i argumentują, że model Millera wcale się nie sprawdza. I nie chodzi tu o błędy obliczeń. To odmienne stanowisko zostanie opisane w następnym artykule.


Literatura:

1. Diether, K, B; C, J, Malloy; A, Scherbina; "Differences of Opinion and the Cross Section of Stock Returns", 2002
2. Doukas, J.A., Kim C., Pantzalis C., "Divergence of Opinion and Equity Returns", 2006.

piątek, 8 czerwca 2012

Rozbieżność opinii w kontekście CAPM

Niedawno w poście Teoria portfela nie implikuje efektywnego rynku poruszyłem kwestię rozbieżności opinii na temat wartości akcji wśród inwestorów. Stwierdziłem, że zróżnicowanie oczekiwań sprawia, iż na wartość akcji można spojrzeć jak na przedział liczbowy. Pisałem także, że rozbieżność opinii stanowi jeden z możliwych warunków ukształtowania się trendu cen akcji. W tym artykule obalę mit, że sama rozbieżność opinii wywołuje trend. W tym celu posłużę się publikacją J. Lintnera "The Aggregation of Investor's Diverse Judgments and Preferences in Purely Competetive Security Markets" z 1969 r. podejmującą zagadnienie rozbieżności (niejednorodności) opinii pomiędzy inwestorami. Jest dużo więcej artykułów rozbudowujących tę tematykę, np.
- E. Miller - Risk, Uncertainty, and Divergence of Opinion, 1977
- R. Jarrow - Heterogeneous Expectations, Restrictions on Short Sales, and Equilibrium Asset Prices, 1980,
- C. Chiarella, R. Dieci, X-Z He - Aggregation of heterogeneous beliefs and Asset Pricing Theory: A mean-variance Analysis, 2007

Należy jednak zająć się podstawami.

Lintner w swoim artykule dowodzi, że niejednorodność opinii wśród inwestorów nadal pozwala zachować na rynku optimum Pareta (tzn. sytuację, gdy żadna strona nie jest w stanie poprawić swojej sytuacji bez pogorszenia drugiej strony, a więc rynek pozostaje efektywny), tak że teoria portfela wraz z CAPM może zostać odpowiednio uogólniona. Pomysł polega na zagregowaniu zróżnicowanych opinii inwestorów na temat przyszłej wartości akcji lub ryzyka (wariancji/kowariancji) w pewną uśrednioną opinię, będącą wynikiem sił popytu i podaży. Należy tu zwrócić uwagę, że Lintner zakłada, że obecna cena akcji jest prawidłowa, czyli rynek zachowuje efektywność - inwestorzy zgadzają się, że ich opinie zostaną odpowiednio uśrednione. Powstaje pytanie czy w takiej sytuacji nadal można rozważać wartość akcji przez pryzmat przedziału liczbowego. Można, tyle że musimy tu rozróżnić dwa kryteria: subiektywne i obiektywne. Każdy inwestor wycenia w ramach swoich możliwości jak najbardziej obiektywnie akcje. Zawsze jednak jego wycena będzie zawierać pewną dozę subiektywizmu. I to jest kryterium subiektywne. Rynek uśrednia wyceny wszystkich inwestorów w rynkową wycenę akcji. To jest kryterium obiektywne. Z punktu widzenia kryterium subiektywnego wartość akcji stanowi pewien przedział liczbowy. Z punktu widzenia kryterium obiektywnego wartość akcji stanowi konkretną liczbę, a subiektywna wycena jakiegoś inwestora jest po prostu losowym zakłóceniem prawidłowej wyceny.

Rozważając subiektywne wyceny, możemy stwierdzić, że inwestorzy posiadający identyczne preferencje ryzyka, będą trzymali akcje w portfelu w różnych proporcjach. Każdy z nich będzie stosował teorię portfela, ale może uzyskać inny skład portfela. Czyli mapa ryzyko-oczekiwana stopa zwrotu w teorii portfela będzie się przesuwać i zmieniać kształt w zależności od inwestora. Będzie również istnieć "rynkowa" mapa ryzyka i oczekiwanej stopy zwrotu, uśredniająca subiektywne mapy.

Należy zwrócić również uwagę, że decyzje inwestorów o skrajnie subiektywnych wycenach nie są błędne. Jeśli nazywać je już tak, to najwyżej można byłoby powiedzieć, że są to "wymuszone błędy".

Zakładamy dwa okresy: 0 i 1. Jest N walorów indeksowanych literką i oraz j. Jest także M inwestorów indeksowanych literką k. Lintner najpierw wyprowadza następujący wzór na oczekiwaną cenę akcji i-tego waloru k-tego inwestora w okresie 1:



Jeśli chodzi o v(i,k) to jest to jakby krańcowa wariancja portfela do i-tego waloru dla k-tego inwestora. Nie musimy tutaj się wgłębiać w znaczenie tej miary - najważniejsze, żeby zobaczyć, że jest proporcjonalna do kowariancji dla walorów i,j dla k-tego inwestora.

Można łatwo pokazać, że uśredniona (dla wszystkich inwestorów) oczekiwana cena akcji w okresie 1 jest równa:



Jeśli podzielimy obie strony przez P(0) i odejmiemy 1 z obu stron, to dostaniemy wzór na uśrednioną dla wszystkich M inwestorów oczekiwaną stopę wzrostu ceny i-tego waloru:



Załóżmy dla uproszczenia, że spółki nie wypłacają dywidend w okresie 1. Wówczas g(i) jest to oczekiwana stopa zwrotu i-tego waloru, co oznacza, że możemy to równanie potraktować jak uogólniony CAPM-SML dla rozbieżnych opinii. Model ten zapisywaliśmy w postaci:



W takim razie (uśredniona) i-ta cena ryzyka jest zależna od (uśrednionej) awersji do ryzyka oraz kowariancji cen i,j:



Wnioski są interesujące. Powyższy wzór jest na tyle ogólny, iż możemy stwierdzić, że nawet jeśli wszyscy inwestorzy mają takie same oczekiwania i opinie co do i-tej oczekiwanej stopy zwrotu, to i-ta cena ryzyka będzie zależeć nie tylko od kowariancji, ale także od awersji do ryzyka. A przecież awersja do ryzyka należy do dziedziny preferencji danego inwestora.

Załóżmy najpierw, że wszyscy mają identyczne oszacowania przyszłej ceny akcji (czyli także oczekiwanej stopy zwrotu) oraz ryzyka (wariancji/kowariancji cen, ale także stopy zwrotu). W takiej sytuacji, jeśli ktoś będzie miał wyższą awersję do ryzyka, to po prostu oczekiwana stopa zwrotu będzie musiała być mniejsza (inwestor chce mniej ryzykować). Ale ponieważ przyszła oczekiwana cena zależy dodatnio od awersji do ryzyka, to wariancja portfela będzie musiała odpowiednio mocniej spaść. Dostajemy więc klasyczny model - jeśli inwestor chce więcej (mniej) ryzykować, to posiada większe (mniejsze) ryzyko inwestycji, a wtedy oczekiwana stopa zwrotu rośnie (maleje).

Następnie uogólnimy ten przypadek. Załóżmy jeszcze raz, że wszyscy zgadzają się co do przyszłej ceny i-tej akcji. O ile aktualna cena akcji jest znana, to znów trzeba się zastanowić nad pozostałymi wyrazami: awersją do ryzyka i wariancją. Aby oczekiwana cena pozostała stała, to inwestorzy NIE MUSZĄ zgadzać się co do oszacowania wariancji, czyli ryzyka. Jeśli inwestor 1 uważa, że ryzyko jest wyższe niż inwestor 2, to aby ich oczekiwana cena pozostała identyczna, muszą się różnić awersją do ryzyka. Awersja do ryzyka inwestora 1 musi wtedy odpowiednio (stosunkowo) spaść.

Może się zdarzyć także sytuacja odwrotna. Inwestorzy mogą zgadzać się co do ryzyka, ale już nie oczekiwanej przyszłej ceny. Wówczas jeśli inwestor 1 ma wyższe oczekiwania ceny niż inwestor 2, to aby oszacowania ryzyka pozostały identyczne, awersja do ryzyka inwestora 1 musi stosunkowo wzrosnąć.

Inwestorzy mogą w końcu różnić się w ocenach zarówno przyszłej ceny, jak i ryzyka. W takiej sytuacji awersja do ryzyka przestaje mieć znaczenie "stabilizatora", bo każdy może mieć dowolne równanie oczekiwanej ceny. Stąd także każdy będzie posiadał swoje własne oszacowania SML. Oczywiście będzie podążał za racjonalnymi oczekiwaniami, lecz subiektywizmu w praktyce nie uda mu się ominąć. Oszacowania przyszłej oczekiwanej stopy zwrotu na podstawie średnich w przeszłości to duże uproszczenie zakładające, że przyszłość będzie taka jak przeszłość. Jednakże często to założenie nie jest uprawnione. Wykorzystywanie nowych, aktualnych informacji w sporządzaniu SML i wyceny dyskontowej rodzi duże pole do rozbieżności opinii. Dopiero rynek uśrednia wszystkie te opinie losując "obiektywną" wartość rynkową. Trochę to śmiesznie brzmi: rynek losuje wartość, którą należy uznać za obiektywną. Ale trzeba też pamiętać, że nie uwzględniamy tutaj różnych nieefektywności rynku, jak np. asymetria informacji czy też ataki spekulantów mające na celu wywołanie paniki lub euforii. Tak więc na razie kwestię formowania się trendów pozostawiam na boku. Dowodzę tylko, że sama rozbieżność opinii nie może stanowić przesłanki do tego, że kurs ma tendencję do poruszania się w danym kierunku.

Literatura:

J. Lintner, "The Aggregation of Investor's Diverse Judgments and Preferences in Purely Competetive Security Markets", 1969.

piątek, 27 kwietnia 2012

Jak CAPM wiąże się z teorią wyceny akcji? Przykład wyceny KGHM

CAPM zarówno swoją nazwą (Capital Asset Pricing Model to po polsku model wyceny aktywów kapitałowych) jak i istotą nawiązuje do wyceny akcji, więc tytułowe pytanie wydaje się bez sensu. W rzeczywistości model ten nie wyznacza bezpośrednio wartości wewnętrznej akcji, lecz właściwą oczekiwaną stopę zwrotu dowolnego aktywa kapitałowego (aktywom o określonym ryzyku rynkowym musi towarzyszyć odpowiednia oczekiwana stopa zwrotu). Zbyt wysoka oczekiwana stopa zwrotu w stosunku do ryzyka sprawi, że cena akcji szybko pójdzie w górę. Akcje znajdują się bowiem powyżej SML, a skoro cena wzrośnie, to oczekiwany zysk spadnie, a więc akcje powrócą na SML. Z kolei zbyt niska oczekiwana stopa zwrotu spowoduje, że cena szybko spadnie. Wtedy akcje znajdują się poniżej SML, a skoro cena spadnie, to oczekiwany zysk wzrośnie, a więc akcje powrócą na SML.

Fakt - CAPM można w takim sensie użyć jako narzędzie do wyceny akcji. Jednak rodzą się problemy w ogólniejszych przypadkach. W sytuacji gdy spółka dopiero co została założona lub gdy akcje dopiero co wchodzą na giełdę nie ma możliwości użycia CAPM. Innym kłopotem jest sytuacja, gdy spółka jest młoda i znajduje się w fazie ekspansji, a także gdy następują jakieś bardzo istotne fundamentalnie zmiany dla spółki - wtedy liczy się przede wszystkim analiza fundamentalna. Nawet w tych przypadkach nie wolno lekceważyć CAPM, ponieważ obecnie naukowcy pracują nad coraz bardziej zaawansowanymi rozszerzeniami i uogólnieniami tegoż modelu. Niemniej wszelkie niuanse i subtelności w zmianach wyceny mogą jedynie zostać odkryte w toku analizy fundamentalnej.

W sytuacji, gdy spółka wypłaca dywidendy i oczekuje się, że będą one rosły w średnim tempie g, wtedy możemy zastosować model wyceny Gordona:



gdzie:

P(0) - obecna wartość wewnętrzna akcji
D(1) - oczekiwana dywidenda w okresie 1
r - wymagana stopa zwrotu przez akcjonariusza (koszt kapitału własnego)
g - oczekiwana stopa wzrostu dywidendy

Krytycy tego prostego modelu przekonują, że jest on nieprzydatny, ponieważ istnieje zbyt duża niepewność co do przyszłości nawet stabilnej firmy; zmienność i cykliczność otoczenia gospodarczego nie pozwala wyznaczyć precyzyjnie wartości, natomiast inwestorzy różnią się znacznie oczekiwaniami na temat przyszłych zysków. Ponadto nawet niewielkie różnice pomiędzy tempem wzrostu zysku/dywidendy a kosztem kapitału własnego powodują silne zmiany w wycenie. Koszt kapitału własnego jest pojęciem abstrakcyjnym, umownym, ponieważ jego oszacowanie jest często intuicyjne. Powyższej krytyce można przeciwstawić 5 kontrargumentów.

Po pierwsze budowa modelu wyceny nie polega na znajomości przyszłości, lecz na posiadaniu racjonalnych oczekiwań. Racjonalne oczekiwania są często błędnie rozumiane przez inwestorów. Na przykład uważają, że wartość wewnętrzna powinna odzwierciedlać oczekiwania (prognozy) zarządu spółki lub też ich własne optymistyczne oczekiwania. W rzeczywistości rynek ocenia wartość obiektywnie, a więc uśrednia pesymistyczne i optymistyczne założenia. Oczywiście optymistyczne założenia będą mieć większą wagę, jeśli spółka dobrze sobie radziła w przeszłości.

Po drugie w psychologii, a także w ekonomii behawioralnej dobrze znane jest zjawisko regresji do średniej. Z tego punktu widzenia optymistyczne założenia, że firma będzie się rozwijać szybciej niż rynek, nie mogą być odpowiednie w długim okresie czasu, ponieważ należy założyć zbieżność do tempa rynku. Mogą przy tym istnieć pewne wyjątki, jeśli np. spółka ma już dziś przewagę monopolistyczną i jest w stanie ją utrzymać. Podobnie w drugą stronę - jeśli firma w najbliższym czasie będzie się wolniej rozwijać od rynku, to w dalszych okresach powinniśmy uwzględnić powrót do średniej. Mogą istnieć wyjątki także w tej sytuacji, np. jeśli zarząd ewidentnie niszczy wartość firmy lub jest strukturalnie nieefektywny.

Obok zjawiska regresji do średniej, można także zasygnalizować "działanie" prawa wielkich liczb. Zgodnie z tym prawem średnia z próby dąży wraz ze wzrostem liczebności próby do średniej z populacji. Prawo regresji do średniej nie jest prawem wielkich liczb. To pierwsze prawo jest prawem "natury", z kolei drugie - prawem matematyki.

Po trzecie bardzo ważny jest wyraz D(1) w modelu Gordona. To dzięki niemu możemy kalibrować zmianą wyceny. Wydaje się rozsądne założenie, że o ile dywidendy w okresach dalszych mogą rosnąć w średnim tempie g, o tyle dywidenda w okresie 1 może być dość dokładnie oszacowana, ponieważ zysk w okresie 1 można prognozować w oparciu o przeszłe i bieżące informacje.

Po czwarte racjonalny inwestor musi "chronić się" przed zbyt dużą niepewnością przyszłego wzrostu zysku firmy tak samo jak chroni się przed skutkami inflacji. Jeśli inflacja wzrasta, to będzie on wymagał większego zwrotu skorygowanego o stopę inflacji. Podobnie dzieje się, gdy firma potrafi zwiększyć tempo wzrostu zysku wykorzystując zwiększoną rentowność kapitału własnego. Inwestor w takiej sytuacji także musi zwiększyć wymaganą stopę zwrotu, ponieważ rodzi się niepewność, że ROE powróci do średniej po jakimś czasie. Z drugiej jednak strony nie wie jak oszacować takie ryzyko, bo nie ma na czym się oprzeć. Dlatego koszt kapitału własnego rośnie, ale nie aż tak mocno jak tempo wzrostu zysku (ani więc samo ROE). Kwestia ile dokładnie wzrośnie jest rzeczywiście złożona, ale tematem tym należałoby się zająć oddzielnie. Tak czy inaczej inwestor nie pozwoli, aby różnica pomiędzy r a g stała się nagle zbyt mała.

Po piąte siła wymienionych argumentów pozwala także wykorzystać prosty CAPM, który precyzyjnie wyznacza oczekiwaną stopę zwrotu. Ponieważ oczekiwana stopa zwrotu = wymagana stopa zwrotu akcjonariusza = koszt kapitału akcjonariusza, to teza o tym, że koszt kapitału własnego stanowi zbyt niejasną koncepcję traci rację bytu - nawet jeśli spółka nie była dotąd notowana na giełdzie, to do obliczenia wymaganej stopy zwrotu możemy wykorzystać dane statystyczne dotyczące spółki podobnej, ale notowanej na giełdzie zgodnie z twierdzeniem, że w długim okresie oczekiwana stopa zwrotu zbiega do średniej (w tym przypadku dla danej branży). Większy problem powstaje dla spółki o zupełnie nowym profilu czy zupełnie nowej branży nieobecnej na rynku. W tym przypadku ryzyko jest na tyle duże, że należy po prostu potraktować wartość księgową kapitału własnego jako wartość wewnętrzną, co spowoduje, że wymagana stopa zwrotu będzie bliska ROE. Większy problem powstaje w sytuacji, gdy spółka już istnieje jakiś czas na rynku, nie jest notowana na giełdzie i jednocześnie stosunek zadłużenia do kapitału własnego znacznie się różni od średniej ze spółek w branży. Wielkość zadłużenia wpływa bowiem na koszt kapitału własnego. Niektórzy próbują rozwiązać to zagdnienie wykorzystując tzw. równanie Hamady. Niestety podejście to zazwyczaj błąd, gdyż aby stosować r. Hamady trzeba rozumieć skąd ono wynika. Najlepsze rozwiązanie tego problemu polega na tym, aby
(a) obliczyć koszt kapitału dla branży lub spółki podobnej za pomocą CAPM ,
(b) obliczyć stosunek [ROE(dla danej spółki) / ROE(dla branży lub spółki podobnej) ]
(c) przemnożyć (a) przez (b).


Tak więc CAPM można włączyć do modelu wyceny dla każdej akcji. Przypomnijmy wzór CAPM-SML:



μ(i) - oczekiwana stopa zwrotu waloru i
Rf - stopa wolna od ryzyka rynkowego
beta(i) - ryzyko rynkowe waloru i
μ(M) - oczekiwana stopa zwrotu z portfela rynkowego (M)


Do wyceny wykorzystujemy prosty CAPM, ponieważ interesuje nas tylko uśredniona oczekiwana przyszłość wzrostu akcji. Koszt kapitału własnego w dużej części musi odzwierciedlać wynagrodzenie za ryzyko fundamentalne, a je możemy jedynie ocenić z perspektywy teraźniejszości (bieżących oczekiwań).

Przykład dla KGHM.

Akcje KGHM cieszą się dużą popularnością, ale jednocześnie są trudne do wyceny. Różnice w wycenach tej spółki różnych instytucji są olbrzymie. Fakt - ogromna zmienność cen miedzi powoduje, że wartość KGHM może bardzo szybko spaść i bardzo szybko wzrosnąć. Jednak paradoksalnie jest to właśnie dość pozytywny aspekt wyceny, ponieważ racjonalne oczekiwania będą polegały na uśrednianiu możliwych wydarzeń, a większe ryzyko będzie uwidocznione w większej oczekiwanej stopie zwrotu.

Wyznaczmy roczną wymaganą stopę zwrotu KGHM za pomocą CAPM. Dane obejmują okres od końca 1997 do końca 2011. Pobieramy dane ze stooq.pl. Wymagana stopa zwrotu obejmuje nie tylko wzrost kapitałowy ale także z dywidend. Stooq.pl zawiera opcję uwzględniania dywidend w kursie. Na podstawie wpisu Dlaczego indeks ważony kapitalizacją uważany jest za benchmark? wiadomo już, że indeks giełdowy stanowi przybliżenie portfela rynkowego. Przyjmiemy oczywiście za portfel rynkowy WIG. WIG jest to indeks uwzględniający także dywidendy.
Stopy zwrotu wraz ze średnimi przedstawia poniższa tabela:



Możemy graficznie porównać KGHM z WIG:



KGHM w tym okresie wzrósł wielokrotnie silniej od WIG. Roczna średnia arytmetyczna stopa zwrotu wyniosła prawie aż 49%, podczas gdy indeks 11,5%. Powstaje pytanie czy średnia stopa zwrotu KGHM nie była za duża? KGHM posiada dużą oczekiwaną stopę zwrotu, ponieważ jego wartość silnie zależy od czynników zewnętrznych: cen miedzi (które zależą od sytuacji makroekonomicznej) oraz czynników politycznych. Aby oszacować właściwą wymaganą stopę zwrotu, użyjemy wzoru SML.

Zanim jednak zastosujemy ten wzór, powinniśmy sprawdzić czy stopa zwrotu KGHM nie posiada przypadkiem rozkładu Levy'ego z nieskończoną wariancją. Ja używam programu J. P. Nolana Stable. Oczywiście obserwacji jest tu zdecydowanie za mało, by móc coś konkretnego powiedzieć. Jednak zamiast częstości rocznych, możemy użyć do sprawdzianu częstości kwartalnych. Program wylicza, że dla tych danych parametr alfa = 2, czyli KGH ma skończoną wariancję. Możemy zatem spokojnie zastosować klasyczny SML.

Pewien problem leży w wyznaczeniu stopy wolnej od ryzyka Rf. Za Rf najczęściej przyjmuje się średnią rentowność 52-tygodniowych bonów skarbowych. Jednak średnia rentowność bonów w danym okresie, których dane uzyskałem z portalu money.pl wynosi 8,59%, co jest spowodowane występowaniem bardzo dużej inflacji w początkowych latach badanego okresu.

Wydaje się, że aby prawidłowo wyznaczyć r, trzeba używać tych samych okresów co KGH zarówno dla WIG jak i Rf. Wymagana stopa zwrotu w różnych okresach może mieć bowiem inne parametry. Problem jednakże polega na tym, że przecież na podstawie danych historycznych chcemy wyliczyć oczekiwaną stopę zwrotu w teraźniejszości i przyszłości, a więc aproksymujemy przeszłość na teraźniejszość i przyszłość. Ale z tego wynika, że przyjmujemy te same parametry co w przeszłości. Nie można zgodzić się na to, aby Rf wyniosła 8,59%, ponieważ dziś rentowność bonów sk. wynosi 4,58%. W momencie gdy inflacja zaczęła silnie spadać, rentowność zaczęła się normować. I tak od 2003 r. do końca 2011 średnia rentowność bonów wynosi 5,2%. Przyjmiemy zatem za Rf = 5,2%, ponieważ taką wolną od ryzyka stopę można założyć w przyszłości.

Ostatnia kwestia to beta, do obliczenia której używamy wzoru:



Średnia stopa zwrotu WIG w danym okresie wynosi 11,48%. Na marginesie dodam, że o ile stopą wolną od ryzyka można manipulować, to już samą średnią stopą WIG nie można. Beta liczona jest bowiem w oparciu o stopy w danym w okresie, dlatego też Rm musi być dokładnie średnią arytmetyczną z tego okresu. Nie może być geometryczną średnią, ani jakąś inną którą sobie arbitralnie ustalamy. To jest zabronione, bo beta uwzględnia prawdziwą średnią arytmetyczną. Zatem jeśli np. w danym okresie Rm = 14%, to wstawiamy 14%, a nie 10% bo nam się tak wydaje lepiej.

Po obliczeniu bety, która wyszła 2,4 podstawiamy dane do wzoru na CAPM:

r = 5,2 + 2,4*(11,48-5,2) = 20,3%.

Otrzymana wymagana stopa zwrotu dla KGH wynosi 20,3%.

Porównując średnią stopę zwrotu KGH 49% z wymaganą stopą zwrotu 20,3% możemy początkowo wnioskować, że oczekiwana stopa zwrotu dla KGHM leży powyżej SML, czyli rynek jest czy był nieefektywny - KGH był za nisko wyceniony. W rzeczywistości ten wniosek może się okazać tylko pozorny. Arytmetyczna średnia będzie prawidłowa dla długich okresów obserwacji, lecz dla krótszych przypisze zbyt dużą wagę obserwacjom odstającym. Aby rozwiązać ten problem można użyć średniej geometrycznej za pomocą wzoru:

średnia geometryczna stopa zwrotu = (wartość końcowa/wartość początkowa)^[1/(n-1)] - 1.

Podstawiając dane dostaniemy (110,6/6,9229)^(1/(15-1)) - 1 = 21,9%.

Jak widać średnia geometryczna bardzo bliska jest wartości otrzymanej za pomocą CAPM. Jednakże średnia geometryczna ma jedną podstawową wadę: w ogóle nie uwzględnia wartości środkowych. Dlatego najlepszą estymację średniej uzyskuje się stosując regresję liniową wg następującego wzoru:

ln(kurs) = a + b*t + e

Współczynnik kierunkowy (b) tej funkcji staje się średnim procentowym wzrostem zmiennej objaśnianej. Podstawiając dane dla KGHM, otrzymałem b = 22,4%.

A zatem w tym przypadku średnia stopa zwrotu jest bardzo zbliżona do geometrycznej i nieco mniej do CAPM. Niemniej odchylenie jest niewielkie i widać, że CAPM prawidłowo wyliczył wymaganą stopę zwrotu. KGHM leży praktycznie na SML (rynek prawidłowo wycenia akcje).

Powstaje jednak pytanie czy statystyczna wycena (czy statyczna jak kto woli) będzie odpowiadać fundamentalnej. na razie wiemy tylko, że KGHM statystycznie jest dobrze wyceniony, co nie znaczy, że jest dobrze wyceniony na chwilę obecną - pełną dynamikę wyceny może jedynie oddać model dyskontowy uwzględniając fundamenty. Aby sprawdzić czy dzisiejsza rynkowa wycena KGHM jest prawidłowa, użyjemy wzoru Gordona, gdyż KGHM jest spółka, która konsekwentnie wypłaca dywidendy od 2005 r. Tak więc dane będą dotyczyć okresu 2005-2011.

Aby wyznaczyć wartość wewnętrzną akcji KGHM potrzebujemy wyliczyć tylko dwie zmienne: g oraz D(1), ponieważ r już obliczyliśmy. Zajmijmy się g. We wpisie Analiza tempa wzrostu zysku firmy pisałem o 3 metodach szacowania stopy wzrostu zysku: historycznej, eksperckiej i fundamentalnej (teoretycznej). Najlepiej użyć wszystkich 3 i połączyć. Tak też zrobimy. Z historycznego punktu widzenia tempo g wyznaczamy w oparciu o parametr b' tendencji rozwojowej:

ln(dywidenda) = a' + b'*t

Ocena parametru b' wynosi 21,1%, choć przy dużym odchyleniu standardowym. Wartość ta jest większa niż r, więc nie może być użyta do wyceny: w którymś miejscu popełniamy błąd. Od razu warto sprawdzić czy przypadkiem nie mamy tu do czynienia z trendem nieliniowym. Logarytmiczna dywidenda ma następujący wykres:



Danych jest zbyt mało, by rozsądzać o trendzie. Powinniśmy więc zastąpić dywidendy zyskami. Sprawdźmy jak zyski rosną od 1998 do 2010 r. (pomijamy 2011, bo dywidendy odnoszą się do zysku z poprzedniego roku). Wyznaczenie tendencji rozwojowej musi tu odbyć się bez stosowania logarytmów, gdyż zyski w niektórych latach były ujemne. W takiej sytuacji często rozwiązuje się ten problem następująco:
1. najpierw wyznacza się regresję liniową dla samej zmiennej, czyli zysku, aby uzyskać średnią zmianę zysku równą współczynnikowi kierunkowemu regresji,
2. następnie oblicza się średni zysk w danym okresie
3. Dzieli się współczynnik kierunkowy z (1) przez średni zysk z (2), aby uzyskać średnią procentową zmianę zysku.

Okazuje się, że zysk średnio rośnie w tempie 24%, czyli zdecydowanie nadal zbyt dużo.

Widać więc, że metoda historyczna w tym przypadku jest niewystarczająca. Gdybyśmy dodatkowo posiadali pewne fundamentalne informacje, być może problem udałoby się rozwikłać. Podpowiedź znajdujemy w zdarzeniach ostatnich miesięcy.

W 2011 r. akcjonariusze KGHM mieli wyjątkowego pecha. Z jednej strony wyniki spółki były rekordowe, ale stało się tak w dużej części dzięki zdarzeniom jednorazowym. Z drugiej strony pojawiły się silne sygnały recesyjne w Europie i USA, co natychmiast przełożyło się na spadki notowań miedzi, a więc także KGHM. Pod koniec roku, gdy wydawało się, że kurs akcji może wrócić do ostatnich maksimów, jak obuchem uderzyła w rynek wiadomość o wprowadzeniu przez rząd podatku od niektórych kopalin, w tym miedzi. Kurs KGHM natychmiast zareagował potężną wyprzedażą.

Te negatywne zdarzenia wpłynęły na całą strukturę wyceny akcji. Łatwo to dostrzeżemy, gdy obliczymy r z CAPM ucinając rok 2011. Wtedy okazuje się, że r = 26,2%. Płyną z tego ważne wnioski. Stopa r prawdopodobnie zmniejszyła się z ok. 26 do ok. 20%. Również g spadło. Pytanie jak bardzo? Aby uzyskać odpowiedzieć na to pytanie, musimy się dowiedzieć, jaki wpływ ma nowy podatek na wyniki spółki. W artykule na forbes.pl Podatek od kopalin zmniejszy potencjał KGHM czytamy:

Zdaniem analityka wprowadzenie podatku od kopalin da budżetowi Polski, przy obecnym poziomie cen miedzi, prawie 2,5 mld zł rocznie dodatkowych wpływów. To oznacza jednak, że KGHM będzie miał właśnie o taką kwotę mniej pieniędzy na inwestycje, dywidendę, czy inne projekty, na które chciałby wydać te pieniądze.


Połączmy ten fragment z prognozą zysku KGHM na 2012 r. W artykule money.pl Najnowsza prognoza zysku netto dla KGHM czytamy, że spółka zakłada zysk na poziomie 3,8 mld zł. Dodając do 3,8 wartość 2,5 dostajemy 6,3 mld. Zatem stosunek 3,8/6,3 = 0,6 jest to wielkość korygująca zysk o podatek od kopalin. Oznacza to, że aby oszacować g po uwzględnieniu podatku, musimy przemnożyć stare g przez 0,6. Z regresji otrzymaliśmy 21,1%. Oznacza to, że właściwe g = 0,6*21,1% = 12,66%.

Porównamy następnie ten wynik z metodą fundamentalną. Metoda ta polega na zastosowaniu dla ROE = const, wzoru g = k*ROE, gdzie k = 1-dywidenda/zysk netto. Natomiast w ogólnym przypadku g(t) = k(t)*ROE(t) + s(t), gdzie s(t) = ROE(t)/ROE(t-1)-1. Oczywiście ROE zmienia się dla każdego okresu, ale nas interesują średnie wielkości - jeśli średnie ROE istnieje dla danego okresu, to różnice w ROE w różnych latach można potraktować jak odchylenia statystyczne. Dlatego też używamy pierwszego wzoru na g. Średni stosunek dywidenda/zysk netto w l. 2005-2011 wyniósł 0,485, czyli k = 1-0,485 = 0,515. Średnie ROE w okresie 2004-2010 wyniósł 38,7% (dywidenda liczona jest od zysku z zeszłego roku, czyli od 2004 do 2010). Czyli

g = 0,515*38,7% = 19,9%.

Otrzymany wynik metodą fundamentalną jest bardzo zbliżony do uzyskanego za pomocą regresji liniowej. Aby uzyskać właściwą wartość g, skorygujemy również tę wielkość o 0,6. Stąd g za pomocą metody fundamentalnej wynosi:

g = 0,6*19,9% = 11,94%.

Aby połączyć metodę ekonometryczną z fundamentalną, obliczmy średnią wyników z obu metod:

g = (12,66+11,94)/2 = 12,3%.

Liczba akcji KGH wynosi 0,2 mld. Ponieważ zysk KGHM w 2012 r. zakładany jest na poziomie 3,8 mld zł, to zysk na akcję wynosi 3,8 zł/0,2 = 19 zł. Wcześniej podałem, że średni stosunek dywidenda/zysk wynosi 0,485. Oczekiwana dywidenda z zysku za 2012 r. wypłacona w okresie 1 (w roku 2013) równa się:

0,485*19 zł = 9,215.

Obecnie jesteśmy po 1 kwartale 2012 r. + 1 miesiąc. Zatem oczekiwana dywidenda w okresie 1 dotyczy 2013 + 1 kwartał 2013 + 1 miesiąc 2013. Oczekiwana dywidenda wypłacona za rok, czyli na początku maja 2013 r. uwzględnia dodatkowe odpowiednio proporcjonalne tempo wzrostu w tym czasie, które wynosi 12,3%/4 + 12,3%/12 = 4,1%. (Ponieważ obliczamy wzrost za 1 kwartał + 1 miesiąc). Oczekiwana dywidenda wynosi:

D(1) = 9,215*(1+4,1%) = 9,6 zł.

Podstawmy dane do wzoru Gordona:

P(0) = D(1)/(r - g) = 9,6 /(0,203-0,123) = 120.

Nie można jednak zapomnieć, że dywidenda za 2011 r. jeszcze nie została wypłacona, ale jest już pewna i powiększa wirtualnie kapitał inwestora, a więc i wartość akcji. Gdy dywidenda zostanie wypłacona, kurs zmniejszy się o jej wysokość. W tym momencie wartość wewnętrzna nadal uwzględnia więc wartość jeszcze niewypłaconej dywidendy za 2011 r. Na podstawie artykułu Dywidenda KGHM: możliwa wypłata 18 zł na akcję stwierdzamy, że jest to 18 zł. Tak więc całkowita wartość wewnętrzna akcji KGHM wynosi:

P(0) = 120 + 18 = 138 zł.

A teraz przyglądamy się kursowi akcji. Dziś kurs KGHM wynosi 137,7 zł.

Aby upamiętnić, że tyle rzeczywiście cena obecnie wynosi wklejam wykres:



Podsumowanie.

Przedstawiłem teoretyczną podstawę połączenia CAPM i wyceny akcji za pomocą modelu dyskontowego, a także uzasadniłem użycie prostego modelu Gordona. Przeprowadziłem badanie dla KGHM w dwóch kierunkach: użycia CAPM jako narzędzia estymacji oczekiwanej stopy zwrotu, którą następnie można zastosować do modelu Gordona. I tak po pierwsze prosty CAPM świetnie się sprawdził jako metoda wyznaczania oczekiwanej stopy zwrotu, ponieważ średnio tyle mniej więcej wynosi faktyczny zwrot z akcji. Po drugie model Gordona w połączeniu z CAPM również bardzo dobrze się sprawdził - widać, że rynek właśnie tej metody używa, ponieważ obecny kurs KGHM jest praktycznie równy teoretycznej wycenie. Prawdopodobnie stało się tak przez przypadek, ale zbieżność teorii do rzeczywistej ceny jest imponująca. Możemy stwierdzić, że rynek okazuje się fundamentalnie bardzo efektywny w przypadku akcji KGHM.

Źródło danych statystycznych:

stooq.pl
bankier.pl
money.pl

piątek, 30 marca 2012

Teoria portfela nie implikuje efektywnego rynku

Jak zostało powiedziane, teorię portfela (zarówno klasyczną Markowitza i CML, jak również uogólnioną czy też w wersji alternatywnej) należy stosować pod warunkiem, że spełnione są jej założenia o istnieniu oczekiwanej stopy zwrotu i (mierzalnego) ryzyka instrumentów finansowych. Jak się jednak dobrze zastanowimy, to dojdziemy do wniosku, że ta oczekiwana stopa zwrotu musi być właściwa - warunek ten oznacza, iż akcje muszą być dobrze wycenione. Dlaczego? Najlepiej zrozumieć to na przykładzie. Załóżmy, że kupujemy akcje PKO BP. Spółka ta rozwija się stabilnie w tempie wzrostu gospodarczego (ok. 7% rocznie). Ryzyko tutaj nie jest duże, więc nie powinniśmy oczekiwać dużych zwrotów. Oczekiwana stopa zwrotu powinna wynieść tyle co dla rynku polskiego, czyli ok. 11%. Gdyby więc oczekiwana stopa zwrotu PKO BP wyniosła aż 30%, to inwestorzy zaczęliby oczywiście rzucać się stadem na akcje, bo takiej okazji trudno przegapić. To spowodowałoby, że cena szybko wzrosłaby, a wówczas ostatni inwestorzy nie mogliby już osiągnąć zbyt dużych zwrotów. Pytanie brzmi: do jakiego punktu cena wzrośnie? Odpowiedź: cena wzrośnie do takiego punktu, aby oczekiwana stopa zwrotu wyniosła 11% (spadnie do takiego poziomu). Odwrotnie jeśli oczekiwana stopa zwrotu wyniesie tylko 5%. Tak mały zwrot jest nieopłacalny przy ponoszonym ryzyku, a zatem inwestorzy będą sprzedawać akcje. Cena spadnie do punktu aż oczekiwana stopa zwrotu wyniesie 11% (wzrośnie do takiego poziomu).

Widać więc, że jeśli akcje nie są prawidłowo wycenione, to nie opłaca się stosować teorii portfela: kupujemy akcje najbardziej niedowartościowane, sprzedajemy przewartościowane. Jeśli natomiast akcje są dobrze wycenione, to oczekiwana stopa zwrotu jest właściwa (czyli dobrze odzwierciedla ryzyko), zatem teoria portfela pozostaje ważna.

Warunek dobrze wycenionych akcji nie musi jednak oznaczać, że gracze są w pełni racjonalni lub że rynek jest w pełni efektywny. Może wystąpić sytuacja, gdy stopy zwrotu są skorelowane, daje się przewidzieć kierunek kursu i na tym dodatkowo zarobić, a jednocześnie akcje będą nadal dobrze wycenione. Możemy wszakże spojrzeć na wartość akcji w szerszym kontekście - nie jak na liczbę lecz przedział. Wartość akcji może się mieścić w pewnym przedziale z co najmniej dwóch powodów.

Po pierwsze inwestorzy mają często odmienne oczekiwania co do przyszłych zysków i dywidend. Jeden może uważać, że obecnie to już za drogo, drugi, że poziom cenowy jeszcze nie osiągnął optimum. Należy jednak pamiętać, że gracze mają racjonalne oczekiwania - uśredniają optymistyczne i pesymistyczne założenia, więc różnice oczekiwań nie muszą być wcale duże. Ale w jaki sposób konkretnie tworzą oczekiwania? Aby odpowiedzieć na to pytanie, musimy wrócić do postu Analiza tempa wzrostu zysku firmy. Są trzy podejścia oszacowania przyszłego tempa wzrostu: historyczne, eksperckie i fundamentalne. Metoda ekspercka jest oczywiście mocno subiektywna, choć jak wskazują np. badania O'Brien'a (1988) prognozy analityków dla kolejnych dwóch kwartałów pokonywały modele szeregów czasowych, dla kolejnych trzech kwartałów były tak samo dobre, zaś dla czterech naprzód już gorsze. W podejściu historycznym również występować może duża doza subiektywizmu, jeżeli średnie tempo wzrostu zysku spółki nie było dotąd jednorodne w czasie. W tworzeniu przyszłych oczekiwań należy wykorzystać wówczas Prawo Wielkich Liczb (zgodnie z którym średnia z próby dąży do średniej z populacji) lub znane w psychologii tzw. prawo regresji do średniej. Z tego właśnie względu w modelu wyceny akcji umieszcza się wartość rezydualną, która zakłada po pewnym czasie stały oczekiwany wzrost zysku. Okej, ale od którego okresu przyjąć ten stały wzrost zysku, skoro np. spółka zmieniła strategię lub dokonała restrukturyzacji, tak że po latach wychodzi na prostą? Oto jest pytanie. Z kolei w podejściu fundamentalnym w celu obliczenia parametrów wykorzystuje się metodę historyczną lub/i ekspercką. Dlatego subiektywnego punktu widzenia w praktyce raczej nie da się uniknąć. Dlaczego podkreśliłem "raczej"? Zawsze można porównać daną firmę do innych firm, które przechodziły kiedyś podobną drogę i na tej podstawie wyciągnąć wnioski. Problemem niestacjonarności w ekonomii zajmował się Hamilton w pracy z 1989, którą można przeczytać TUTAJ. Później powstało wiele publikacji na ten temat. S. Eickmeier TUTAJ poszukuje stacjonarnych i niestacjonarnych czynników wpływających na wzrost gospodarczy w strefie euro. Jedną z nowszych prac zajmującą się niestacjonarnością statystycznej aktywności gospodarczej w USA jest praca do przeczytania TUTAJ. Tak czy inaczej, są to tylko narzędzia ekonometryczne, natomiast oceny zawsze dokonuje badacz. Dlatego wcześniej napisałem, że inwestorzy mogą różnić się w szacunkach, ale różnice te mogą nie być wielkie. W każdym razie nie mogą być na tyle duże, aby wywołać długoterminowy trend. Do tego potrzeba czegoś więcej.

Po drugie na rynku panuje asymetria informacji. Niektórzy są lepiej poinformowani i dyskontują szybciej informacje. Ponieważ insider trading jest zakazany, inwestorzy ci odpowiednio się kryją, np. jeśli znają dobre wiadomości przed ogółem, kupują mniejszymi pakietami akcje wcześniej w odpowiednim okresie czasu, wywołując tym rosnący popyt. Inni gracze, np. stosujący analizę techniczną, wyłapują wczesny trend rosnący, co powoduje jego umocnienie. Dodatkowo dobre/złe informacje często występują seriami. Oczywiście racjonalny inwestor dyskontuje taki fakt w momencie ukazania się pierwszej pozytywnej/negatywnej informacji. Jednakże tutaj właśnie włącza się pierwszy podany wyżej powód - różnice w oczekiwaniach wpływu informacji na przyszłe wyniki spółki. Nawet jeśli po pojawieniu się jednej dobrej informacji, rynek natychmiast zdyskontuje ukazanie się prawdopodobnej serii kolejnych pozytywnych informacji, to wcale nie musi być zgody co do siły znaczenia tych następnych informacji. Jeśli np. PKO BP rośnie średnio 7% rocznie, ale w danym roku zysk netto wzrósłby o 15%, to rynek musi przeanalizować z czego to wynikło. Czy miały na to wpływ pojedyncze przypadkowe zdarzenia, czy też był to jakiś zaplanowany sukces inwestycyjny? Do tego wniosku rynek dojdzie rzecz jasna obiektywnie. Ale już wpływ samego zdarzenia jest mocno subiektywny. Mogło być tak, że akurat złożyły się jakieś szczególne okoliczności, które nie są możliwe do spostrzeżenia, a tym bardziej są niemierzalne, lecz pomogły osiągnąć taki rezultat, przy czym spółka przypisuje to własnym umiejętnościom. Jeśli jakieś szczęśliwe okoliczności do tego doprowadziły, wówczas rynek musi to odebrać jako zwykły fart - a zatem jako ten pierwszy wariant. Wtedy oczywiście rynek potraktuje to jako pojedyncze wydarzenie. Jeśli natomiast zadziałał tu jakiś czynnik strukturalny, to rynek musi to odebrać jako coś więcej - być może początek serii tak dobrych wyników. Ale jeśli nawet potraktuje jako zapoczątkowanie serii, to także może się różnić w tym, jak szybko ta seria wygaśnie i z jaką siłą.

Sprzężenia zwrotne pomiędzy różnicami oczekiwań a popytem spekulującym pozytywne/negatywne informacje na podstawie wzrostu/spadku kursu wywołanym przez insiderów może zatem skutkować pojawieniem się długiego trendu. Oznaczać to musi nieefektywność rynku lub niepełną racjonalność graczy.

No dobrze, ale wyobraźmy sobie sytuację, że kurs PKO BP rośnie przez 2 lata, a miesięczne stopy zwrotu są mocno skorelowane. Wiemy, że roczna oczekiwana stopa zwrotu z tej akcji wynosi mniej więcej 11%. Oznacza to, że miesięczna wynosi 0,9%. Jednakże akcje w ciągu tych dwóch lat rosną średnio miesięcznie 5%, czyli 80% rocznie. Oczywiście wiemy, że w długim okresie czasu średnia stopa wróci do wartości oczekiwanej, jednak co zrobić z takim przypadkiem średniookresowym? Potraktować jako przypadkowe odchylenie od normy czy też jako źle wycenioną akcję? Nie, ani to, ani to. Akcje mogą być ciągle dobrze wycenione, jeśli ta oczekiwana stopa zwrotu będzie właściwa przy odpowiednim ryzyku. Można pomyśleć, że ryzyko jest niewspółmiernie niskie w stosunku do stopy zwrotu. Jednak... problem polega właśnie na tym, że ów stosunek może się zmieniać w czasie. Przecież ta zmienność także jest niepewnością! Wchodzimy tutaj znowu w zagadnienia niestacjonarności. Zagadnienie to również nie jest nowe z punktu widzenia teorii portfela. Już Markowitz dostrzegał problem w postaci niejednorodności w czasie parametrów rozkładu stopy zwrotu. Na początku proponowano użyć wielookresowego modelu portfela Markowitza, jednakże taki model jest trudny do zaakceptowania - jest sztuczny i nie uwzględnia efektów niestacjonarności. Pionierami w uogólnieniu teorii portfela na niestacjonarność oczekiwanej stopy zwrotu i ryzyka byli C. B. Barry i R. L. Winkler - Nonstationarity and Portfolio Choice. W kolejnych latach powstało znowu wiele publikacji wnoszących jakieś nowe idee do "niestacjonarnej teorii portfela". W Nonstationary Optimization Approach for Finding Universal Portfolios Autorzy oprócz wyłożenia swojej teorii, przedstawiają też interesujące wyniki empiryczne.

W ten sposób wykazałem, że możliwość (konieczność) zastosowania teorii portfela w szerokim jej znaczeniu nie implikuje efektywności rynku, pomimo że implikuje dobrze wycenione aktywa - pod warunkiem, że potraktujemy wartość aktywa w kategoriach przedziału a nie liczby.

czwartek, 22 marca 2012

Dlaczego indeks ważony kapitalizacją uważany jest za benchmark?

Powiedzmy, że systematycznie co roku pokonujemy bez większych trudności indeks giełdowy. Pada wówczas myśl, że jesteśmy lepsi od rynku, a tym samym od innych inwestorów. Nasuwa się pytanie: dlaczego rynek utożsamiamy z indeksem giełdowym? Dlaczego standardowo porównujemy stopę zwrotu z inwestycji ze stopą zwrotu z indeksu giełdowego, który jest (najczęściej) ważony kapitalizacją (jak np. WIG lub S&P 500)? Dlaczego za benchmark nie uznajemy np. indeksu o równych wagach poszczególnych spółek? Albo jakichś innych? Odpowiedź na to pytanie kryje się w teorii portfela.

Załóżmy najpierw, że spełnione są założenia teorii portfela, o których można przeczytać w skrócie we wpisie Teoria portfela. Model Markowitza - Wprowadzenie W rzeczywistości warunki te nie muszą być w pełni spełnione, ponieważ klasyczną teorię portfela Markowitza można uogólnić, np. na niegaussowskie rozkłady, o czym można poczytać we wpisie Klasyka żyje i ma się dobrze (dlatego teoria portfela jest szerszym pojęciem od teorii Markowitza). Niemniej muszą istnieć warunki pozwalające na to, aby stopa zwrotu z instrumentu finansowego posiadała dwa parametry: ryzyko oraz oczekiwaną stopę zwrotu (wartość oczekiwaną).

Następnie załóżmy, że wszyscy inwestorzy są w pełni racjonalni. Wynikają z tego dwa wnioski. Po pierwsze stosują oni teorię portfela (ponieważ jej założenia są spełnione). Pamiętamy o co w niej chodzi - istnieją walory (np. akcje), które włączamy do portfela i zadanie polega na znalezieniu portfela o minimalnym ryzyku przy wybranej oczekiwanej stopie zwrotu. Logika podpowiada, że im wyższe ryzyko, tym wyższa powinna być oczekiwana stopa zwrotu. Jednak jest to logika ekonomiczna, a nie matematyczna. Poniżej widzimy krzywą minimalnego ryzyka (na mapie ryzyko-oczekiwana stopa zwrotu, przy czym ryzyko jest tu odchyleniem standardowym, tj. pierwiastkiem z wariancji), na której leżą ich portfele - każdy inwestor wybiera portfel na tej krzywej wedle swoich preferencji (wybiera portfel o jakiejś oczekiwanej stopie zwrotu i patrzy jakie ryzyko jej towarzyszy):



Dolna część krzywej jest zakreskowana ponieważ jest to część nieefektywna, którą racjonalni inwestorzy odrzucają (bo wraz ze wzrostem ryzyka oczekiwana stopa zwrotu portfela spada). Górna część krzywej nazywana jest granicą portfeli efektywnych.

Po drugie inwestorzy wykorzystują w pełni wszystkie istotne informacje rynkowe, w tym możliwość pełnej dywersyfikacji portfela. Przypomnijmy definicję dywersyfikacji ryzyka:

Dywersyfikacja ryzyka jest to inaczej rozproszenie (zmniejszenie) ryzyka portfela na skutek włączenia doń dużej liczby różnych walorów bez obniżenia oczekiwanej stopy zwrotu portfela.

Częstym błędem inwestorów jest twierdzenie, że dywersyfikując portfel zmniejszamy ryzyko, ale przy tym także oczekiwaną stopę zwrotu. A właśnie istota dywersyfikacji polega na nie zmniejszaniu oczekiwanej stopy zwrotu. Jest to możliwe dzięki "oczyszczeniu" walorów z wzajemnych korelacji (wtedy kombinacje liniowe walorów stają się niezależnymi stopniami swobody). Istotę dywersyfikacji przedstawia poniższy rysunek znany już z wpisu Teoria portfela Markowitza. Portfel złożony z K walorów:



Widzimy 3 krzywe minimalnego ryzyka. Krzywa N1A jest granicą efektywnych portfeli trzyskładnikowych (ABC), przy czym N1(1,05; 5,9) jest portfelem o globalnie minimalnej wariancji. Krzywa N2B jest granicą efektywną portfeli dwuskładnikowych (BC), przy czym N2(2,47; 4,41) jest portfelem o minimalnej wariancji. Z kolei krzywa N3A jest granicą efektywną portfeli dwuskładnikowych tworzonych z (AB), zaś N3(3,12; 8,78) jest portfelem o minimalnej wariancji. Zatem figura CN1AN3BN2 jest zbiorem portfeli dominujących nad wszystkimi innymi portfelami dwuskładnikowymi.

Stąd granica efektywnych portfeli 3-składnikowych jest bardziej opłacalna od 2-składnikowych.

Im więcej walorów uwzględni się w portfelu, tym ryzyko zostanie bardziej zdywersyfikowane. Wykorzystując możliwie najwięcej walorów na rynku można stworzyć krzywą minimalnego ryzyka, która znajdzie się możliwie najbliżej osi pionowej. Wszyscy inwestorzy mają więc taką samą krzywą minimalnego ryzyka i ich portfele giełdowe znajdują się gdzieś na tej krzywej.

Jednakże rynek kapitałowy to nie tylko akcje, ale także obligacje. Wprawdzie ryzykowne obligacje mogą zostać potraktowane jak akcje, jednakże obligacje rządowe zazwyczaj uznawane są za walory wolne od ryzyka. (Modna obecnie Grecja to nadal skrajność). Mogą także występować wysoko oprocentowane lokaty. Dzięki włączeniu waloru wolnego od ryzyka maksymalnie zdywersyfikujemy portfel. Włączmy zatem walor wolny od ryzyka (F) do portfela. Inwestor dzieli kapitał na dwie części: ryzykowną oraz bez ryzyka. Oczekiwana stopa zwrotu portfela jest więc pewną kombinacją liniową oczekiwanej stopy zwrotu z giełdy i stopy zwrotu z waloru wolnego od ryzyka. Jeżeli sztucznie założymy, że inwestor może także pożyczać od kogoś aktywa po stopie procentowej wolnej od ryzyka, to wizualnie kombinacja ta daje linię prostą (jeśli zaś realnie założymy, że stopa procentowa pożyczki będzie wyższa, to od pewnego punktu linia zmniejszy nachylenie ze względu na dodatkowe koszty - kwestia ta jednak jest głównie techniczna i jej nie omawiam, gdyż niepotrzebnie komplikowałaby ideę zagadnienia). Ale uwaga. Na początku inwestor wybierał dowolny ryzykowny portfel na krzywej minimalnego ryzyka zgodnie ze swoimi preferencjami. Wynikałoby z tego, że po połączeniu z walorem wolnym od ryzyka, może powstać wiele klas kombinacji liniowych. Jednakże szybko spostrzegamy, że istnieje tylko jedna efektywna klasa kombinacji liniowych, tak że tylko jeden portfel (M) leżący na krzywej minimalnego ryzyka może zostać wybrany do tej kombinacji:



Najlepszą linią jest ta która przynosi najwyższą możliwą oczekiwaną stopę zwrotu przy danym ryzyku. Zatem ta linia reprezentuje najlepszą klasę linii, zaś te zakreskowane należy odrzucić, bo są nieefektywne. Dlatego właśnie portfel KAŻDEGO inwestora składa się częściowo z aktywa wolnego od ryzyka F oraz częściowo z portfela M. Portfel M nazywamy portfelem rynkowym, bo zawiera wszystkie ryzykowne walory na rynku kapitałowym.

Powstała linia nazywana jest linią rynku kapitałowego (Capital Market Line - CML).
Łatwo zauważyć, że CML staje się nową granicą portfeli efektywnych, którą inwestorzy będą teraz stosować:



Inwestor wybiera jakiś portfel leżący na CML według swoich preferencji. Tworzy w ten sposób portfel o oczekiwanej stopie zwrotu μ(P), która składa się w proporcji x z oczekiwanej stopy zwrotu portfela rynkowego μ(M) oraz w proporcji 1-x ze stopy wolnej od ryzyka Rf:



(Dla zainteresowanych pełne omówienie CML tutaj).

Wniosek? Z punktu widzenia samego rynku giełdowego WSZYSCY inwestorzy posiadają ten sam skład portfela M! (Różnić się będą jedynie wagami portfela ryzykownego i nieryzykownego). Powstaje pytanie czy można szybko znaleźć skład tego jednego jedynego portfela M? Skoro każdy posiada M, to znaczy, że wszystkich inwestorów giełdowych możemy potratować jak jednego inwestora. Waga waloru A należącego do portfela M jest zdefiniowana jako:



Wszystkie pieniądze na giełdzie (F) to po prostu kapitalizacja giełdowa. Natomiast pieniądze przeznaczone tylko na walor A (F_A), czyli cena waloru A razy ich liczba to właśnie kapitalizacja waloru A. Czyli:



To samo oczywiście dzieje się z kolejnymi walorami B,C itd. Wagi portfela M są ustawiane w porządku od najwyższej do najniższej, ponieważ taki jest algorytm optymalizacji.

A więc dostajemy dokładnie skład indeksu ważonego kapitalizacją. Każdy inwestor będzie kupował indeks giełdowy. Jeśli więc wyłamujemy się z takiej strategii, czyli nie inwestujemy w oparciu o CML, to powinniśmy porównywać swoje wyniki z indeksem giełdowym.

Czy rzeczywiście jednak indeks giełdowy jest prawdziwym benchmarkiem?

Cała powyższa logika będzie w pełni prawidłowa przy dwóch początkowych założeniach:
-że są spełnione założenia teorii portfela oraz
-że wszyscy inwestorzy są racjonalni.

Któreś z tych założeń niestety nie jest spełnione. Skąd to wiadomo? Bo jak dobrze wiemy NIE WSZYSCY inwestorzy stosują teorię portfela. To już wystarczy, by stwierdzić, że indeks giełdowy nie musi być prawdziwym benchmarkiem.

Czy spełnione są założenia teorii portfela? Byłbym ostrożny w formułowaniu kategorycznych stwierdzeń typu: nie są spełnione założenia, więc teoria portfela nie działa. Przede wszystkim należy pamiętać o różnego rodzaju uogólnieniach tej teorii (np. na rozkład Levy'ego. Taki rozkład uwzględnia leptokurtozę, która oznacza, że nietypowe zmiany są częstsze niż dla rozkładu normalnego). Intuicja podpowiada, że dla możliwości zastosowania teorii portfela rozkład stopy zwrotu powinien być symetryczny (ryzyko powinno się równomiernie rozkładać na plus jak i minus). W rzeczywistości rozkłady te są prawostronnie skośne, co oznacza, że wzrosty kursów występują częściej niż spadki. Ale i ten aspekt nie może dezaktualizować teorii portfela, ponieważ sam Markowitz stworzył również alternatywną wersję swojej teorii, w której za ryzyko nie przyjmował wariancji, ale semiwariancję. W innej wersji semiwariancję zastąpiono wartością zagrożoną (Value at Risk - VaR). Istnieją bowiem dwie koncepcje pojmowania ryzyka:
1. z jednej strony jako zagrożenie, z drugiej jako szansa (odpowiednik to zmienność)
2. tylko jako zagrożenie (możliwość, że coś może się nie udać).

Później uogólniono VaR na warunkową wartość zagrożoną (CVaR (Conditional VaR), ponieważ ta pierwsza nie spełnia warunku subaddytywności, co oznacza, że VaR policzona dla zdywersyfikowanego portfela może być większa niż suma VaR-ów policzona dla instrumentów składowych. W wyniku dywersyfikacji zamiast spadku można otrzymać wzrost ryzyka. CVar jest pozbawiona tej wady.

Dodatkowo teoria portfela została zgeneralizowana na zmienne skorelowane (autokorelacja zmienności, autokorelacja stóp zwrotu, korelacja zmienności i stóp zwrotu), pojęcia z zakresu fraktali i multifraktali oraz wielookresowe modele i niestacjonarność struktury danych. J.F Muzy, D. Sornette, J. Delour i A. Arneodo w pracy "Multifractal returns and Hierarchical Portfolio Theory" konstruują wielowymiarowy multifraktalny model budowy portfela, radząc sobie także z kurtozą. Taki model uwzględnia zmienność parametrów w czasie. Widać więc, że sama teoria portfela nie może być tak zwyczajnie odrzucona. Te najnowsze są to jednak bardzo skomplikowane modele i zwykły inwestor nie ma na razie szans ich zastosować. Być może w przyszłości powstaną oprogramowania umożliwiające samodzielne wykorzystanie takich narzędzi.

No dobrze, ale przecież jest jeszcze jeden kontrowersyjny punkt naszego rozumowania. Portfel rynkowy powinien zgodnie z teorią zawierać wszystkie walory na rynku posiadające oczekiwaną stopę zwrotu i zmienność, włączając w to ryzykowne obligacje, nieruchomości i towary, natomiast popularne indeksy zawierają tylko niektóre akcje. Niektórzy inwestorzy posiadają w portfelach egzotyczne walory, które dodatkowo dywersyfikują ryzyko, a tym samym przesuwają krzywą minimalnego ryzyka w lewo. Tak więc można byłoby sądzić, że to z góry przekreśla uznanie indeksu za benchmark.

Jednakże walory na rynku najczęściej są jakoś skorelowane dodatnio, a wtedy... przypomnę ten oto rysunek z wpisu Teoria portfela Markowitza. Portfel złożony z K walorów:



K to liczba składników portfela, natomiast ryzyko jest tutaj mierzone jako procentowy udział ryzyka portfela do oczekiwanego (przeciętnego) ryzyka portfela jednoskładnikowego. Widzimy, że ryzyko spada coraz wolniej aż do pewnej granicy, która stanowi ryzyko niedywersyfikowalne - tutaj stanowi ono średnią kowariancję stóp zwrotu wszystkich walorów (dla klasycznej teorii Markowitza). Tak więc pewnym momencie nie opłaca się już dołączać nowych walorów do portfela. Tutaj leży właśnie źródło tzw. przedywersyfikowania, tj. sytuacji, gdy koszty zwiększania składników portfela są większe niż korzyści w postaci spadku ryzyka.

Możliwe, że to właśnie z tego powodu oczekiwane stopy zwrotu z różnych indeksów giełdowych (różnych krajów) mają podobne wartości. Jeśli to prawda, to otrzymalibyśmy dość silny argument za traktowaniem indeksów jako benchmarki, choćby plus minus parę procent.


Zatem głównie fakt, iż nie wszyscy inwestorzy stosują (lub że duża większość nie stosuje) ściśle teorii portfela sprawia, że indeksu ważonego kapitalizacją (o dużej liczbie walorów) nie należy zbyt poważnie uznawać za benchmark.


Zupełnie odrębną sprawą jest możliwość uzyskania wyższej oczekiwanej stopy zwrotu od portfela rynkowego przy wyższym od niego ryzyku - w tym przypadku to jedynie szczęście powoduje pozorną wygraną z rynkiem, ponieważ ryzyko ma swoją cenę w postaci "premii za ryzyko". (Z punktu widzenia CML aby tak się stało portfel musi mieć ujemną wagę waloru wolnego od ryzyka, co oznacza zaciągnięcie przez inwestora kredytu, za który kupuje dodatkowy udział portfela rynkowego; to oczywiście niesie większe ryzyko, a więc i większy oczekiwany zysk). Główny problem polega właśnie na mierzeniu ryzyka. Nowsze modele radzą sobie z tym coraz lepiej, również dlatego, że uciekają od formalnej efektywności rynku i często zbliżają się w kierunku bardziej ogólnym. Czar inwestowania na giełdzie polega na tym, że zawsze znajdzie się miejsce na wiarę w to, że istotne pokonanie indeksu zostało spowodowane nieefektywnością rynku.

wtorek, 4 października 2011

Czy analiza techniczna działa?

Znawcy analizy technicznej z powątpiewaniem czytają próby odpowiedzi na takie pytania. Jest to zrozumiałe, ponieważ AT stanowi tak rozległe narzędzie, że nie sposób odpowiedzieć na nie jednoznacznie. Można natomiast jednoznacznie odpowiedzieć czy sprawdzają się określone metody AT. W internecie znajdujemy artykuł z 2002 r. o buńczucznym tytule:

Does Technical Analysis Work?

Autorzy A. Yeung, M. T. Pankaj, N. Patel i S. S. Kim sprawdzają skuteczność wybranych metod, takich jak Bollinger Band (w oparciu o 20-dniową średnią kroczącą), Commodity Channel, Fibonnacci Retracement (Fibonacci Raw Score, Fibonacci Range Score), MACD, 5 Day Money Flow, 9 Day RSI, 14 Days Stochastics. Należy zwrócić uwagę na ograniczenia przestrzenne oraz czasowe badań. Badania objęły jedynie indeks S&P 500 w latach 1990-2002. Po uwzględnieniu kosztów transakcyjnych otrzymano wniosek, iż żadna z powyższych metod nie przyniosła ponadprzeciętnych zysków, za wyjątkiem wstęgi Bollingera. Przedstawiono rysunek:



Akurat wstęgę Bollingera darzę największym sceptycyzmem, o czym już kiedyś napomknąłem (Wstęga Bollingera - ujęcie praktyczne).

Tytuł posta jest oczywiście mało sensowny. Spotkałem już różne artykuły, w których konkludują, że niektóre narzędzia analizy technicznej, jak np. przecięcie się szybkiej i wolnej średniej kroczącej daje w niektórych sytuacjach możliwości zarabiania ponad przeciętną.

---------------------------------------------------------------------------

A co z tymi wsparciami i oporami, które atakowałem nazywając "złudzeniem"? Powiem tak, ciężko jest obiektywnie je sprawdzić. Są różnego rodzaju ograniczenia, jak np. jak szerokie okno w miejscach pojawienia się wsparcia/oporu zastosować? W swoich badaniach starałem się zachować okolice 3-4%. Jeśli kurs przebił ten poziom uznawałem, że wsparcie/opór pękł. Można wprowadzać wiele filtrów. Zgodnie z zasadą najważniejsze są trzy pierwsze punkty odbicia trendu - po nich trend może się prędzej załamać. Jeśli więc po dwóch wsparciach/oporach następuje trzecie odbicie na linii trendu, dopiero możemy mówić o tym, że linia trendu się zrealizowała. Należy więc zbadać czy w trzecim punkcie następuje odbicie, które jest istotą linii trendu. Stosowałem także metodę wachlarza. Przykład dla WIG:



Wynik dla WIG (od 1994) okazał się bardzo marniutki. Szukałem linii trendu co najmniej 2-miesięcznych. Zadawałem 4 pytania:

1. Czy odbija od wsparcia (linii trendu rosnącego)?
2. Czy jeśli przecina wsparcie, to przez jakiś czas (zakładałem przynajmniej ok. tydzień) podąża w tym kierunku?
3. Czy odbija od oporu (linii trendu spadkowego)?
4. Czy jeśli przecina opór, to przez jakiś czas (zakładałem przynajmniej ok. tydzień) podąża w tym kierunku?

Częstości dostałem następujące:

Ad 1) 0,5
Ad 2) 0,567
Ad 3) 0,32
Ad 4) 0,59

Istotność statystyczną wyliczałem w oparciu o schemat Bernoulliego. Dla WIG otrzymano brak istotności.

To badanie powtarzałem dla różnych dużych spółek,

Bank Polska Kasa Opieki:

Ad 1) 0,476
Ad 2) 0,667
Ad 3) 0,545
Ad 4) 0,636.

Bank Handlowy w Warszawie:
Ad 1) 0,32
Ad 2) 0,61
Ad 3) 0,35
Ad 4) 0,74

BRE Bank (od 1994):
Ad 1) 0,588 (20/34)
Ad 2) 0,667 (22/33)
Ad 3) 0,364 (12/33)
Ad 4) 0,53 (17/32)

KGHM:
Ad 1) 0,62
Ad 2) 0,70*
Ad 3) 0,42
Ad 4) 0,71*

Getin Holding:
Ad 1) 0,4 (6/15)
Ad 2) 0,6 (9/15)
Ad 3) 0,43 (6/14)
Ad 4) 0,57. (8/14)

Budimex:
Ad 1) 0,58
Ad 2) 0,667
Ad 3) 0,25
Ad 4) 0,583.

Spośród nich jedynie KGHM charakteryzował się niektórymi istotnymi prawdopodobieństwami empirycznymi. Zaznaczone gwiazdką to te istotne.

Należy jednak zwrócić uwagę, że próba dla KGHM objęła zaledwie ok. 30 obserwacji, podobnie dla WIG, a w przypadku wielu innych sporo mniej. Np. dla BHW brak istotności w p. 4 może wynikać z zaledwie 25 obserwacji. Wydaje się, że należy uznać częstość 74% za istotną. Być może przy większej próbce pojawiłaby się istotność, także dla samych "odbić", chociaż w to wątpię. Wsparcia i opory nie mogą raczej służyć do określenia czy w tych miejscach nastąpi odbicie - to czysty przypadek, a więc są w pewnym sensie złudzeniem. Jednakże jeśli nastąpi już to przebicie, to faktycznie sensowne jest zagrać pod zmianę trendu, choćby krótkoterminowego. Generalnie należy jeszcze przebadać mniejsze spółki.

Właśnie sprawdziłem Paged. Kurs spółki jest dość charakterystyczny, bo ma tendencje do spadania (czy też wyniki fin. spółki mają takie tendencje), a czasami potrafi potężnie wybić w górę:



Jak można się domyślić, danych dla pkt-ów 1 i 2 było bardzo mało (zaledwie 9) i częstości nie są istotne statystycznie, natomiast dla pkt-ów 3 i 4 otrzymano 18 danych, czyli też niewiele. Otrzymano następujące częstości:

Ad 1) 55,55% (5/9)
Ad 2) 66,67% (6/9)
Ad 3) 66,67% (12/18)
Ad 4) 72,2% (13/18)

Na oko (na podstawie wykresu) może się wydawać, że skuteczność przebicia linii trendu spadkowego jest spora. Ale pamiętajmy, że założenie dotyczyło poruszania się w kierunku odwrotnym do trendu przynajmniej przez tydzień ( min. 6 dni, nawet 5 jeśli były to spore ruchy) po przebiciu. Ponadto należy wziąć poprawkę na filtr 3-4% wokół linii trendu. A kurs nawet jeśli na chwilę wyszedł ponad linię, to zaraz powracał do niej i czasami dopiero potem znowu odbijał (od tej linii), co sprawia wrażenie, że technika działała. Ale nie było wiadomo, czy rzeczywiście trend się odwrócił. Dobrze widać taką zmyłę w październiku 2010, gdy kurs wybił z trendu spadkowego i wydawałoby się, że pójdzie dalej w górę, ale zatrzymanie wtedy akcji zakończyłoby się bardzo źle.

Drugą małą spółką jaką sprawdziłem jest Lubawa (od 1997 do środka 2011). Jest to typowa spółka mała, gdyż długo i mocno rośnie oraz długo i mocno spada:



Możliwe, że z powodu takich "przedłużonych" ruchów spółek małych, obserwacji jest bardzo mało. W tym przypadku dla każdego z 4-ch punktów poniżej 14. Nie ma sensu mówić oczywiście o istotności stat. Można jedynie przyjrzeć się samym częstościom:

Ad 1) 38,5% (5/13)
Ad 2) 69,2% (9/13)
Ad 3) 50% (6/12)
Ad 4) 40% (4/10)

Trzecią, tym razem średnią spółką, była Dębica (od 1994 do końca 2011):



Wyniki okazują się całkowicie "technicznie" rozczarowujące:

Ad 1) 27,3% (3/11)
Ad 2) 27,3% (3/11)
Ad 3) 31,25% (5/16)
Ad 4) 31,25% (5/16)

Ostatnią spółką jest MNI:



Ad 1) 33,33% (5/15)
Ad 2) 66,66% (10/15)
Ad 3) 43% (6/14)
Ad 4) 50% (7/14)

Zanim podsumuję analizę wsparć i oporów, przypomnę wpis Wsparcia i opory - kolejne złudzenie techników, w którym krytykowałem techników za wprowadzanie złudnych "wsparć" i "oporów" czy raczej linii trendu, stanowiących zwykłe złudzenie.

W istocie wydaje się, że linie trendu nie istnieją (przy założeniu, że trend powinien się utrzymywać co najmniej 2 miesiące) w tym sensie, że zrealizowanie się trzeciego punktu linii trendu jest czysto przypadkowe. Jednakże czym innym jest już przebicie tych obszarów - prawdopodobieństwo zmiany kierunku przynajmniej przez tydzień czasu po tym zdarzeniu jest stosunkowo wysokie (często ponad 55%). Niemniej jak na razie znalazłem tylko jedną spółkę - KGHM - której przebicia są istotne statystycznie. Jedna spółka na GPW to zdecydowanie za mało, by uznać takie narzędzie za obiektywnie opłacalne, choć należy pamiętać, że liczebność próbek w badaniu była bardzo ograniczona.