niedziela, 25 listopada 2012

Kiedy większa niepewność zwiększa wartość akcji?

Zazwyczaj uważa się, że wyższa niepewność na rynku obniża wartość rynkową akcji. Przyczyn tej obniżki dopatruje się we wzroście stopy dyskontowej oczekiwanych dywidend bądź przepływów pieniężnych. Tak jak zostało to pokazane w tym artykule model dyskontowy można powiązać z CAPM, zaś zgodnie z CAPM wyższe ryzyko systematyczne podnosi stopę dyskontową. Problem leży w tym, że niepewność to nie jest ryzyko systematyczne. Niepewność to nawet nie jest ryzyko. Ryzyko zazwyczaj utożsamiamy z odchyleniem standardowym stopy zwrotu. Ryzyko systematyczne akcji to ryzyko rynkowe, czyli jest to stosunek odchylenia standardowego stopy zwrotu z akcji do odchylenia standardowego stopy zwrotu z indeksu giełdowego razy współczynnik korelacji liniowej pomiędzy tą akcją a indeksem giełdowym. Jeśli odchylenie standardowe rośnie, to rośnie ryzyko systematyczne pod warunkiem, że korelacja z rynkiem się nie zmienia.

Z kolei niepewność to termin dość mglisty, bo niedookreślony. Zazwyczaj łączy się go z nieznanym rozkładem prawdopodobieństwa stopy zwrotu lub wskaźników finansowych. W tym miejscu powstaje wiele nieporozumień, bo trzeba dokładnie zdefiniować co rozumiemy przez niepewność, które dla inwestorów stało się słowem-wytrychem. Jeśli mówimy o niepewności stopy zwrotu, to musimy określić czy nieznana jest oczekiwana stopa stopa zwrotu czy nieznane jest ryzyko (odchylenie standardowe). Jednakże niepewność może też dotyczyć strony czysto fundamentalnej, jak np. rentowności kapitału własnego, tj. ROE. Wtedy musimy określić czy nieznane jest średnie ROE czy zmienność ROE.

Możemy więc wyróżnić 4 podstawowe przypadki wpływu parametrów na wartość akcji:
- od strony stopy zwrotu (przy innych czynnikach niezmienionych):
1. wzrost (spadek) oczekiwanej stopy zwrotu (stopy dyskontowej) -> spadek (wzrost) wartości akcji
2. wzrost (spadek) odchylenia standardowego (ryzyka) -> spadek (wzrost) wartości akcji

 - od strony ROE (przy innych czynnikach niezmienionych):
3. wzrost (spadek) oczekiwanego ROE -> wzrost (spadek) wartości akcji
4. wzrost (spadek) odchylenia standardowego ROE -> ???

Z tego wynika, że tylko wzrost lub spadek zmienności ROE ma niejasny wpływ na wartość akcji. Intuicyjnie może się wydawać, że wzrost zmienności ROE oznacza to samo co wzrost ryzyka stopy zwrotu, czyli spadek wartości akcji (przy ceteris paribus). Tyle że na intuicji nie zawsze można polegać.

L. Pastor i P. Veronesi w [1] wskazują, że dopóki zmienność ROE wynika z niesystematycznych, czyli nierynkowych przesłanek, wzrost (spadek) tej zmienności przynosi wzrost (spadek) wartości akcji. Wiadomo bowiem, że ROE składa się z dwóch części: systematycznej (czyli samej oczekiwanej stopy zwrotu) i niesystematycznej (czyli specyficznej dla danej spółki). Jeśli część niesystematyczna jest większa (mniejsza) od 0, to wartość akcji (P) jest większa (mniejsza) od wartości kapitału własnego na akcję (BV). Część niesystematyczna może składać się z premii za zmienność innowacyjnych przedsięwzięć. Nie chodzi tu tylko o premię za ryzyko niepowodzeń takich inwestycji, lecz także o fakt, że innowacje niosą ryzyko chwiejności wzrostu zysku - niektóre innowacje mogą przynosić większe, a inne mniejsze zyski. W każdym razie specyfika innowacji jest zupełnie niezależna od zachowania rynku jako całości. Oznacza to, że gdy rośnie ryzyko samych innowacji, stopa dyskontowa nie zmienia się.

Załóżmy, że spółka A zainwestowała w innowacje i generuje z niej zyski, a więc część niesystematyczna ROE jest większa od 0, co implikuje P(0) > BV(0). (Ponadto do okresu 0 do T spółka nie wypłaca dywidend). Jednakże w pewnym okresie T część niesystematyczna spada do 0, czyli spółka nie jest już w stanie generować innowacji, "premia za ryzyko innowacji" spada do 0, a więc P(T) = BV(T). Uzasadnić to można w ten sposób, że konkurencja rozwija własne pomysły, eliminując tym samym zyski nadzwyczajne firmy A. Od okresu 0 do T, BV(t) rośnie w pewnym stałym tempie g. Wartość g można potraktować jako wartość oczekiwaną stopy wzrostu, gdyż w rzeczywistości stopa wzrostu podlega różnym wahaniom, czyli jest zmienną losową. W okresie T BV(T) wynosi:


Ponieważ wzrost BV(t) jest średnio stały w czasie, nic nie stoi na przeszkodzie, by potraktować go jako proces ciągły w czasie. Najpierw każdy okres t podzielimy na n podokresów i każdy podokres będzie kapitalizowany. Stopę procentową g podzielimy także na n, po to aby otrzymać tempo wzrostu w danym podokresie. (Będzie to prawidłowe pod warunkiem, że g będzie logarytmiczną stopą wzrostu - to z kolei nie jest niczym nadzwyczajnym, gdyż pojęcie stóp procentowych jakie znamy odnosi się właśnie do logarytmicznych a nie arytmetycznych stóp wzrostu w celu umożliwienia szybkiego obliczania kapitalizacji półrocznej, kwartalnej, miesięcznej itd):


Jeśli liczba podokresów n dąży do nieskończoności:


to możemy skorzystać ze znanego wzoru:


I w ten sposób przechodzimy z kapitalizacji nieciągłej na ciągłą:


Choć g potraktowaliśmy jako wartość oczekiwaną tempa wzrostu, to w rzeczywistości wartość ta nie jest znana, czyli również jest zmienną losową. Od okresu 0 do T została "wylosowana" pewna wartość g. Możemy w uproszczeniu uznać g za zmienną o rozkładzie normalnym z wartością oczekiwaną G i wariancją σ^2. Czyli BV(T) staje się wartością oczekiwaną:


Ale jeśli g ma rozkład normalny, to exp(g) ma rozkład logarytmiczno-normalny . Z kolei wartość oczekiwana zmiennej o rozkładzie logarytmiczno-normalnym jest dana wzorem [2],[3]:

Czyli dostaniemy:


Zauważmy teraz, że jeśli zdyskontujemy wartość BV(T) T okresów za pomocą stopy dyskontowej r, to uzyskamy P(0). Wykorzystując analogiczne przekształcenia przejścia od kapitalizacji nieciągłej do ciągłej dla stopy dyskontowej, uzyskujemy wzór na wartość akcji P(0):


Możemy również przedstawić wskaźnik P/BV w następującej postaci:


Zwróćmy uwagę, że gdy wzrasta odchylenie standardowe g, to wzrasta P/BV. Co ciekawe, wtedy BV nie zmienia się. Ponieważ g stanowi nie tyle wartość oczekiwaną co zmienną losową (wartości oczekiwanej) tempa wzrostu o pewnych parametrach, to mówiąc o odchyleniu standardowym g jesteśmy już blisko tego co nazywamy właśnie "niepewnością". A więc możemy powiedzieć, że gdy rośnie niepewność zysków nadzwyczajnych (nadwyżkowych monopolistycznych), wzrasta wartość fundamentalna akcji, a wartość księgowa nie zmienia się.

Aby zrozumieć jaki mechanizm tutaj działa, zilustrujemy go następującym przykładem podanym przez Pastora i Veronesiego. Załóżmy, że firmy A i B różnią się tylko przyszłym tempem wzrostu ich wartości księgowej, której bieżąca wartość wynosi 1 mln zł. Gdy A zamierza wzrastać 10% na rok z prawdopodobieństwem 1, B wzrasta albo w tempie 5%, albo 15% na rok z równym prawdopodobieństwem. I tak w ciągu 10 lat 1 mln zł kumuluje się do 4,05 mln zł przy 15%, do 2,59 mln zł przy 10% i do 1,63 mln zł przy 5%. Wtedy firma B ma wyższą oczekiwaną przyszłą wartość księgową niż A, bo (4,05 + 1,63) / 2 = 2,84 > 2,59.

Należy tu ciągle pamiętać, że stopa dyskontowa r wyrażająca premię za ryzyko systematyczne pozostaje stała, bo zyski monopolistyczne-nadwyżkowe nie korelują z zyskami konkurencji rynkowej. Należy zauważyć, że g to nie jest nadwyżkowa stopa wzrostu, lecz całkowita. To oznacza, że niepewność σ^2 zawiera częściowo zarówno ryzyko systematyczne jak i niesystematyczne. Należy więc tutaj rozróżnić dwie sytuacje.
 Po pierwsze może wzrosnąć (spaść) tylko ryzyko systematyczne. Wpływ tego zdarzenia na P/BV wymaga oddzielnego komentarza i zastanowienia. Po drugie może wzrosnąć tylko ryzyko niesystematyczne (specyficzne). Ten przypadek został powyżej dokładnie omówiony.

Jak pamiętamy g ściśle wiąże się z ROE. Ponieważ g oznacza dokładnie stopę wzrostu wartości księgowej, a nie zysku, to znaczy, że g = k*ROE, gdzie
k - część zysku netto z okresu bieżącego zwiększająca kapitał własny z okresu poprzedniego..

Przypomnijmy może skąd ten wzór wynika:

BV(t) = BV(t-1) + k*ZYSK(t) =  BV(t-1)*(1+k*ZYSK(t) / BV(t-1)) = BV(t-1)*(1 + k*ROE) = BV(t-1)*(1 + g) => g = k*ROE.

Zmienność g będzie ściśle związana ze zmiennością ROE. Ale ponieważ g charakteryzuje się też niepewnością, to i ROE charakteryzuje się niepewnością. Ogólnie stwierdzamy, że zmienność czy niepewność o średniej ROE zwiększa P/BV.
Jednak błędem jest twierdzenie, że większa zmienność ROE zwiększa P/BV. Wcześniej zostało wskazane, że nie może to być ryzyko systematyczne. Dopiero wzrost ryzyka niesystematycznego wpłynie dodatnio. Zmiany średniej ROE mamy z kolei prawo uznać jako nieskorelowane z ryzykiem systematycznym.

Powyższa analiza stanowi jedynie wstęp do rozbudowanego modelu Pastora i Veronesiego, którzy dalej wprowadzają model, w którym rynek uczy się, czego należy się spodziewać po spółce. Z pomocą przychodzi wtedy warunkowa zmienna losowa, której parametry są zależne od przeszłych wartości. Prowadzi to do wniosku, że największa warunkowa niepewność (średniego) ROE występuje w początkowych fazach życia firmy, co prowadzi do wyższego P/BV w tym okresie (a więc w późniejszej fazie życia P/BV staje się niższy). Ponadto Autorzy rozróżniają sytuacje, gdy spółka wypłaca i nie wypłaca dywidend. Model zgodnie z intuicją wskazuje, że większa niepewność występuje w przypadku firm niepłacących dywidend, a więc te powinny mieć wyższe P/BV. Autorzy stawiają też sugestię, że duże wartości P/BV wielu spółek z giełdy w USA pod koniec lat 90-tych mogły wynikać z tej większej niepewności, zamiast braku racjonalności rynku.
Przykładowo poniższy wykres obrazuje modelową zależność pomiędzy niepewnością o średniej ROE (oś pozioma) a wskaźnikiem P/BV (oś pionowa):



Literka c oznacza część wartości księgowej (BV), którą spółka wypłaca akcjonariuszom w postaci dywidendy. Widać, że im mniejsza dywidenda, tym większe P/BV.

W końcu również empirycznie dowodzą oni swoich tez, wykorzystując regresję liniową. Do badania użyli rocznych danych od 1962 do 2000 r. z CRSP/Compustat database. Zbudowana regresja w dużym stopniu potwierdziła przewidywania modelu teoretycznego.


Literatura:
[1] Pastor, L., and P. Veronesi. "Stock Valuation and Learning about Profitability." Journal of Finance, 58 (2003), 1749-1789;
[2] http://en.wikipedia.org/wiki/Log-normal_distribution;
[3] Ossowski, J. C., "Rozkład logarytmiczno-normalny a względne i absolutne miary rozproszenia", Toruń 2003.

niedziela, 7 października 2012

Czy model Millera działa? Część 2

W ekonomii, jak we wszystkich naukach ścisłych, należy uważać na każde słowo, a jeszcze bardziej na wypowiadane sądy. Nieuwzględnienie pewnych czynników, np. ukrytych założeń, prowadzi często do błędnego wnioskowania. Błędy mogą być dwojakiego rodzaju. Pierwszy błąd powstaje gdy dana teoria czegoś istotnego nie uwzględnia, a drugi błąd, gdy metody badawcze czegoś istotnego nie uwzględniają. Pierwszy błąd łatwo wykryć pod warunkiem, że nie występuje drugi błąd, gdyż wtedy teoria nie zgadza się z doświadczeniem. Gorzej jeśli drugi błąd nie został wykryty, bo wtedy teoria/teza może się wydawać prawdziwa, podczas gdy w rzeczywistości jest fałszywa. Tak więc weryfikacja teorii powinna zawsze zaczynać się od weryfikacji samych metod badawczych.

Weryfikacja modelu Millera stanowi właśnie przykład, gdzie mogą pojawić się błędy obydwu rodzajów. W pierwszej części artykułu poświęconemu weryfikacji teorii Millera, przedstawiłem wyniki badań Diether, Malloy i Scherbiny [1] (DMS), które potwierdziły ją empirycznie. Sytuacja jednak okazuje się dużo bardziej skomplikowana niż to na pierwszy rzut oka wygląda. Przypomnijmy, że teoria Millera przewiduje, że wyższa rozbieżność opinii na temat wartości akcji generuje wyższą wartość akcji, a co za tym idzie mniejsze oczekiwane stopy zwrotu w przyszłości. Ponieważ wartość akcji ściśle zależy od oczekiwanych zysków netto spółki, pośrednikiem rozbieżności opinii o wartości akcji może być rozbieżność opinii o oczekiwanych zyskach netto. Za pośredników inwestorów szacujących te zyski możemy uznać analityków giełdowych. Wydaje się prawidłowe, że rozbieżność taką można obliczyć jako odchylenie standardowe prognoz zysków (szacowanych przez analityków).

Jednak diabeł tkwi jak zawsze w szczegółach. Wahania wyników finansowych zależą w głównej mierze od branży w jakiej spółka funkcjonuje. Np. spółki farmaceutyczne będą niewątpliwie "bezpieczniejsze" od spółek, których wyniki zależą w dużym stopniu od cen surowców. Oznacza to, że sama natura spółek o mniejszym zakresie wahań wyników spowoduje, że oczekiwania wyników będą mniej "rozbieżne" (rozstrzelone). Ten fakt został pominięty przez DMS, na co zwracają uwagę Doukas, Kim i Pantzalis [2] (DKP).

Autorzy podają najpierw teoretyczne uzasadnienie tego błędu wprowadzone przez Barrona, Kima, Lima i Stevensa [3], którzy pokazują, że dyspersja (wariancja) prognoz może być wyrażona w postaci D = V(1-p), gdzie V to niepewność prognozy, a 1-p to rozbieżność opinii analityków, natomiast p to konsensus (stopień zbieżności opinii analityków), który stanowi współczynnik korelacji błędów prognozy wśród analityków. Należy zwrócić uwagę, że wzór został odpowiednio wyprowadzony.

Widzimy więc, że dyspersja prognoz analityków została rozbita na dwie części: zwyczajne ryzyko oraz stopień braku konsensusu prognozy. Jeśli dana branża będzie bardziej ryzykowna, będzie rosło V. Jeśli analitycy będą mniej zgodni w swoich przewidywaniach, wzrośnie 1-p. Jeśli wszyscy będą zgodni w 100%, czyli p = 1, to D = 0, a więc nie będzie istnieć zróżnicowanie prognoz. Jeśli analitycy będą mieć różne nieskorelowane zdania, to p = 0, a stąd D = V, a więc zróżnicowanie prognoz będzie równe zwykłej niepewności prognozy związanej ze zmiennością wyników danej spółki. Jeśli analitycy będą mieć ekstremalnie różne zdania, to p = -1, a stąd D = 2V, tj. zróżnicowanie prognoz podwaja się w stosunku do zwykłej niepewności. DMS posługiwali się całkowitą dyspersją D jako pośrednikiem rozbieżności opinii o wartości akcji, a więc można powiedzieć, że zakładali stałość V. Jednak V zmienia się w zależności od specyfiki branży czy samej spółki, zatem D raczej słabo odzwierciedla faktyczną rozbieżność opinii. DKP stwierdzają, że do testu modelu Millera należy użyć 1-p, gdyż jest to faktyczna miara rozbieżności prognoz zysku.

DKP pobierali, podobnie jak DMS, dane z Institutional Brokers Estimate System. Zakres badania zawiera się w podobnym przedziale co DMS, bo od lipca 1983 do grudnia 2001. Najpierw powtórzono metodę zastosowaną przez DMS. Tak więc dyspersja prognoz analityków została obliczona jako wyskalowane odchylenie standardowe prognoz zysków (tzn. odchylenie standardowe prognoz rocznego zysku podzielone przez moduł średniej prognozy). Następnie podzielono te dyspersje na 5 grup, według wielkości dyspersji: od najmniejszej do największej (kwintyle). Podobnie zostały uszeregowane akcje według wielkości kapitalizacji, dzięki czemu można ocenić wpływ dyspersji na stopy zwrotu dla różnych wielkości spółek. Wyniki zostały zaprezentowane w tabeli poniżej - średnie miesięczne stopy zwrotu w zależności od wielkości spółki (SIZE) oraz dyspersji prognoz zysków (D).


***, **, * oznacza odpowiednio istotność statystyczną na poziomie 1%, 5% i 10%.

Wyniki są zbieżne z otrzymanymi przez DMS. Po pierwsze większa dyspersja prognoz wiąże się z mniejszą stopą zwrotu, dla każdej grupy spółek. Jest to wynik nawet bardziej poprawny z punktu widzenia modelu Millera niż w badaniu DMS. Następnie przeprowadzono ten sam test, ale tym razem sprawdzono zachowanie stóp zwrotu w zależności od (1-p). Otrzymano następujące wyniki:


Rezultaty zmieniają się o 180 stopni. Większej rozbieżności prognoz towarzyszy istotnie większa średnia stopa stopa zwrotu, dla każdej grupy spółek. Wynika z tego, że cały efekt spadku stopy zwrotu wraz ze wzrostem dyspersji wynika z niepewności prognozy V, który kompensuje dodatni wpływ rozbieżności. Zatem większa niepewność prognozy prowadzi do spadku średniej stopy zwrotu, a większa rozbieżność opinii do wzrostu stopy zwrotu.

Rodzą się więc nowe pytania. Dlaczego rozbieżność opinii prowadzi do wzrostu stopy zwrotu? DKP stawiają hipotezę, że rozbieżność opinii stanowi jeden z czynników ryzyka systematycznego (rynkowego), a wyższe ryzyko systematyczne implikuje wyższą oczekiwaną stopę zwrotu. Swoją hipotezę weryfikują budując wieloczynnikowy model wyceny aktywów (rozbudowany model Famy-Frencha), będący modyfikacją CAPM. Hipoteza zdaje test, gdyż rozbieżność opinii okazuje się być istotnym czynnikiem w modelu, a więc prawdopodobnie stanowi czynnik ryzyka dla inwestora.

Kolejne pytanie jakie się nasuwa to: dlaczego wzrost niepewności prognozy prowadzi do spadku stopy zwrotu (wzrostu wartości akcji) i czy nie jest to anomalia sprzeczna z teorią efektywności rynku i CAPM? Na pierwszy rzut oka wydaje się to być faktycznie sprzeczne, gdyż niepewność to po prostu ryzyko, a przecież ryzyko w teorii portfela, CAPM i jego modyfikacji zawsze stanowi koszt inwestora, który w zamian wymaga wyższej stopy zwrotu. Ale samo ryzyko jest pojęciem względnym. W teorii portfela większa wariancja akcji nie implikuje wyższej stopy zwrotu. Dopiero wariancja portfela efektywnego implikuje wyższą oczekiwaną stopę zwrotu. Mówiąc ściślej tylko ryzyko systematyczne (rynkowe) kreuje wyższą oczekiwaną stopę zwrotu, ponieważ jest niedywersyfikowalne. Z kolei ryzyko specyficzne, czyli właśnie wariancja dowolnej akcji jest ryzykiem dywersyfikowalnym, a przez to nie generuje automatycznie oczekiwanej stopy zwrotu.

Jednak taka odpowiedź byłaby nieprzekonująca. W końcu rezultaty statystyczne wskazują na istotną ujemną korelację pomiędzy stopą zwrotu a niepewnością prognozy, a klasyczne teorie tego nie tłumaczą. DKP odpowiadają na to pytanie nawiązując do stosunkowo nowego artykułu Pastora i Veronesi'ego [4], którzy z kolei dowodzą, że na efektywnym rynku zwiększona niepewność prognozy zysku podnosi paradoksalnie wartość akcji (dokładniej zwiększa wskaźnik cena/wartość księgowa), a tym samym - zdaniem DKP - zmniejsza stopę zwrotu. (To czy DKP mają rację, należy omówić oddzielnie). DKP argumentują, że stanowisko DMS było błędne, bo ich badanie nie potwierdziło teorii Millera. Wszystkie wyniki statystyczne można ciągle wyjaśnić na gruncie teorii efektywnego rynku. Zdaje się, że model Millera trzeba odrzucić, bo wyższa wartość rynkowa akcji nie wynika z większej rozbieżności opinii o wartości wewnętrznej, lecz z większej niepewności prognozy - ale to jak niepewność może zwiększyć wartość akcji stanowi oddzielny temat.


Dodatek:

p i V zostały obliczone następująco:

gdzie


h jest to precyzja zwykłej, wspólnej informacji, s jest to precyzja prywatnej informacji (opinii)


gdzie
y - faktyczny prognozowany zysk (EPS),
u(i) - prognoza i-tego analityka
u - średnia prognoz wszystkich analityków
N - liczba analityków (prognoz).


Literatura:

[1] Diether, K, B; C, J, Malloy; A, Scherbina; "Differences of Opinion and the Cross Section of Stock Returns", 2002
[2] Doukas, J.A., Kim C., Pantzalis C., "Divergence of Opinion and Equity Returns", 2006
[3] Barron, O, E,; O, Kim; S, C, Lim; and D, E, Stevens, "Using Analysts' Forecasts to Measure Properties of Analysts' Information Environment," Accounting Review, 73 (1998), 421-433,
[4] Pastor, L., and P. Veronesi. "Stock Valuation and Learning about Profitability." Journal of Finance, 58 (2003), 1749-1789.

sobota, 15 września 2012

Czy model Millera działa? Część 1

Zgodnie z modelem Millera (który został opisany w artykule Rozbieżność opinii, nieefektywność rynku i trendy akcji, czyli model Millera) większa rozbieżność opinii na temat wartości akcji powoduje (przy założeniu, że krótka sprzedaż jest ograniczona) wzrost ceny rynkowej akcji, a co za tym idzie spadek stopy zwrotu.

Model Millera można starać się przeanalizować pod kątem formalnym, aby znaleźć jego słabe punkty. Ukryte założenia lub intuicje zawsze wychodzą na wierzch, jeśli zagadnienie bada się ścisłym językiem.

Na tym etapie skoncentrujmy się jednak na najważniejszej, czyli praktycznej stronie modelu Millera. Diether, Malloy i Scherbina (2002) testują go doświadczalnie. Początkowe pytanie przy jego testowaniu jest takie: jak w ogóle mierzyć rozbieżność opinii na temat wartości akcji? Wartość akcji jest to suma zdyskontowanych oczekiwanych dywidend. Jak już dowiedziono, wartość akcji jest to jednocześnie suma zdyskontowanych oczekiwanych przepływów pieniężnych: jest to Uogólniony model Grahama-Dodda , w skrócie UMGD. Zgodnie z UMGD na wartość akcji wpływają trzy zmienne: oczekiwane zyski netto firmy, oczekiwane inwestycje oraz koszt kapitału własnego. Decydującym i najbardziej zmiennym przy szacunkach czynnikiem są zyski. Zatem pośrednikiem rozbieżności opinii o wartości akcji jest rozbieżność opinii o prognozowanych zyskach firmy. Z kolei za pośredników inwestorów szacujących te zyski możemy uznać analityków giełdowych. Im większa będzie rozbieżność analityków w prognozach zysków, tym większa będzie rozbieżność w ocenie wartości akcji.

Autorzy omawianego artykułu pobierali miesięczne stopy zwrotu z Center for Research in Securities Prices (CRSP), który zawiera dane NYSE, AMEX i Nasdaq. Dane analityków o prognozach zysków zostały wzięte z Institutional Brokers Estimate System (IBES). Test został przeprowadzony dla okresu luty 1983 - grudzień 2000.

Dyspersja prognoz analityków została obliczona jako wyskalowane odchylenie standardowe prognoz zysków (tzn. odchylenie standardowe prognoz rocznego zysku podzielone przez moduł średniej prognozy). Następnie podzielono te dyspersje na 5 grup, według wielkości dyspersji: od najmniejszej do największej (kwintyle). Podobnie zostały uszeregowane akcje według wielkości kapitalizacji, dzięki czemu można także ocenić efekt małych czy dużych spółek. Wnioski zostały zaprezentowane w formie różnych tabel. Poniżej pierwsza z nich:



a, b - istotne statystycznie na poziomie odpowiednio 1 i 5%.

Najpierw przypatrzmy się prawej stronie tabeli, gdzie ujęte są wszystkie akcje (All stocks). Im większa dyspersja (D), tym mniejsza średnia stopa zwrotu (Mean Returns). Teraz możemy przejść do kolejnych grup według wielkości spółek. Najmniejsze spółki (Small) charakteryzują się bardzo silną ujemną korelacją pomiędzy dyspersją a stopą zwrotu. Największe spółki (Large) charakteryzują się już dużo mniejszą taką nagatywną relacją i jak widać jest już ona nieistotna statystycznie.

Dla pełniejszego obrazu Autorzy sporządzili ten sam test dla 3 podokresów.



Sytuacja tutaj bardziej się komplikuje. Efekt dla najmniejszych spółek S1 nadal jest silny, jednak już większe spółki stają się coraz bardziej odporne i tracą istotność. Możliwe, że dzieje się tak, ponieważ większe spółki są bardziej eksponowane i lepiej obserwowane, a więc inwestorzy mogli zacząć wykorzystywać zaobserwowane zależności. Być może jednak chodzi o to, że informacje zaczęły być w latach 80 i 90-tych coraz łatwiej dostępne, w szczególności dla większych spółek. To spowodowało, że inwestorzy lepiej szacowali przyszłe zyski, stąd rozbieżności tych prognoz stały się mniejsze, co z kolei musiało skutkować spadkiem stopy zwrotu (efekt rozbieżności stał się nieistotny).

Warto zasygnalizować, że Autorzy dodatkowo także dla pełniejszego obrazu zrobili test tylko dla spółek z NYSE. Efekt jest podobny, wyniki spółek o mniejszej kapitalizacji mają większą istotność stat.

Autorzy dodatkowo testują teorię Millera w kontekście efektu momentum. Dzielą spółki na małe, średnie i duże, a następnie wszystkie na 3 grupy o stopie zwrotu w ostatnim roku: o najniższej, średniej i najwyższej. "Przegrani" (Losers) stanowią grupę 33% najgorzej zachowujących się akcji, a "Wygrani" (Winners) grupę 33% najlepiej zachowujących się akcji. Oto wyniki:



Pomimo że Autorzy nie badają istotności statystycznej efektu momentum, możemy zauważyć "naocznie", że taki efekt występował. Zarówno małe, średnie, jak i duże spółki mają najniższe średnie stopy zwrotu gdy występują w grupie Losers i najwyższe gdy występują w grupie Winners. Oznacza to, że spółki które gorzej zachowywały się w ostatnim roku, będą również gorzej zachowywać się w kolejnym miesiącu. A spółki które lepiej zachowywały się w ostatnim roku, będą również lepiej zachowywać się w kolejnym miesiącu. Wszystko to dzieje się niezależnie od dyspersji prognoz.

Wpływ samej dyspersji na stopy zwrotu staje się bardziej skomplikowany. Istotna statystycznie ujemna korelacja występuje jedynie dla małych spółek, które nie należą do grupy Winners. Pomimo braku istotności dla Mid-Cap i Large-Cap, dla Losers i środkowej grupy nadal utrzymuje się ujemna zależność. Większa dyspersja ciągle wywołuje mniejszą stopę zwrotu. Ten efekt dopiero psuje się całkowicie dla Winners. Co więcej, dla Small-Cap negatywny wpływ dyspersji także jest tajemniczo słaby. Pytanie co może powodować usunięcie efektu dyspersji? Wprawdzie Autorzy podają różne rozwiązania i podpowiedzi, ale zamiast tego przypomnimy sobie jak wyjaśniłem ostatnio powstanie trendu, czyli właśnie efektu momentum na gruncie teorii Millera.

Wniosek z teorii był taki, że okres wzrastającej rozbieżności opinii podnosi natychmiastowo kurs, co powoduje, że późniejsza stopa zwrotu spada. Ale sam okres wzrostu rozbieżności opinii przynosi oczywiście wyższe stopy zwrotu.

Aby połączyć to z całością teorii, musimy rozbić sytuację na dwa efekty:

- rozbieżność opinii może być sama w sobie wyższa, jeśli informacje są mniej dostępne, jak w przypadku małych spółek. To sprawia, że kurs akcji jest wyższy, ale oczekiwana stopa zwrotu jako taka jest mniejsza,
- rozbieżność opinii może rosnąć lub spadać. Jeśli rośnie, to kurs podnosi się i wtedy dopiero w następnym okresie stopa zwrotu spada. Jeśli z kolei rozbieżność opinii spada, to kurs spada i wtedy dopiero w następnym okresie stopa zwrotu rośnie.

Oba efekty mogą się niwelować lub wzmacniać i tym samym wywoływać różne paradoksalne zjawiska.

W przypadku Losers dla małych spółek trend jest spadkowy lub słabo wzrostowy, bo np. rozbieżność opinii spada. Kurs spada (nie rośnie), oczekiwana stopa zwrotu w kolejnym okresie rośnie, ale jej wzrost jest hamowany przez większą ogólną rozbieżność opinii ze względu na to, że są to małe spółki. W konsekwencji średnia stopa zwrotu pozostaje niewielka (i efekt pozostaje bardzo istotny stat.).
Jednak dla większej spółki (większej kapitalizacji) rozbieżność opinii nie jest tak duża, co powoduje, że stopa zwrotu rośnie. Wtedy - pomimo słabości kursu waloru - przyszła stopa zwrotu może się utrzymywać na wyższym poziomie, powodując nieistotność ujemnej korelacji z rozbieżnością opinii.

W przypadku Winners dla małych spółek trend jest wyraźnie wzrostowy, bo np. rozbieżność opinii rośnie. Kurs rośnie, oczekiwana stopa zwrotu w kolejnym okresie spada, co zostaje wzmocnione przez fakt, iż dla małych spółek rozbieżność opinii jest większa. Ale ponieważ rozbieżność opinii ciągle rośnie, tak że trend wzrostowy się utrzymuje, spadek stopy zwrotu zostaje zahamowany. Stąd ujemna korelacja stopy zwrotu z rozbieżnością opinii staje się słabsza (przestaje być istotna stat).
W przypadku większych spółek rozbieżność opinii jest z natury mniejsza, a więc stopa zwrotu utrzymuje się na wyższym poziomie. Dodatkowo sam wzrost rozbieżności opinii wzmacnia stopę zwrotu w bieżącym okresie. To powoduje, że dla Winners (pozytywnego momentum) stopa zwrotu większych spółek nie koreluje z rozbieżnością opinii lub nawet korelacja ta wydaje się dodatnia.

Przypomnijmy obrazek ilustrujący ideę Millera:



Gdy wszyscy się zgadzają co do wartości akcji (zysku), wartość wewnętrzna równa się G, czyli jest to linia prosta. Gdy rozbieżność opinii o wartości rośnie, krzywa popytu na akcje się wygina, tak że przy stałej podaży będącej liczbą akcji N, cena rynkowa wzrasta (M, R, Q).

W ten sposób można wyjaśnić niejednoznaczne wyniki statystyczne badaczy przy diagnozie momentum.

Na postawione pytanie w tytule Autorzy odpowiadają oczywiście twierdząco, a więc teoria Millera sprawdza się w praktyce.

Na koniec tego artykułu należy zasygnalizować, że choć cała odkryta statystyczna strona modelu Millera wydaje się pociągająca, prawdziwa i niosąca pewne implikacje praktyczne, to inni Autorzy jak John A. Doukas, Chansog (Francis) Kim i Christos Pantzalis (2006) negują te wyniki, przedstawiają własne, które są przeciwne i argumentują, że model Millera wcale się nie sprawdza. I nie chodzi tu o błędy obliczeń. To odmienne stanowisko zostanie opisane w następnym artykule.


Literatura:

1. Diether, K, B; C, J, Malloy; A, Scherbina; "Differences of Opinion and the Cross Section of Stock Returns", 2002
2. Doukas, J.A., Kim C., Pantzalis C., "Divergence of Opinion and Equity Returns", 2006.

środa, 4 lipca 2012

Rozbieżność opinii, nieefektywność rynku i trendy akcji, czyli model Millera

Czy rozbieżność oczekiwań wśród inwestorów na temat przyszłych zysków, dywidend, stóp zwrotu i ryzyka wiąże się w jakiś sposób z kształtowaniem się trendów kursów akcji? Wiadomo z poprzedniego artykułu Rozbieżność opinii w kontekście CAPM , że sama rozbieżność opinii niewiele zmienia i rynek może pozostać całkowicie efektywny. Wcześniej jednak powiedziałem, że asymetria informacji w połączeniu z rozbieżnością oczekiwań i ich wzajemne sprzężenia są w stanie wywołać trend, nawet długoterminowy. Oczywiście długość trendu będzie zależeć od czynników fundamentalnych.

Edward E. Miller w artykule z 1977 r. "Risk, Uncertainty, and Divergence of Opinion" zaproponował interesujący model wyjaśniający różnego rodzaju "dziwne" zachowania stóp zwrotu przeczące teorii efektywności rynku oraz CAPM związany z rozbieżnością opinii inwestorów.

Rozważmy uproszczony model, w którym spółka akcyjna organizuje projekt na jeden rok. Po roku spółka zostanie zlikwidowana, a jej aktywa zostaną podzielone pomiędzy inwestorów. Inwestorzy maksymalizują oczekiwaną stopę zwrotu przy danym ryzyku, estymują stopę zwrotu z inwestycji, ale z powodu niepewności różnią tymi estymacjami.

Poniższy wykres pokazuje skumulowany rozkład liczby inwestorów z estymacjami powyżej pewnej wartości otrzymanej przy likwidacji inwestycji. Może być on także interpretowany jako liczba akcji, którą chcą trzymać inwestorzy po danej cenie.



Załóżmy, że każdy inwestor jest w stanie trzymać tylko jedną akcję i jest N dostępnych akcji. Na krzywej ABC widać, że N inwestorów szacuje końcową wartość R lub wyższą. W sumie cena sprzedaży ustala się na poziomie R. Jeśli cena wyniesie mniej niż R, będzie więcej niż N inwestorów którzy chcą trzymać akcje, ale ponieważ akcji w obrocie jest tylko N, zaczną pomiędzy sobą rywalizować, podbijając maksymalnie cenę do R. Jeśli cena będzie powyżej R, wtedy będzie mniej niż N inwestorów, którzy chcą trzymać akcje, a ponieważ liczba akcji N jest większa, podaż będzie zmuszona do sprzedawania akcji, sprowadzając cenę do R.

Aby lepiej zrozumieć model, przypomnijmy sobie poprzedni artykuł, gdzie podałem wzór na oczekiwaną przyszłą cenę akcji. Mieliśmy cenę P(0) w momencie 0 i E(P(1)) w okresie 1. Jeśli więc zaczynamy od okresu 0, to oczywiście inwestorzy kupują akcje po P(0), w tym przypadku po jednej akcji. P(0) może się znajdować w dowolnym punkcie krzywej ABC. Ale każdy inwestor może szacować inny poziom E(P(1)). Jeśli P(0) znajduje się poniżej R, to będzie więcej niż N inwestorów (czyli więcej niż akcji w obrocie), którzy chcą teraz trzymać akcje, ponieważ uważają, że w okresie 1 cena wyniesie co najmniej R lub - co na jedno wychodzi - dostaną przy likwidacji wartość kapitału własnego na jedną akcję równą R lub wyższą, co że pozwoli im maksymalizować stopę zwrotu. Jeśli bieżąca cena P(0) okaże się równa bądź wyższa od R, to inwestycja przestanie być opłacalna dla części z tych inwestorów. Ta część "odpadnie", w tym sensie, że ci, którzy kupili akcje po niższej cenie, będą sprzedawać, a ci którzy nie kupili, nie będą chcieli już kupić. W ten sposób pozostanie mniejsza liczba inwestorów, która nadal uważa, że przy danej cenie inwestycja maksymalizuje ich stopę zwrotu. W tej mniejszej grupie ci, którzy już kupili akcje wcześniej, nadal trzymają, a ci którzy nie kupili, będą starać się ciągle kupić. Ta grupa nadal bowiem uważa, że w okresie 1 cena będzie zadowalająco wyższa. Ale wraz ze wzrostem bieżącej ceny P(0) liczba tych inwestorów będzie sukcesywnie spadać. Stąd przesuwając się z prawej do lewej liczba inwestorów spada, a cena rośnie.

Jeśli pominiemy inne spółki w analizie, możemy stwierdzić, że inwestorzy będą kupować akcje dopóki szacowana stopa zwrotu przewyższy stopę zwrotu z obligacji rządowych po uwzględnieniu ryzyka. Ponieważ każdy może inaczej oceniać ryzyko i oczekiwaną stopę zwrotu, to każdy może mieć inny poziom akceptowalnej ceny zakupu i sprzedaży. A więc na osi pionowej znajdują się jednocześnie ceny zakupu P(0) i ceny oczekiwane E(P(1)) różnych inwestorów. Oczywiście jeśli wartość E(P(1)) szacowana przez pewną grupę inwestorów zostanie osiągnięta przed okresem likwidacji, to będzie mogła już realizować zysk.

Na krzywą ABC można spojrzeć jak na krzywą popytu, gdzie dana liczba inwestorów odpowiada popytowi przy danej cenie. Krzywa podaży jest to linia pionowa N wyrażająca liczbę dostępnych akcji.

Oczywiście łatwo zauważyć, że w takim układzie przyszła cena R będzie musiała zostać bardzo szybko osiągnięta, ponieważ cena jest wynikiem sił popytu i podaży. Dzieje się tak dlatego, że pewna stosunkowo niewielka (jak widać na wykresie) grupa inwestorów, ale będąca jeszcze w stanie zaspokoić całkowitą podaż, ciągle uważa, że przy P(0) = R, inwestycja jest nadal opłacalna.

Ta niewielka grupa inwestorów dopóki będzie w stanie wchłonąć podaż, spowoduje, że cena rynkowa będzie wyższa niż średnia oczekiwana cena przez ogół inwestorów. (Przy czym oczekiwana cena R będzie nadal średnią ważoną udziałem akcji, a tym samym estymacji wielu inwestorów tak jak przedstawiono to w poprzednim artykule). Zatem najwięksi optymiści albo słabo lub lepiej poinformowani będą w stanie spowodować istotne zwyżki kursu.

Dopiero nowe informacje płynące z otoczenia rynkowego czy samej spółki wpłyną na zmiany jej wyceny. I wszystko zacznie się od nowa, aż do momentu likwidacji spółki.

Rozbieżność opinii może się zmieniać w czasie pod wpływem nowych informacji. Co więcej, jak Miller stwierdza, rozbieżność opinii na temat stopy zwrotu i ryzyko zmieniają się w tym samym kierunku. Znaczenie ma tutaj założenie, że rzeczywiste inwestycje charakteryzują się niepewnością, to znaczy rozkład prawdopodobieństwa zdarzeń jest nieznany. Skutkuje to tym, że decyzje opierają się na subiektywnych szacunkach przyszłych zdarzeń, na subiektywnych prawdopodobieństwach. W grach hazardowych jak kasyno można ściśle wyznaczyć ryzyko i rozkład prawdopodobieństwa, a więc nie istnieje niepewność, a tym samym nie istnieje rozbieżność opinii. Sytuacja na rynkach jest dużo bardziej skomplikowana i może generować subiektywność oszacowań, co implikuje niepewność, a więc i rozbieżność opinii. Stąd w ogólnym rozrachunku możemy utożsamiać ryzyko inwestycji z niepewnością.

Załóżmy więc, że przychodzi informacja, że spółka za część wyemitowanego kapitału podejmuje pewną dodatkową inwestycję mającą na celu obniżenie kosztów. Jednak inwestycja ta jest dość ryzykowna. A więc całkowite ryzyko inwestycji wzrasta, ale jednocześnie wywołuje to wzrost rozbieżności opinii. Krzywa ABC zostaje zastąpiona przez FBJ. Jak widać prowadzi to do wzrostu ceny rynkowej z R do Q. Załóżmy następnie, że ta dodatkowa inwestycja udaje się, tak że koszty zostaną rzeczywiście obniżone. To doprowadzi do tego, że część wypłaty pieniędzy w okresie likwidacji staje się bardziej pewna. Ryzyko więc spada, a to prowadzi do spadku rozbieżności opinii. Krzywa FBJ zostaje zastąpiona przez DBE. To jednak prowadzi do spadku wyceny rynkowej, z Q do M. W sytuacji gdy rozbieżność opinii nie występuje - ryzyko jest obiektywne - krzywa popytu staje się linią prostą GBH, a cena spada do G.

Model ten tłumaczy zaobserwowany przez naukowców (np. przez Haugena i Hinesa, a także przez Soldofsky'ego, Millera oraz Pratta) paradoks, że często średnia stopa zwrotu jest ujemnie skorelowana z odchyleniem standardowym. Bardziej ryzykowne walory (to znaczy o wyższym współczynniku beta) przynosiły średnio mniejszy zwrot niż mniej ryzykowne. Jest to oczywiście zjawisko niezgodne z CAPM. Model Millera pokazuje, że staje się to możliwe, gdyż bardziej ryzykowny walor podnosi rozbieżność opinii, a dopóki mniej liczna grupa inwestorów, która optymistycznie ocenia nową inwestycję, w pełni pokryje podaż, wycena rynkowa będzie mogła być odpowiednio wyższa.

No dobrze, ale czy wyższa oczekiwana stopa zwrotu nie podnosi właśnie ceny? Wyższa oczekiwana stopa zwrotu podnosi oczekiwaną cenę E(P(1)) lub obniża P(0). W modelu, który omawiamy występuje zarówno P(0) jak i E(P(1)), jednak wartość E(P(1)) jako wartość oczekiwana pojawia się już w okresie 0. Badanie stóp zwrotu natomiast analizuje dane ex-post, czyli po fakcie - wartość, która się pojawiła się w okresie 0 zaliczona zostaje jako P(0), a wartość w okresie 1 jako P(1). Wartość P(1) jest wartością ex-post dla E(P(1)) - czyli jest to faktyczna wartość, która się pojawiła w okresie 1. Mówiąc krótko - wartość oczekiwana pojawia się szybciej i dlatego staje się wartością bieżącą. A ponieważ wartość bieżąca rośnie, to średnia stopa zwrotu (albo inaczej oczekiwana ex-post stopa zwrotu) spada. Dlatego też - według Millera - badania wykazały ujemną korelację pomiędzy ryzykiem a średnią stopą zwrotu.

Możemy w końcu przejść do sprawy tworzenia się trendu. Jeśli informacje sygnalizujące zwiększenie niepewności będą się często powtarzać, to rozbieżność opinii będzie wzrastać i cena dzięki temu systematycznie wzrasta. Bardziej optymistycznie nastawieni inwestorzy lub też lepiej poinformowani będą traktować informacje jako pozytywną i dopóki wchłoną całą podaż będą "rządzić". Z drugiej strony, jeśli powtarzać się będą informacje sygnalizujące zmniejszenie niepewności, to rozbieżność opinii zacznie spadać i paradoksalnie cena też zacznie spadać. Bardziej optymistyczni i lepiej poinformowani inwestorzy nie będą się zbytnio różnić w ocenach od średniej populacji inwestorów; cena zbliży się do średniej.

Możemy sobie również wyobrazić sytuację, gdy krzywa popytu staje się asymetryczna, tak że górna część staje się silniej nachylona. Mógłby to być typowy przykład z zakresu asymetrii informacji. Pewna niewielka grupa inwestorów wie znacznie więcej od reszty i zaczyna stopniowo, bez hałasu podbijać cenę. Gdy informacja publicznie się ujawnia, cena zwiększa już swoją średnią oczekiwań. Kolejne informacje i kolejne sprzężenia z rozbieżnymi opiniami mogą doprowadzić do utworzenia się trendu.

Oczywiście wszystko zależy od położenia linii podaży N. Jeśli będzie ona przesunięta mocno w prawo w stosunku do krzywej popytu, to popatrzmy co się dzieje - cała analiza się odwraca. Duża liczba inwestorów będzie gorzej od średniej oceniać wartość akcji i każda dodatkowa informacja sygnalizująca wzrost niepewności obniży cenę. Odwrotnie stanie w przypadku informacji zmniejszającej ryzyko. Miller skłania się jednak ku tezie, że liczba inwestorów trzymających wszystkie akcje jest mała w stosunku do całego uniwersum inwestorów, a więc że spełnione są założenia, że to optymiści wyznaczają cenę rynkową. Jednak możemy sobie wyobrazić sytuację, że akcje są tak źle odbierane przez dużą część rynku, że krzywa popytu jest niemal pionowa, a oprócz tego może przecież mieć inny kształt, na przykład im niższa cena, tym mniejsze nachylenie, a nie większe.

Zwróćmy uwagę na fakt, że choć model jest bardzo prosty, bo np. zakłada, że każdy inwestor trzyma jedną akcję, to oczywiście sytuację tę można odpowiednio uogólnić. Każdy inwestor mógłby trzymać n akcji. Wtedy jeśli oś pozioma wyznacza skumulowaną liczbę inwestorów przy danej estymacji, a liczba wszystkich akcji równa się N, to w miejsce N na naszym wykresie wstawiamy N/n. Ponieważ N = M*n, gdzie M - maksymalna liczba inwestorów mogących trzymać wszystkie akcje na rynku, to M = N/n jest liczbą którą musimy wstawić za N.

Na koniec poruszę jeszcze krytykę modelu Millera zapoczątkowaną prawdopodobnie przez Jarrowa (1980). Jarrow zwraca uwagę, że model Millera zakłada heterogeniczność oszacowań oczekiwanej stopy zwrotu oraz homogeniczność oszacowań ryzyka pośród inwestorów. Jeśli inwestorzy oceniają ryzyko na tym samym poziomie, to model Millera może być prawidłowy, a więc rzeczywiście cena będzie rosła wraz ze wzrostem rozbieżności opinii. Jednak rezultat może się zmienić, jeśli ryzyko będzie także niejednorodnie szacowane. Przypomnijmy sobie model Lintnera z poprzedniego artykułu, który opisuje różne sytuacje rozbieżności opinii: zarówno dla oczekiwanej stopy zwrotu, jak i ryzyka. Wprawdzie Lintner nie rozważa w swoim modelu relacji pomiędzy rozbieżnością opinii a ryzykiem/niepewnością, która stanowi klucz do teorii Millera, jednak należy brać pod uwagę wszelkie możliwe przypadki rozbieżnych opinii. Optymiści przewidują wyższe zyski firmy (wyższe dywidendy) bez wzrostu ryzyka. Pesymiści przewidują gorsze wyniki (dywidendy) bez spadku ryzyka. Popatrzmy na wzór:



Jeśli ryzyko się nie zmienia, to jedynie oczekiwana cena E(P1) będzie się zmieniać w zależności od opinii o przyszłych zyskach. Oznacza to, że oczekiwana stopa zwrotu będzie się zmieniać pod wpływem opinii inwestorów o przyszłych zyskach, pomimo że ryzyko (lub opinia o nim) będzie niezmienne. W rzeczywistości jednak ryzyko i awersja do ryzyka może się dodatkowo zmieniać. Widać, że bieżąca cena P(0) będzie tym wyższa, im niższe będzie ryzyko (v) oraz niższa awersja do ryzyka (a).

Jeśli część (av) wzrośnie, wtedy P(0) może spaść. Wtedy oczekiwana stopa zwrotu może wzrosnąć, gdy wzrośnie ryzyko, a nie spaść, jak przewiduje model Millera. Model CAPM zostanie uratowany.


Literatura:

1. E. Miller - Risk, Uncertainty, and Divergence of Opinion, 1977,
2. R. Jarrow - Heterogeneous Expectations, Restrictions on Short Sales, and Equilibrium Asset Prices, 1980,
3. J. Lintner, "The Aggregation of Investor's Diverse Judgments and Preferences in Purely Competetive Security Markets", 1969.

piątek, 8 czerwca 2012

Rozbieżność opinii w kontekście CAPM

Niedawno w poście Teoria portfela nie implikuje efektywnego rynku poruszyłem kwestię rozbieżności opinii na temat wartości akcji wśród inwestorów. Stwierdziłem, że zróżnicowanie oczekiwań sprawia, iż na wartość akcji można spojrzeć jak na przedział liczbowy. Pisałem także, że rozbieżność opinii stanowi jeden z możliwych warunków ukształtowania się trendu cen akcji. W tym artykule obalę mit, że sama rozbieżność opinii wywołuje trend. W tym celu posłużę się publikacją J. Lintnera "The Aggregation of Investor's Diverse Judgments and Preferences in Purely Competetive Security Markets" z 1969 r. podejmującą zagadnienie rozbieżności (niejednorodności) opinii pomiędzy inwestorami. Jest dużo więcej artykułów rozbudowujących tę tematykę, np.
- E. Miller - Risk, Uncertainty, and Divergence of Opinion, 1977
- R. Jarrow - Heterogeneous Expectations, Restrictions on Short Sales, and Equilibrium Asset Prices, 1980,
- C. Chiarella, R. Dieci, X-Z He - Aggregation of heterogeneous beliefs and Asset Pricing Theory: A mean-variance Analysis, 2007

Należy jednak zająć się podstawami.

Lintner w swoim artykule dowodzi, że niejednorodność opinii wśród inwestorów nadal pozwala zachować na rynku optimum Pareta (tzn. sytuację, gdy żadna strona nie jest w stanie poprawić swojej sytuacji bez pogorszenia drugiej strony, a więc rynek pozostaje efektywny), tak że teoria portfela wraz z CAPM może zostać odpowiednio uogólniona. Pomysł polega na zagregowaniu zróżnicowanych opinii inwestorów na temat przyszłej wartości akcji lub ryzyka (wariancji/kowariancji) w pewną uśrednioną opinię, będącą wynikiem sił popytu i podaży. Należy tu zwrócić uwagę, że Lintner zakłada, że obecna cena akcji jest prawidłowa, czyli rynek zachowuje efektywność - inwestorzy zgadzają się, że ich opinie zostaną odpowiednio uśrednione. Powstaje pytanie czy w takiej sytuacji nadal można rozważać wartość akcji przez pryzmat przedziału liczbowego. Można, tyle że musimy tu rozróżnić dwa kryteria: subiektywne i obiektywne. Każdy inwestor wycenia w ramach swoich możliwości jak najbardziej obiektywnie akcje. Zawsze jednak jego wycena będzie zawierać pewną dozę subiektywizmu. I to jest kryterium subiektywne. Rynek uśrednia wyceny wszystkich inwestorów w rynkową wycenę akcji. To jest kryterium obiektywne. Z punktu widzenia kryterium subiektywnego wartość akcji stanowi pewien przedział liczbowy. Z punktu widzenia kryterium obiektywnego wartość akcji stanowi konkretną liczbę, a subiektywna wycena jakiegoś inwestora jest po prostu losowym zakłóceniem prawidłowej wyceny.

Rozważając subiektywne wyceny, możemy stwierdzić, że inwestorzy posiadający identyczne preferencje ryzyka, będą trzymali akcje w portfelu w różnych proporcjach. Każdy z nich będzie stosował teorię portfela, ale może uzyskać inny skład portfela. Czyli mapa ryzyko-oczekiwana stopa zwrotu w teorii portfela będzie się przesuwać i zmieniać kształt w zależności od inwestora. Będzie również istnieć "rynkowa" mapa ryzyka i oczekiwanej stopy zwrotu, uśredniająca subiektywne mapy.

Należy zwrócić również uwagę, że decyzje inwestorów o skrajnie subiektywnych wycenach nie są błędne. Jeśli nazywać je już tak, to najwyżej można byłoby powiedzieć, że są to "wymuszone błędy".

Zakładamy dwa okresy: 0 i 1. Jest N walorów indeksowanych literką i oraz j. Jest także M inwestorów indeksowanych literką k. Lintner najpierw wyprowadza następujący wzór na oczekiwaną cenę akcji i-tego waloru k-tego inwestora w okresie 1:



Jeśli chodzi o v(i,k) to jest to jakby krańcowa wariancja portfela do i-tego waloru dla k-tego inwestora. Nie musimy tutaj się wgłębiać w znaczenie tej miary - najważniejsze, żeby zobaczyć, że jest proporcjonalna do kowariancji dla walorów i,j dla k-tego inwestora.

Można łatwo pokazać, że uśredniona (dla wszystkich inwestorów) oczekiwana cena akcji w okresie 1 jest równa:



Jeśli podzielimy obie strony przez P(0) i odejmiemy 1 z obu stron, to dostaniemy wzór na uśrednioną dla wszystkich M inwestorów oczekiwaną stopę wzrostu ceny i-tego waloru:



Załóżmy dla uproszczenia, że spółki nie wypłacają dywidend w okresie 1. Wówczas g(i) jest to oczekiwana stopa zwrotu i-tego waloru, co oznacza, że możemy to równanie potraktować jak uogólniony CAPM-SML dla rozbieżnych opinii. Model ten zapisywaliśmy w postaci:



W takim razie (uśredniona) i-ta cena ryzyka jest zależna od (uśrednionej) awersji do ryzyka oraz kowariancji cen i,j:



Wnioski są interesujące. Powyższy wzór jest na tyle ogólny, iż możemy stwierdzić, że nawet jeśli wszyscy inwestorzy mają takie same oczekiwania i opinie co do i-tej oczekiwanej stopy zwrotu, to i-ta cena ryzyka będzie zależeć nie tylko od kowariancji, ale także od awersji do ryzyka. A przecież awersja do ryzyka należy do dziedziny preferencji danego inwestora.

Załóżmy najpierw, że wszyscy mają identyczne oszacowania przyszłej ceny akcji (czyli także oczekiwanej stopy zwrotu) oraz ryzyka (wariancji/kowariancji cen, ale także stopy zwrotu). W takiej sytuacji, jeśli ktoś będzie miał wyższą awersję do ryzyka, to po prostu oczekiwana stopa zwrotu będzie musiała być mniejsza (inwestor chce mniej ryzykować). Ale ponieważ przyszła oczekiwana cena zależy dodatnio od awersji do ryzyka, to wariancja portfela będzie musiała odpowiednio mocniej spaść. Dostajemy więc klasyczny model - jeśli inwestor chce więcej (mniej) ryzykować, to posiada większe (mniejsze) ryzyko inwestycji, a wtedy oczekiwana stopa zwrotu rośnie (maleje).

Następnie uogólnimy ten przypadek. Załóżmy jeszcze raz, że wszyscy zgadzają się co do przyszłej ceny i-tej akcji. O ile aktualna cena akcji jest znana, to znów trzeba się zastanowić nad pozostałymi wyrazami: awersją do ryzyka i wariancją. Aby oczekiwana cena pozostała stała, to inwestorzy NIE MUSZĄ zgadzać się co do oszacowania wariancji, czyli ryzyka. Jeśli inwestor 1 uważa, że ryzyko jest wyższe niż inwestor 2, to aby ich oczekiwana cena pozostała identyczna, muszą się różnić awersją do ryzyka. Awersja do ryzyka inwestora 1 musi wtedy odpowiednio (stosunkowo) spaść.

Może się zdarzyć także sytuacja odwrotna. Inwestorzy mogą zgadzać się co do ryzyka, ale już nie oczekiwanej przyszłej ceny. Wówczas jeśli inwestor 1 ma wyższe oczekiwania ceny niż inwestor 2, to aby oszacowania ryzyka pozostały identyczne, awersja do ryzyka inwestora 1 musi stosunkowo wzrosnąć.

Inwestorzy mogą w końcu różnić się w ocenach zarówno przyszłej ceny, jak i ryzyka. W takiej sytuacji awersja do ryzyka przestaje mieć znaczenie "stabilizatora", bo każdy może mieć dowolne równanie oczekiwanej ceny. Stąd także każdy będzie posiadał swoje własne oszacowania SML. Oczywiście będzie podążał za racjonalnymi oczekiwaniami, lecz subiektywizmu w praktyce nie uda mu się ominąć. Oszacowania przyszłej oczekiwanej stopy zwrotu na podstawie średnich w przeszłości to duże uproszczenie zakładające, że przyszłość będzie taka jak przeszłość. Jednakże często to założenie nie jest uprawnione. Wykorzystywanie nowych, aktualnych informacji w sporządzaniu SML i wyceny dyskontowej rodzi duże pole do rozbieżności opinii. Dopiero rynek uśrednia wszystkie te opinie losując "obiektywną" wartość rynkową. Trochę to śmiesznie brzmi: rynek losuje wartość, którą należy uznać za obiektywną. Ale trzeba też pamiętać, że nie uwzględniamy tutaj różnych nieefektywności rynku, jak np. asymetria informacji czy też ataki spekulantów mające na celu wywołanie paniki lub euforii. Tak więc na razie kwestię formowania się trendów pozostawiam na boku. Dowodzę tylko, że sama rozbieżność opinii nie może stanowić przesłanki do tego, że kurs ma tendencję do poruszania się w danym kierunku.

Literatura:

J. Lintner, "The Aggregation of Investor's Diverse Judgments and Preferences in Purely Competetive Security Markets", 1969.

piątek, 27 kwietnia 2012

Jak CAPM wiąże się z teorią wyceny akcji? Przykład wyceny KGHM

CAPM zarówno swoją nazwą (Capital Asset Pricing Model to po polsku model wyceny aktywów kapitałowych) jak i istotą nawiązuje do wyceny akcji, więc tytułowe pytanie wydaje się bez sensu. W rzeczywistości model ten nie wyznacza bezpośrednio wartości wewnętrznej akcji, lecz właściwą oczekiwaną stopę zwrotu dowolnego aktywa kapitałowego (aktywom o określonym ryzyku rynkowym musi towarzyszyć odpowiednia oczekiwana stopa zwrotu). Zbyt wysoka oczekiwana stopa zwrotu w stosunku do ryzyka sprawi, że cena akcji szybko pójdzie w górę. Akcje znajdują się bowiem powyżej SML, a skoro cena wzrośnie, to oczekiwany zysk spadnie, a więc akcje powrócą na SML. Z kolei zbyt niska oczekiwana stopa zwrotu spowoduje, że cena szybko spadnie. Wtedy akcje znajdują się poniżej SML, a skoro cena spadnie, to oczekiwany zysk wzrośnie, a więc akcje powrócą na SML.

Fakt - CAPM można w takim sensie użyć jako narzędzie do wyceny akcji. Jednak rodzą się problemy w ogólniejszych przypadkach. W sytuacji gdy spółka dopiero co została założona lub gdy akcje dopiero co wchodzą na giełdę nie ma możliwości użycia CAPM. Innym kłopotem jest sytuacja, gdy spółka jest młoda i znajduje się w fazie ekspansji, a także gdy następują jakieś bardzo istotne fundamentalnie zmiany dla spółki - wtedy liczy się przede wszystkim analiza fundamentalna. Nawet w tych przypadkach nie wolno lekceważyć CAPM, ponieważ obecnie naukowcy pracują nad coraz bardziej zaawansowanymi rozszerzeniami i uogólnieniami tegoż modelu. Niemniej wszelkie niuanse i subtelności w zmianach wyceny mogą jedynie zostać odkryte w toku analizy fundamentalnej.

W sytuacji, gdy spółka wypłaca dywidendy i oczekuje się, że będą one rosły w średnim tempie g, wtedy możemy zastosować model wyceny Gordona:



gdzie:

P(0) - obecna wartość wewnętrzna akcji
D(1) - oczekiwana dywidenda w okresie 1
r - wymagana stopa zwrotu przez akcjonariusza (koszt kapitału własnego)
g - oczekiwana stopa wzrostu dywidendy

Krytycy tego prostego modelu przekonują, że jest on nieprzydatny, ponieważ istnieje zbyt duża niepewność co do przyszłości nawet stabilnej firmy; zmienność i cykliczność otoczenia gospodarczego nie pozwala wyznaczyć precyzyjnie wartości, natomiast inwestorzy różnią się znacznie oczekiwaniami na temat przyszłych zysków. Ponadto nawet niewielkie różnice pomiędzy tempem wzrostu zysku/dywidendy a kosztem kapitału własnego powodują silne zmiany w wycenie. Koszt kapitału własnego jest pojęciem abstrakcyjnym, umownym, ponieważ jego oszacowanie jest często intuicyjne. Powyższej krytyce można przeciwstawić 5 kontrargumentów.

Po pierwsze budowa modelu wyceny nie polega na znajomości przyszłości, lecz na posiadaniu racjonalnych oczekiwań. Racjonalne oczekiwania są często błędnie rozumiane przez inwestorów. Na przykład uważają, że wartość wewnętrzna powinna odzwierciedlać oczekiwania (prognozy) zarządu spółki lub też ich własne optymistyczne oczekiwania. W rzeczywistości rynek ocenia wartość obiektywnie, a więc uśrednia pesymistyczne i optymistyczne założenia. Oczywiście optymistyczne założenia będą mieć większą wagę, jeśli spółka dobrze sobie radziła w przeszłości.

Po drugie w psychologii, a także w ekonomii behawioralnej dobrze znane jest zjawisko regresji do średniej. Z tego punktu widzenia optymistyczne założenia, że firma będzie się rozwijać szybciej niż rynek, nie mogą być odpowiednie w długim okresie czasu, ponieważ należy założyć zbieżność do tempa rynku. Mogą przy tym istnieć pewne wyjątki, jeśli np. spółka ma już dziś przewagę monopolistyczną i jest w stanie ją utrzymać. Podobnie w drugą stronę - jeśli firma w najbliższym czasie będzie się wolniej rozwijać od rynku, to w dalszych okresach powinniśmy uwzględnić powrót do średniej. Mogą istnieć wyjątki także w tej sytuacji, np. jeśli zarząd ewidentnie niszczy wartość firmy lub jest strukturalnie nieefektywny.

Obok zjawiska regresji do średniej, można także zasygnalizować "działanie" prawa wielkich liczb. Zgodnie z tym prawem średnia z próby dąży wraz ze wzrostem liczebności próby do średniej z populacji. Prawo regresji do średniej nie jest prawem wielkich liczb. To pierwsze prawo jest prawem "natury", z kolei drugie - prawem matematyki.

Po trzecie bardzo ważny jest wyraz D(1) w modelu Gordona. To dzięki niemu możemy kalibrować zmianą wyceny. Wydaje się rozsądne założenie, że o ile dywidendy w okresach dalszych mogą rosnąć w średnim tempie g, o tyle dywidenda w okresie 1 może być dość dokładnie oszacowana, ponieważ zysk w okresie 1 można prognozować w oparciu o przeszłe i bieżące informacje.

Po czwarte racjonalny inwestor musi "chronić się" przed zbyt dużą niepewnością przyszłego wzrostu zysku firmy tak samo jak chroni się przed skutkami inflacji. Jeśli inflacja wzrasta, to będzie on wymagał większego zwrotu skorygowanego o stopę inflacji. Podobnie dzieje się, gdy firma potrafi zwiększyć tempo wzrostu zysku wykorzystując zwiększoną rentowność kapitału własnego. Inwestor w takiej sytuacji także musi zwiększyć wymaganą stopę zwrotu, ponieważ rodzi się niepewność, że ROE powróci do średniej po jakimś czasie. Z drugiej jednak strony nie wie jak oszacować takie ryzyko, bo nie ma na czym się oprzeć. Dlatego koszt kapitału własnego rośnie, ale nie aż tak mocno jak tempo wzrostu zysku (ani więc samo ROE). Kwestia ile dokładnie wzrośnie jest rzeczywiście złożona, ale tematem tym należałoby się zająć oddzielnie. Tak czy inaczej inwestor nie pozwoli, aby różnica pomiędzy r a g stała się nagle zbyt mała.

Po piąte siła wymienionych argumentów pozwala także wykorzystać prosty CAPM, który precyzyjnie wyznacza oczekiwaną stopę zwrotu. Ponieważ oczekiwana stopa zwrotu = wymagana stopa zwrotu akcjonariusza = koszt kapitału akcjonariusza, to teza o tym, że koszt kapitału własnego stanowi zbyt niejasną koncepcję traci rację bytu - nawet jeśli spółka nie była dotąd notowana na giełdzie, to do obliczenia wymaganej stopy zwrotu możemy wykorzystać dane statystyczne dotyczące spółki podobnej, ale notowanej na giełdzie zgodnie z twierdzeniem, że w długim okresie oczekiwana stopa zwrotu zbiega do średniej (w tym przypadku dla danej branży). Większy problem powstaje dla spółki o zupełnie nowym profilu czy zupełnie nowej branży nieobecnej na rynku. W tym przypadku ryzyko jest na tyle duże, że należy po prostu potraktować wartość księgową kapitału własnego jako wartość wewnętrzną, co spowoduje, że wymagana stopa zwrotu będzie bliska ROE. Większy problem powstaje w sytuacji, gdy spółka już istnieje jakiś czas na rynku, nie jest notowana na giełdzie i jednocześnie stosunek zadłużenia do kapitału własnego znacznie się różni od średniej ze spółek w branży. Wielkość zadłużenia wpływa bowiem na koszt kapitału własnego. Niektórzy próbują rozwiązać to zagdnienie wykorzystując tzw. równanie Hamady. Niestety podejście to zazwyczaj błąd, gdyż aby stosować r. Hamady trzeba rozumieć skąd ono wynika. Najlepsze rozwiązanie tego problemu polega na tym, aby
(a) obliczyć koszt kapitału dla branży lub spółki podobnej za pomocą CAPM ,
(b) obliczyć stosunek [ROE(dla danej spółki) / ROE(dla branży lub spółki podobnej) ]
(c) przemnożyć (a) przez (b).


Tak więc CAPM można włączyć do modelu wyceny dla każdej akcji. Przypomnijmy wzór CAPM-SML:



μ(i) - oczekiwana stopa zwrotu waloru i
Rf - stopa wolna od ryzyka rynkowego
beta(i) - ryzyko rynkowe waloru i
μ(M) - oczekiwana stopa zwrotu z portfela rynkowego (M)


Do wyceny wykorzystujemy prosty CAPM, ponieważ interesuje nas tylko uśredniona oczekiwana przyszłość wzrostu akcji. Koszt kapitału własnego w dużej części musi odzwierciedlać wynagrodzenie za ryzyko fundamentalne, a je możemy jedynie ocenić z perspektywy teraźniejszości (bieżących oczekiwań).

Przykład dla KGHM.

Akcje KGHM cieszą się dużą popularnością, ale jednocześnie są trudne do wyceny. Różnice w wycenach tej spółki różnych instytucji są olbrzymie. Fakt - ogromna zmienność cen miedzi powoduje, że wartość KGHM może bardzo szybko spaść i bardzo szybko wzrosnąć. Jednak paradoksalnie jest to właśnie dość pozytywny aspekt wyceny, ponieważ racjonalne oczekiwania będą polegały na uśrednianiu możliwych wydarzeń, a większe ryzyko będzie uwidocznione w większej oczekiwanej stopie zwrotu.

Wyznaczmy roczną wymaganą stopę zwrotu KGHM za pomocą CAPM. Dane obejmują okres od końca 1997 do końca 2011. Pobieramy dane ze stooq.pl. Wymagana stopa zwrotu obejmuje nie tylko wzrost kapitałowy ale także z dywidend. Stooq.pl zawiera opcję uwzględniania dywidend w kursie. Na podstawie wpisu Dlaczego indeks ważony kapitalizacją uważany jest za benchmark? wiadomo już, że indeks giełdowy stanowi przybliżenie portfela rynkowego. Przyjmiemy oczywiście za portfel rynkowy WIG. WIG jest to indeks uwzględniający także dywidendy.
Stopy zwrotu wraz ze średnimi przedstawia poniższa tabela:



Możemy graficznie porównać KGHM z WIG:



KGHM w tym okresie wzrósł wielokrotnie silniej od WIG. Roczna średnia arytmetyczna stopa zwrotu wyniosła prawie aż 49%, podczas gdy indeks 11,5%. Powstaje pytanie czy średnia stopa zwrotu KGHM nie była za duża? KGHM posiada dużą oczekiwaną stopę zwrotu, ponieważ jego wartość silnie zależy od czynników zewnętrznych: cen miedzi (które zależą od sytuacji makroekonomicznej) oraz czynników politycznych. Aby oszacować właściwą wymaganą stopę zwrotu, użyjemy wzoru SML.

Zanim jednak zastosujemy ten wzór, powinniśmy sprawdzić czy stopa zwrotu KGHM nie posiada przypadkiem rozkładu Levy'ego z nieskończoną wariancją. Ja używam programu J. P. Nolana Stable. Oczywiście obserwacji jest tu zdecydowanie za mało, by móc coś konkretnego powiedzieć. Jednak zamiast częstości rocznych, możemy użyć do sprawdzianu częstości kwartalnych. Program wylicza, że dla tych danych parametr alfa = 2, czyli KGH ma skończoną wariancję. Możemy zatem spokojnie zastosować klasyczny SML.

Pewien problem leży w wyznaczeniu stopy wolnej od ryzyka Rf. Za Rf najczęściej przyjmuje się średnią rentowność 52-tygodniowych bonów skarbowych. Jednak średnia rentowność bonów w danym okresie, których dane uzyskałem z portalu money.pl wynosi 8,59%, co jest spowodowane występowaniem bardzo dużej inflacji w początkowych latach badanego okresu.

Wydaje się, że aby prawidłowo wyznaczyć r, trzeba używać tych samych okresów co KGH zarówno dla WIG jak i Rf. Wymagana stopa zwrotu w różnych okresach może mieć bowiem inne parametry. Problem jednakże polega na tym, że przecież na podstawie danych historycznych chcemy wyliczyć oczekiwaną stopę zwrotu w teraźniejszości i przyszłości, a więc aproksymujemy przeszłość na teraźniejszość i przyszłość. Ale z tego wynika, że przyjmujemy te same parametry co w przeszłości. Nie można zgodzić się na to, aby Rf wyniosła 8,59%, ponieważ dziś rentowność bonów sk. wynosi 4,58%. W momencie gdy inflacja zaczęła silnie spadać, rentowność zaczęła się normować. I tak od 2003 r. do końca 2011 średnia rentowność bonów wynosi 5,2%. Przyjmiemy zatem za Rf = 5,2%, ponieważ taką wolną od ryzyka stopę można założyć w przyszłości.

Ostatnia kwestia to beta, do obliczenia której używamy wzoru:



Średnia stopa zwrotu WIG w danym okresie wynosi 11,48%. Na marginesie dodam, że o ile stopą wolną od ryzyka można manipulować, to już samą średnią stopą WIG nie można. Beta liczona jest bowiem w oparciu o stopy w danym w okresie, dlatego też Rm musi być dokładnie średnią arytmetyczną z tego okresu. Nie może być geometryczną średnią, ani jakąś inną którą sobie arbitralnie ustalamy. To jest zabronione, bo beta uwzględnia prawdziwą średnią arytmetyczną. Zatem jeśli np. w danym okresie Rm = 14%, to wstawiamy 14%, a nie 10% bo nam się tak wydaje lepiej.

Po obliczeniu bety, która wyszła 2,4 podstawiamy dane do wzoru na CAPM:

r = 5,2 + 2,4*(11,48-5,2) = 20,3%.

Otrzymana wymagana stopa zwrotu dla KGH wynosi 20,3%.

Porównując średnią stopę zwrotu KGH 49% z wymaganą stopą zwrotu 20,3% możemy początkowo wnioskować, że oczekiwana stopa zwrotu dla KGHM leży powyżej SML, czyli rynek jest czy był nieefektywny - KGH był za nisko wyceniony. W rzeczywistości ten wniosek może się okazać tylko pozorny. Arytmetyczna średnia będzie prawidłowa dla długich okresów obserwacji, lecz dla krótszych przypisze zbyt dużą wagę obserwacjom odstającym. Aby rozwiązać ten problem można użyć średniej geometrycznej za pomocą wzoru:

średnia geometryczna stopa zwrotu = (wartość końcowa/wartość początkowa)^[1/(n-1)] - 1.

Podstawiając dane dostaniemy (110,6/6,9229)^(1/(15-1)) - 1 = 21,9%.

Jak widać średnia geometryczna bardzo bliska jest wartości otrzymanej za pomocą CAPM. Jednakże średnia geometryczna ma jedną podstawową wadę: w ogóle nie uwzględnia wartości środkowych. Dlatego najlepszą estymację średniej uzyskuje się stosując regresję liniową wg następującego wzoru:

ln(kurs) = a + b*t + e

Współczynnik kierunkowy (b) tej funkcji staje się średnim procentowym wzrostem zmiennej objaśnianej. Podstawiając dane dla KGHM, otrzymałem b = 22,4%.

A zatem w tym przypadku średnia stopa zwrotu jest bardzo zbliżona do geometrycznej i nieco mniej do CAPM. Niemniej odchylenie jest niewielkie i widać, że CAPM prawidłowo wyliczył wymaganą stopę zwrotu. KGHM leży praktycznie na SML (rynek prawidłowo wycenia akcje).

Powstaje jednak pytanie czy statystyczna wycena (czy statyczna jak kto woli) będzie odpowiadać fundamentalnej. na razie wiemy tylko, że KGHM statystycznie jest dobrze wyceniony, co nie znaczy, że jest dobrze wyceniony na chwilę obecną - pełną dynamikę wyceny może jedynie oddać model dyskontowy uwzględniając fundamenty. Aby sprawdzić czy dzisiejsza rynkowa wycena KGHM jest prawidłowa, użyjemy wzoru Gordona, gdyż KGHM jest spółka, która konsekwentnie wypłaca dywidendy od 2005 r. Tak więc dane będą dotyczyć okresu 2005-2011.

Aby wyznaczyć wartość wewnętrzną akcji KGHM potrzebujemy wyliczyć tylko dwie zmienne: g oraz D(1), ponieważ r już obliczyliśmy. Zajmijmy się g. We wpisie Analiza tempa wzrostu zysku firmy pisałem o 3 metodach szacowania stopy wzrostu zysku: historycznej, eksperckiej i fundamentalnej (teoretycznej). Najlepiej użyć wszystkich 3 i połączyć. Tak też zrobimy. Z historycznego punktu widzenia tempo g wyznaczamy w oparciu o parametr b' tendencji rozwojowej:

ln(dywidenda) = a' + b'*t

Ocena parametru b' wynosi 21,1%, choć przy dużym odchyleniu standardowym. Wartość ta jest większa niż r, więc nie może być użyta do wyceny: w którymś miejscu popełniamy błąd. Od razu warto sprawdzić czy przypadkiem nie mamy tu do czynienia z trendem nieliniowym. Logarytmiczna dywidenda ma następujący wykres:



Danych jest zbyt mało, by rozsądzać o trendzie. Powinniśmy więc zastąpić dywidendy zyskami. Sprawdźmy jak zyski rosną od 1998 do 2010 r. (pomijamy 2011, bo dywidendy odnoszą się do zysku z poprzedniego roku). Wyznaczenie tendencji rozwojowej musi tu odbyć się bez stosowania logarytmów, gdyż zyski w niektórych latach były ujemne. W takiej sytuacji często rozwiązuje się ten problem następująco:
1. najpierw wyznacza się regresję liniową dla samej zmiennej, czyli zysku, aby uzyskać średnią zmianę zysku równą współczynnikowi kierunkowemu regresji,
2. następnie oblicza się średni zysk w danym okresie
3. Dzieli się współczynnik kierunkowy z (1) przez średni zysk z (2), aby uzyskać średnią procentową zmianę zysku.

Okazuje się, że zysk średnio rośnie w tempie 24%, czyli zdecydowanie nadal zbyt dużo.

Widać więc, że metoda historyczna w tym przypadku jest niewystarczająca. Gdybyśmy dodatkowo posiadali pewne fundamentalne informacje, być może problem udałoby się rozwikłać. Podpowiedź znajdujemy w zdarzeniach ostatnich miesięcy.

W 2011 r. akcjonariusze KGHM mieli wyjątkowego pecha. Z jednej strony wyniki spółki były rekordowe, ale stało się tak w dużej części dzięki zdarzeniom jednorazowym. Z drugiej strony pojawiły się silne sygnały recesyjne w Europie i USA, co natychmiast przełożyło się na spadki notowań miedzi, a więc także KGHM. Pod koniec roku, gdy wydawało się, że kurs akcji może wrócić do ostatnich maksimów, jak obuchem uderzyła w rynek wiadomość o wprowadzeniu przez rząd podatku od niektórych kopalin, w tym miedzi. Kurs KGHM natychmiast zareagował potężną wyprzedażą.

Te negatywne zdarzenia wpłynęły na całą strukturę wyceny akcji. Łatwo to dostrzeżemy, gdy obliczymy r z CAPM ucinając rok 2011. Wtedy okazuje się, że r = 26,2%. Płyną z tego ważne wnioski. Stopa r prawdopodobnie zmniejszyła się z ok. 26 do ok. 20%. Również g spadło. Pytanie jak bardzo? Aby uzyskać odpowiedzieć na to pytanie, musimy się dowiedzieć, jaki wpływ ma nowy podatek na wyniki spółki. W artykule na forbes.pl Podatek od kopalin zmniejszy potencjał KGHM czytamy:

Zdaniem analityka wprowadzenie podatku od kopalin da budżetowi Polski, przy obecnym poziomie cen miedzi, prawie 2,5 mld zł rocznie dodatkowych wpływów. To oznacza jednak, że KGHM będzie miał właśnie o taką kwotę mniej pieniędzy na inwestycje, dywidendę, czy inne projekty, na które chciałby wydać te pieniądze.


Połączmy ten fragment z prognozą zysku KGHM na 2012 r. W artykule money.pl Najnowsza prognoza zysku netto dla KGHM czytamy, że spółka zakłada zysk na poziomie 3,8 mld zł. Dodając do 3,8 wartość 2,5 dostajemy 6,3 mld. Zatem stosunek 3,8/6,3 = 0,6 jest to wielkość korygująca zysk o podatek od kopalin. Oznacza to, że aby oszacować g po uwzględnieniu podatku, musimy przemnożyć stare g przez 0,6. Z regresji otrzymaliśmy 21,1%. Oznacza to, że właściwe g = 0,6*21,1% = 12,66%.

Porównamy następnie ten wynik z metodą fundamentalną. Metoda ta polega na zastosowaniu dla ROE = const, wzoru g = k*ROE, gdzie k = 1-dywidenda/zysk netto. Natomiast w ogólnym przypadku g(t) = k(t)*ROE(t) + s(t), gdzie s(t) = ROE(t)/ROE(t-1)-1. Oczywiście ROE zmienia się dla każdego okresu, ale nas interesują średnie wielkości - jeśli średnie ROE istnieje dla danego okresu, to różnice w ROE w różnych latach można potraktować jak odchylenia statystyczne. Dlatego też używamy pierwszego wzoru na g. Średni stosunek dywidenda/zysk netto w l. 2005-2011 wyniósł 0,485, czyli k = 1-0,485 = 0,515. Średnie ROE w okresie 2004-2010 wyniósł 38,7% (dywidenda liczona jest od zysku z zeszłego roku, czyli od 2004 do 2010). Czyli

g = 0,515*38,7% = 19,9%.

Otrzymany wynik metodą fundamentalną jest bardzo zbliżony do uzyskanego za pomocą regresji liniowej. Aby uzyskać właściwą wartość g, skorygujemy również tę wielkość o 0,6. Stąd g za pomocą metody fundamentalnej wynosi:

g = 0,6*19,9% = 11,94%.

Aby połączyć metodę ekonometryczną z fundamentalną, obliczmy średnią wyników z obu metod:

g = (12,66+11,94)/2 = 12,3%.

Liczba akcji KGH wynosi 0,2 mld. Ponieważ zysk KGHM w 2012 r. zakładany jest na poziomie 3,8 mld zł, to zysk na akcję wynosi 3,8 zł/0,2 = 19 zł. Wcześniej podałem, że średni stosunek dywidenda/zysk wynosi 0,485. Oczekiwana dywidenda z zysku za 2012 r. wypłacona w okresie 1 (w roku 2013) równa się:

0,485*19 zł = 9,215.

Obecnie jesteśmy po 1 kwartale 2012 r. + 1 miesiąc. Zatem oczekiwana dywidenda w okresie 1 dotyczy 2013 + 1 kwartał 2013 + 1 miesiąc 2013. Oczekiwana dywidenda wypłacona za rok, czyli na początku maja 2013 r. uwzględnia dodatkowe odpowiednio proporcjonalne tempo wzrostu w tym czasie, które wynosi 12,3%/4 + 12,3%/12 = 4,1%. (Ponieważ obliczamy wzrost za 1 kwartał + 1 miesiąc). Oczekiwana dywidenda wynosi:

D(1) = 9,215*(1+4,1%) = 9,6 zł.

Podstawmy dane do wzoru Gordona:

P(0) = D(1)/(r - g) = 9,6 /(0,203-0,123) = 120.

Nie można jednak zapomnieć, że dywidenda za 2011 r. jeszcze nie została wypłacona, ale jest już pewna i powiększa wirtualnie kapitał inwestora, a więc i wartość akcji. Gdy dywidenda zostanie wypłacona, kurs zmniejszy się o jej wysokość. W tym momencie wartość wewnętrzna nadal uwzględnia więc wartość jeszcze niewypłaconej dywidendy za 2011 r. Na podstawie artykułu Dywidenda KGHM: możliwa wypłata 18 zł na akcję stwierdzamy, że jest to 18 zł. Tak więc całkowita wartość wewnętrzna akcji KGHM wynosi:

P(0) = 120 + 18 = 138 zł.

A teraz przyglądamy się kursowi akcji. Dziś kurs KGHM wynosi 137,7 zł.

Aby upamiętnić, że tyle rzeczywiście cena obecnie wynosi wklejam wykres:



Podsumowanie.

Przedstawiłem teoretyczną podstawę połączenia CAPM i wyceny akcji za pomocą modelu dyskontowego, a także uzasadniłem użycie prostego modelu Gordona. Przeprowadziłem badanie dla KGHM w dwóch kierunkach: użycia CAPM jako narzędzia estymacji oczekiwanej stopy zwrotu, którą następnie można zastosować do modelu Gordona. I tak po pierwsze prosty CAPM świetnie się sprawdził jako metoda wyznaczania oczekiwanej stopy zwrotu, ponieważ średnio tyle mniej więcej wynosi faktyczny zwrot z akcji. Po drugie model Gordona w połączeniu z CAPM również bardzo dobrze się sprawdził - widać, że rynek właśnie tej metody używa, ponieważ obecny kurs KGHM jest praktycznie równy teoretycznej wycenie. Prawdopodobnie stało się tak przez przypadek, ale zbieżność teorii do rzeczywistej ceny jest imponująca. Możemy stwierdzić, że rynek okazuje się fundamentalnie bardzo efektywny w przypadku akcji KGHM.

Źródło danych statystycznych:

stooq.pl
bankier.pl
money.pl

piątek, 30 marca 2012

Teoria portfela nie implikuje efektywnego rynku

Jak zostało powiedziane, teorię portfela (zarówno klasyczną Markowitza i CML, jak również uogólnioną czy też w wersji alternatywnej) należy stosować pod warunkiem, że spełnione są jej założenia o istnieniu oczekiwanej stopy zwrotu i (mierzalnego) ryzyka instrumentów finansowych. Jak się jednak dobrze zastanowimy, to dojdziemy do wniosku, że ta oczekiwana stopa zwrotu musi być właściwa - warunek ten oznacza, iż akcje muszą być dobrze wycenione. Dlaczego? Najlepiej zrozumieć to na przykładzie. Załóżmy, że kupujemy akcje PKO BP. Spółka ta rozwija się stabilnie w tempie wzrostu gospodarczego (ok. 7% rocznie). Ryzyko tutaj nie jest duże, więc nie powinniśmy oczekiwać dużych zwrotów. Oczekiwana stopa zwrotu powinna wynieść tyle co dla rynku polskiego, czyli ok. 11%. Gdyby więc oczekiwana stopa zwrotu PKO BP wyniosła aż 30%, to inwestorzy zaczęliby oczywiście rzucać się stadem na akcje, bo takiej okazji trudno przegapić. To spowodowałoby, że cena szybko wzrosłaby, a wówczas ostatni inwestorzy nie mogliby już osiągnąć zbyt dużych zwrotów. Pytanie brzmi: do jakiego punktu cena wzrośnie? Odpowiedź: cena wzrośnie do takiego punktu, aby oczekiwana stopa zwrotu wyniosła 11% (spadnie do takiego poziomu). Odwrotnie jeśli oczekiwana stopa zwrotu wyniesie tylko 5%. Tak mały zwrot jest nieopłacalny przy ponoszonym ryzyku, a zatem inwestorzy będą sprzedawać akcje. Cena spadnie do punktu aż oczekiwana stopa zwrotu wyniesie 11% (wzrośnie do takiego poziomu).

Widać więc, że jeśli akcje nie są prawidłowo wycenione, to nie opłaca się stosować teorii portfela: kupujemy akcje najbardziej niedowartościowane, sprzedajemy przewartościowane. Jeśli natomiast akcje są dobrze wycenione, to oczekiwana stopa zwrotu jest właściwa (czyli dobrze odzwierciedla ryzyko), zatem teoria portfela pozostaje ważna.

Warunek dobrze wycenionych akcji nie musi jednak oznaczać, że gracze są w pełni racjonalni lub że rynek jest w pełni efektywny. Może wystąpić sytuacja, gdy stopy zwrotu są skorelowane, daje się przewidzieć kierunek kursu i na tym dodatkowo zarobić, a jednocześnie akcje będą nadal dobrze wycenione. Możemy wszakże spojrzeć na wartość akcji w szerszym kontekście - nie jak na liczbę lecz przedział. Wartość akcji może się mieścić w pewnym przedziale z co najmniej dwóch powodów.

Po pierwsze inwestorzy mają często odmienne oczekiwania co do przyszłych zysków i dywidend. Jeden może uważać, że obecnie to już za drogo, drugi, że poziom cenowy jeszcze nie osiągnął optimum. Należy jednak pamiętać, że gracze mają racjonalne oczekiwania - uśredniają optymistyczne i pesymistyczne założenia, więc różnice oczekiwań nie muszą być wcale duże. Ale w jaki sposób konkretnie tworzą oczekiwania? Aby odpowiedzieć na to pytanie, musimy wrócić do postu Analiza tempa wzrostu zysku firmy. Są trzy podejścia oszacowania przyszłego tempa wzrostu: historyczne, eksperckie i fundamentalne. Metoda ekspercka jest oczywiście mocno subiektywna, choć jak wskazują np. badania O'Brien'a (1988) prognozy analityków dla kolejnych dwóch kwartałów pokonywały modele szeregów czasowych, dla kolejnych trzech kwartałów były tak samo dobre, zaś dla czterech naprzód już gorsze. W podejściu historycznym również występować może duża doza subiektywizmu, jeżeli średnie tempo wzrostu zysku spółki nie było dotąd jednorodne w czasie. W tworzeniu przyszłych oczekiwań należy wykorzystać wówczas Prawo Wielkich Liczb (zgodnie z którym średnia z próby dąży do średniej z populacji) lub znane w psychologii tzw. prawo regresji do średniej. Z tego właśnie względu w modelu wyceny akcji umieszcza się wartość rezydualną, która zakłada po pewnym czasie stały oczekiwany wzrost zysku. Okej, ale od którego okresu przyjąć ten stały wzrost zysku, skoro np. spółka zmieniła strategię lub dokonała restrukturyzacji, tak że po latach wychodzi na prostą? Oto jest pytanie. Z kolei w podejściu fundamentalnym w celu obliczenia parametrów wykorzystuje się metodę historyczną lub/i ekspercką. Dlatego subiektywnego punktu widzenia w praktyce raczej nie da się uniknąć. Dlaczego podkreśliłem "raczej"? Zawsze można porównać daną firmę do innych firm, które przechodziły kiedyś podobną drogę i na tej podstawie wyciągnąć wnioski. Problemem niestacjonarności w ekonomii zajmował się Hamilton w pracy z 1989, którą można przeczytać TUTAJ. Później powstało wiele publikacji na ten temat. S. Eickmeier TUTAJ poszukuje stacjonarnych i niestacjonarnych czynników wpływających na wzrost gospodarczy w strefie euro. Jedną z nowszych prac zajmującą się niestacjonarnością statystycznej aktywności gospodarczej w USA jest praca do przeczytania TUTAJ. Tak czy inaczej, są to tylko narzędzia ekonometryczne, natomiast oceny zawsze dokonuje badacz. Dlatego wcześniej napisałem, że inwestorzy mogą różnić się w szacunkach, ale różnice te mogą nie być wielkie. W każdym razie nie mogą być na tyle duże, aby wywołać długoterminowy trend. Do tego potrzeba czegoś więcej.

Po drugie na rynku panuje asymetria informacji. Niektórzy są lepiej poinformowani i dyskontują szybciej informacje. Ponieważ insider trading jest zakazany, inwestorzy ci odpowiednio się kryją, np. jeśli znają dobre wiadomości przed ogółem, kupują mniejszymi pakietami akcje wcześniej w odpowiednim okresie czasu, wywołując tym rosnący popyt. Inni gracze, np. stosujący analizę techniczną, wyłapują wczesny trend rosnący, co powoduje jego umocnienie. Dodatkowo dobre/złe informacje często występują seriami. Oczywiście racjonalny inwestor dyskontuje taki fakt w momencie ukazania się pierwszej pozytywnej/negatywnej informacji. Jednakże tutaj właśnie włącza się pierwszy podany wyżej powód - różnice w oczekiwaniach wpływu informacji na przyszłe wyniki spółki. Nawet jeśli po pojawieniu się jednej dobrej informacji, rynek natychmiast zdyskontuje ukazanie się prawdopodobnej serii kolejnych pozytywnych informacji, to wcale nie musi być zgody co do siły znaczenia tych następnych informacji. Jeśli np. PKO BP rośnie średnio 7% rocznie, ale w danym roku zysk netto wzrósłby o 15%, to rynek musi przeanalizować z czego to wynikło. Czy miały na to wpływ pojedyncze przypadkowe zdarzenia, czy też był to jakiś zaplanowany sukces inwestycyjny? Do tego wniosku rynek dojdzie rzecz jasna obiektywnie. Ale już wpływ samego zdarzenia jest mocno subiektywny. Mogło być tak, że akurat złożyły się jakieś szczególne okoliczności, które nie są możliwe do spostrzeżenia, a tym bardziej są niemierzalne, lecz pomogły osiągnąć taki rezultat, przy czym spółka przypisuje to własnym umiejętnościom. Jeśli jakieś szczęśliwe okoliczności do tego doprowadziły, wówczas rynek musi to odebrać jako zwykły fart - a zatem jako ten pierwszy wariant. Wtedy oczywiście rynek potraktuje to jako pojedyncze wydarzenie. Jeśli natomiast zadziałał tu jakiś czynnik strukturalny, to rynek musi to odebrać jako coś więcej - być może początek serii tak dobrych wyników. Ale jeśli nawet potraktuje jako zapoczątkowanie serii, to także może się różnić w tym, jak szybko ta seria wygaśnie i z jaką siłą.

Sprzężenia zwrotne pomiędzy różnicami oczekiwań a popytem spekulującym pozytywne/negatywne informacje na podstawie wzrostu/spadku kursu wywołanym przez insiderów może zatem skutkować pojawieniem się długiego trendu. Oznaczać to musi nieefektywność rynku lub niepełną racjonalność graczy.

No dobrze, ale wyobraźmy sobie sytuację, że kurs PKO BP rośnie przez 2 lata, a miesięczne stopy zwrotu są mocno skorelowane. Wiemy, że roczna oczekiwana stopa zwrotu z tej akcji wynosi mniej więcej 11%. Oznacza to, że miesięczna wynosi 0,9%. Jednakże akcje w ciągu tych dwóch lat rosną średnio miesięcznie 5%, czyli 80% rocznie. Oczywiście wiemy, że w długim okresie czasu średnia stopa wróci do wartości oczekiwanej, jednak co zrobić z takim przypadkiem średniookresowym? Potraktować jako przypadkowe odchylenie od normy czy też jako źle wycenioną akcję? Nie, ani to, ani to. Akcje mogą być ciągle dobrze wycenione, jeśli ta oczekiwana stopa zwrotu będzie właściwa przy odpowiednim ryzyku. Można pomyśleć, że ryzyko jest niewspółmiernie niskie w stosunku do stopy zwrotu. Jednak... problem polega właśnie na tym, że ów stosunek może się zmieniać w czasie. Przecież ta zmienność także jest niepewnością! Wchodzimy tutaj znowu w zagadnienia niestacjonarności. Zagadnienie to również nie jest nowe z punktu widzenia teorii portfela. Już Markowitz dostrzegał problem w postaci niejednorodności w czasie parametrów rozkładu stopy zwrotu. Na początku proponowano użyć wielookresowego modelu portfela Markowitza, jednakże taki model jest trudny do zaakceptowania - jest sztuczny i nie uwzględnia efektów niestacjonarności. Pionierami w uogólnieniu teorii portfela na niestacjonarność oczekiwanej stopy zwrotu i ryzyka byli C. B. Barry i R. L. Winkler - Nonstationarity and Portfolio Choice. W kolejnych latach powstało znowu wiele publikacji wnoszących jakieś nowe idee do "niestacjonarnej teorii portfela". W Nonstationary Optimization Approach for Finding Universal Portfolios Autorzy oprócz wyłożenia swojej teorii, przedstawiają też interesujące wyniki empiryczne.

W ten sposób wykazałem, że możliwość (konieczność) zastosowania teorii portfela w szerokim jej znaczeniu nie implikuje efektywności rynku, pomimo że implikuje dobrze wycenione aktywa - pod warunkiem, że potraktujemy wartość aktywa w kategoriach przedziału a nie liczby.