środa, 4 lipca 2012

Rozbieżność opinii, nieefektywność rynku i trendy akcji, czyli model Millera

Czy rozbieżność oczekiwań wśród inwestorów na temat przyszłych zysków, dywidend, stóp zwrotu i ryzyka wiąże się w jakiś sposób z kształtowaniem się trendów kursów akcji? Wiadomo z poprzedniego artykułu Rozbieżność opinii w kontekście CAPM , że sama rozbieżność opinii niewiele zmienia i rynek może pozostać całkowicie efektywny. Wcześniej jednak powiedziałem, że asymetria informacji w połączeniu z rozbieżnością oczekiwań i ich wzajemne sprzężenia są w stanie wywołać trend, nawet długoterminowy. Oczywiście długość trendu będzie zależeć od czynników fundamentalnych.

Edward E. Miller w artykule z 1977 r. "Risk, Uncertainty, and Divergence of Opinion" zaproponował interesujący model wyjaśniający różnego rodzaju "dziwne" zachowania stóp zwrotu przeczące teorii efektywności rynku oraz CAPM związany z rozbieżnością opinii inwestorów.

Rozważmy uproszczony model, w którym spółka akcyjna organizuje projekt na jeden rok. Po roku spółka zostanie zlikwidowana, a jej aktywa zostaną podzielone pomiędzy inwestorów. Inwestorzy maksymalizują oczekiwaną stopę zwrotu przy danym ryzyku, estymują stopę zwrotu z inwestycji, ale z powodu niepewności różnią tymi estymacjami.

Poniższy wykres pokazuje skumulowany rozkład liczby inwestorów z estymacjami powyżej pewnej wartości otrzymanej przy likwidacji inwestycji. Może być on także interpretowany jako liczba akcji, którą chcą trzymać inwestorzy po danej cenie.



Załóżmy, że każdy inwestor jest w stanie trzymać tylko jedną akcję i jest N dostępnych akcji. Na krzywej ABC widać, że N inwestorów szacuje końcową wartość R lub wyższą. W sumie cena sprzedaży ustala się na poziomie R. Jeśli cena wyniesie mniej niż R, będzie więcej niż N inwestorów którzy chcą trzymać akcje, ale ponieważ akcji w obrocie jest tylko N, zaczną pomiędzy sobą rywalizować, podbijając maksymalnie cenę do R. Jeśli cena będzie powyżej R, wtedy będzie mniej niż N inwestorów, którzy chcą trzymać akcje, a ponieważ liczba akcji N jest większa, podaż będzie zmuszona do sprzedawania akcji, sprowadzając cenę do R.

Aby lepiej zrozumieć model, przypomnijmy sobie poprzedni artykuł, gdzie podałem wzór na oczekiwaną przyszłą cenę akcji. Mieliśmy cenę P(0) w momencie 0 i E(P(1)) w okresie 1. Jeśli więc zaczynamy od okresu 0, to oczywiście inwestorzy kupują akcje po P(0), w tym przypadku po jednej akcji. P(0) może się znajdować w dowolnym punkcie krzywej ABC. Ale każdy inwestor może szacować inny poziom E(P(1)). Jeśli P(0) znajduje się poniżej R, to będzie więcej niż N inwestorów (czyli więcej niż akcji w obrocie), którzy chcą teraz trzymać akcje, ponieważ uważają, że w okresie 1 cena wyniesie co najmniej R lub - co na jedno wychodzi - dostaną przy likwidacji wartość kapitału własnego na jedną akcję równą R lub wyższą, co że pozwoli im maksymalizować stopę zwrotu. Jeśli bieżąca cena P(0) okaże się równa bądź wyższa od R, to inwestycja przestanie być opłacalna dla części z tych inwestorów. Ta część "odpadnie", w tym sensie, że ci, którzy kupili akcje po niższej cenie, będą sprzedawać, a ci którzy nie kupili, nie będą chcieli już kupić. W ten sposób pozostanie mniejsza liczba inwestorów, która nadal uważa, że przy danej cenie inwestycja maksymalizuje ich stopę zwrotu. W tej mniejszej grupie ci, którzy już kupili akcje wcześniej, nadal trzymają, a ci którzy nie kupili, będą starać się ciągle kupić. Ta grupa nadal bowiem uważa, że w okresie 1 cena będzie zadowalająco wyższa. Ale wraz ze wzrostem bieżącej ceny P(0) liczba tych inwestorów będzie sukcesywnie spadać. Stąd przesuwając się z prawej do lewej liczba inwestorów spada, a cena rośnie.

Jeśli pominiemy inne spółki w analizie, możemy stwierdzić, że inwestorzy będą kupować akcje dopóki szacowana stopa zwrotu przewyższy stopę zwrotu z obligacji rządowych po uwzględnieniu ryzyka. Ponieważ każdy może inaczej oceniać ryzyko i oczekiwaną stopę zwrotu, to każdy może mieć inny poziom akceptowalnej ceny zakupu i sprzedaży. A więc na osi pionowej znajdują się jednocześnie ceny zakupu P(0) i ceny oczekiwane E(P(1)) różnych inwestorów. Oczywiście jeśli wartość E(P(1)) szacowana przez pewną grupę inwestorów zostanie osiągnięta przed okresem likwidacji, to będzie mogła już realizować zysk.

Na krzywą ABC można spojrzeć jak na krzywą popytu, gdzie dana liczba inwestorów odpowiada popytowi przy danej cenie. Krzywa podaży jest to linia pionowa N wyrażająca liczbę dostępnych akcji.

Oczywiście łatwo zauważyć, że w takim układzie przyszła cena R będzie musiała zostać bardzo szybko osiągnięta, ponieważ cena jest wynikiem sił popytu i podaży. Dzieje się tak dlatego, że pewna stosunkowo niewielka (jak widać na wykresie) grupa inwestorów, ale będąca jeszcze w stanie zaspokoić całkowitą podaż, ciągle uważa, że przy P(0) = R, inwestycja jest nadal opłacalna.

Ta niewielka grupa inwestorów dopóki będzie w stanie wchłonąć podaż, spowoduje, że cena rynkowa będzie wyższa niż średnia oczekiwana cena przez ogół inwestorów. (Przy czym oczekiwana cena R będzie nadal średnią ważoną udziałem akcji, a tym samym estymacji wielu inwestorów tak jak przedstawiono to w poprzednim artykule). Zatem najwięksi optymiści albo słabo lub lepiej poinformowani będą w stanie spowodować istotne zwyżki kursu.

Dopiero nowe informacje płynące z otoczenia rynkowego czy samej spółki wpłyną na zmiany jej wyceny. I wszystko zacznie się od nowa, aż do momentu likwidacji spółki.

Rozbieżność opinii może się zmieniać w czasie pod wpływem nowych informacji. Co więcej, jak Miller stwierdza, rozbieżność opinii na temat stopy zwrotu i ryzyko zmieniają się w tym samym kierunku. Znaczenie ma tutaj założenie, że rzeczywiste inwestycje charakteryzują się niepewnością, to znaczy rozkład prawdopodobieństwa zdarzeń jest nieznany. Skutkuje to tym, że decyzje opierają się na subiektywnych szacunkach przyszłych zdarzeń, na subiektywnych prawdopodobieństwach. W grach hazardowych jak kasyno można ściśle wyznaczyć ryzyko i rozkład prawdopodobieństwa, a więc nie istnieje niepewność, a tym samym nie istnieje rozbieżność opinii. Sytuacja na rynkach jest dużo bardziej skomplikowana i może generować subiektywność oszacowań, co implikuje niepewność, a więc i rozbieżność opinii. Stąd w ogólnym rozrachunku możemy utożsamiać ryzyko inwestycji z niepewnością.

Załóżmy więc, że przychodzi informacja, że spółka za część wyemitowanego kapitału podejmuje pewną dodatkową inwestycję mającą na celu obniżenie kosztów. Jednak inwestycja ta jest dość ryzykowna. A więc całkowite ryzyko inwestycji wzrasta, ale jednocześnie wywołuje to wzrost rozbieżności opinii. Krzywa ABC zostaje zastąpiona przez FBJ. Jak widać prowadzi to do wzrostu ceny rynkowej z R do Q. Załóżmy następnie, że ta dodatkowa inwestycja udaje się, tak że koszty zostaną rzeczywiście obniżone. To doprowadzi do tego, że część wypłaty pieniędzy w okresie likwidacji staje się bardziej pewna. Ryzyko więc spada, a to prowadzi do spadku rozbieżności opinii. Krzywa FBJ zostaje zastąpiona przez DBE. To jednak prowadzi do spadku wyceny rynkowej, z Q do M. W sytuacji gdy rozbieżność opinii nie występuje - ryzyko jest obiektywne - krzywa popytu staje się linią prostą GBH, a cena spada do G.

Model ten tłumaczy zaobserwowany przez naukowców (np. przez Haugena i Hinesa, a także przez Soldofsky'ego, Millera oraz Pratta) paradoks, że często średnia stopa zwrotu jest ujemnie skorelowana z odchyleniem standardowym. Bardziej ryzykowne walory (to znaczy o wyższym współczynniku beta) przynosiły średnio mniejszy zwrot niż mniej ryzykowne. Jest to oczywiście zjawisko niezgodne z CAPM. Model Millera pokazuje, że staje się to możliwe, gdyż bardziej ryzykowny walor podnosi rozbieżność opinii, a dopóki mniej liczna grupa inwestorów, która optymistycznie ocenia nową inwestycję, w pełni pokryje podaż, wycena rynkowa będzie mogła być odpowiednio wyższa.

No dobrze, ale czy wyższa oczekiwana stopa zwrotu nie podnosi właśnie ceny? Wyższa oczekiwana stopa zwrotu podnosi oczekiwaną cenę E(P(1)) lub obniża P(0). W modelu, który omawiamy występuje zarówno P(0) jak i E(P(1)), jednak wartość E(P(1)) jako wartość oczekiwana pojawia się już w okresie 0. Badanie stóp zwrotu natomiast analizuje dane ex-post, czyli po fakcie - wartość, która się pojawiła się w okresie 0 zaliczona zostaje jako P(0), a wartość w okresie 1 jako P(1). Wartość P(1) jest wartością ex-post dla E(P(1)) - czyli jest to faktyczna wartość, która się pojawiła w okresie 1. Mówiąc krótko - wartość oczekiwana pojawia się szybciej i dlatego staje się wartością bieżącą. A ponieważ wartość bieżąca rośnie, to średnia stopa zwrotu (albo inaczej oczekiwana ex-post stopa zwrotu) spada. Dlatego też - według Millera - badania wykazały ujemną korelację pomiędzy ryzykiem a średnią stopą zwrotu.

Możemy w końcu przejść do sprawy tworzenia się trendu. Jeśli informacje sygnalizujące zwiększenie niepewności będą się często powtarzać, to rozbieżność opinii będzie wzrastać i cena dzięki temu systematycznie wzrasta. Bardziej optymistycznie nastawieni inwestorzy lub też lepiej poinformowani będą traktować informacje jako pozytywną i dopóki wchłoną całą podaż będą "rządzić". Z drugiej strony, jeśli powtarzać się będą informacje sygnalizujące zmniejszenie niepewności, to rozbieżność opinii zacznie spadać i paradoksalnie cena też zacznie spadać. Bardziej optymistyczni i lepiej poinformowani inwestorzy nie będą się zbytnio różnić w ocenach od średniej populacji inwestorów; cena zbliży się do średniej.

Możemy sobie również wyobrazić sytuację, gdy krzywa popytu staje się asymetryczna, tak że górna część staje się silniej nachylona. Mógłby to być typowy przykład z zakresu asymetrii informacji. Pewna niewielka grupa inwestorów wie znacznie więcej od reszty i zaczyna stopniowo, bez hałasu podbijać cenę. Gdy informacja publicznie się ujawnia, cena zwiększa już swoją średnią oczekiwań. Kolejne informacje i kolejne sprzężenia z rozbieżnymi opiniami mogą doprowadzić do utworzenia się trendu.

Oczywiście wszystko zależy od położenia linii podaży N. Jeśli będzie ona przesunięta mocno w prawo w stosunku do krzywej popytu, to popatrzmy co się dzieje - cała analiza się odwraca. Duża liczba inwestorów będzie gorzej od średniej oceniać wartość akcji i każda dodatkowa informacja sygnalizująca wzrost niepewności obniży cenę. Odwrotnie stanie w przypadku informacji zmniejszającej ryzyko. Miller skłania się jednak ku tezie, że liczba inwestorów trzymających wszystkie akcje jest mała w stosunku do całego uniwersum inwestorów, a więc że spełnione są założenia, że to optymiści wyznaczają cenę rynkową. Jednak możemy sobie wyobrazić sytuację, że akcje są tak źle odbierane przez dużą część rynku, że krzywa popytu jest niemal pionowa, a oprócz tego może przecież mieć inny kształt, na przykład im niższa cena, tym mniejsze nachylenie, a nie większe.

Zwróćmy uwagę na fakt, że choć model jest bardzo prosty, bo np. zakłada, że każdy inwestor trzyma jedną akcję, to oczywiście sytuację tę można odpowiednio uogólnić. Każdy inwestor mógłby trzymać n akcji. Wtedy jeśli oś pozioma wyznacza skumulowaną liczbę inwestorów przy danej estymacji, a liczba wszystkich akcji równa się N, to w miejsce N na naszym wykresie wstawiamy N/n. Ponieważ N = M*n, gdzie M - maksymalna liczba inwestorów mogących trzymać wszystkie akcje na rynku, to M = N/n jest liczbą którą musimy wstawić za N.

Na koniec poruszę jeszcze krytykę modelu Millera zapoczątkowaną prawdopodobnie przez Jarrowa (1980). Jarrow zwraca uwagę, że model Millera zakłada heterogeniczność oszacowań oczekiwanej stopy zwrotu oraz homogeniczność oszacowań ryzyka pośród inwestorów. Jeśli inwestorzy oceniają ryzyko na tym samym poziomie, to model Millera może być prawidłowy, a więc rzeczywiście cena będzie rosła wraz ze wzrostem rozbieżności opinii. Jednak rezultat może się zmienić, jeśli ryzyko będzie także niejednorodnie szacowane. Przypomnijmy sobie model Lintnera z poprzedniego artykułu, który opisuje różne sytuacje rozbieżności opinii: zarówno dla oczekiwanej stopy zwrotu, jak i ryzyka. Wprawdzie Lintner nie rozważa w swoim modelu relacji pomiędzy rozbieżnością opinii a ryzykiem/niepewnością, która stanowi klucz do teorii Millera, jednak należy brać pod uwagę wszelkie możliwe przypadki rozbieżnych opinii. Optymiści przewidują wyższe zyski firmy (wyższe dywidendy) bez wzrostu ryzyka. Pesymiści przewidują gorsze wyniki (dywidendy) bez spadku ryzyka. Popatrzmy na wzór:



Jeśli ryzyko się nie zmienia, to jedynie oczekiwana cena E(P1) będzie się zmieniać w zależności od opinii o przyszłych zyskach. Oznacza to, że oczekiwana stopa zwrotu będzie się zmieniać pod wpływem opinii inwestorów o przyszłych zyskach, pomimo że ryzyko (lub opinia o nim) będzie niezmienne. W rzeczywistości jednak ryzyko i awersja do ryzyka może się dodatkowo zmieniać. Widać, że bieżąca cena P(0) będzie tym wyższa, im niższe będzie ryzyko (v) oraz niższa awersja do ryzyka (a).

Jeśli część (av) wzrośnie, wtedy P(0) może spaść. Wtedy oczekiwana stopa zwrotu może wzrosnąć, gdy wzrośnie ryzyko, a nie spaść, jak przewiduje model Millera. Model CAPM zostanie uratowany.


Literatura:

1. E. Miller - Risk, Uncertainty, and Divergence of Opinion, 1977,
2. R. Jarrow - Heterogeneous Expectations, Restrictions on Short Sales, and Equilibrium Asset Prices, 1980,
3. J. Lintner, "The Aggregation of Investor's Diverse Judgments and Preferences in Purely Competetive Security Markets", 1969.

piątek, 8 czerwca 2012

Rozbieżność opinii w kontekście CAPM

Niedawno w poście Teoria portfela nie implikuje efektywnego rynku poruszyłem kwestię rozbieżności opinii na temat wartości akcji wśród inwestorów. Stwierdziłem, że zróżnicowanie oczekiwań sprawia, iż na wartość akcji można spojrzeć jak na przedział liczbowy. Pisałem także, że rozbieżność opinii stanowi jeden z możliwych warunków ukształtowania się trendu cen akcji. W tym artykule obalę mit, że sama rozbieżność opinii wywołuje trend. W tym celu posłużę się publikacją J. Lintnera "The Aggregation of Investor's Diverse Judgments and Preferences in Purely Competetive Security Markets" z 1969 r. podejmującą zagadnienie rozbieżności (niejednorodności) opinii pomiędzy inwestorami. Jest dużo więcej artykułów rozbudowujących tę tematykę, np.
- E. Miller - Risk, Uncertainty, and Divergence of Opinion, 1977
- R. Jarrow - Heterogeneous Expectations, Restrictions on Short Sales, and Equilibrium Asset Prices, 1980,
- C. Chiarella, R. Dieci, X-Z He - Aggregation of heterogeneous beliefs and Asset Pricing Theory: A mean-variance Analysis, 2007

Należy jednak zająć się podstawami.

Lintner w swoim artykule dowodzi, że niejednorodność opinii wśród inwestorów nadal pozwala zachować na rynku optimum Pareta (tzn. sytuację, gdy żadna strona nie jest w stanie poprawić swojej sytuacji bez pogorszenia drugiej strony, a więc rynek pozostaje efektywny), tak że teoria portfela wraz z CAPM może zostać odpowiednio uogólniona. Pomysł polega na zagregowaniu zróżnicowanych opinii inwestorów na temat przyszłej wartości akcji lub ryzyka (wariancji/kowariancji) w pewną uśrednioną opinię, będącą wynikiem sił popytu i podaży. Należy tu zwrócić uwagę, że Lintner zakłada, że obecna cena akcji jest prawidłowa, czyli rynek zachowuje efektywność - inwestorzy zgadzają się, że ich opinie zostaną odpowiednio uśrednione. Powstaje pytanie czy w takiej sytuacji nadal można rozważać wartość akcji przez pryzmat przedziału liczbowego. Można, tyle że musimy tu rozróżnić dwa kryteria: subiektywne i obiektywne. Każdy inwestor wycenia w ramach swoich możliwości jak najbardziej obiektywnie akcje. Zawsze jednak jego wycena będzie zawierać pewną dozę subiektywizmu. I to jest kryterium subiektywne. Rynek uśrednia wyceny wszystkich inwestorów w rynkową wycenę akcji. To jest kryterium obiektywne. Z punktu widzenia kryterium subiektywnego wartość akcji stanowi pewien przedział liczbowy. Z punktu widzenia kryterium obiektywnego wartość akcji stanowi konkretną liczbę, a subiektywna wycena jakiegoś inwestora jest po prostu losowym zakłóceniem prawidłowej wyceny.

Rozważając subiektywne wyceny, możemy stwierdzić, że inwestorzy posiadający identyczne preferencje ryzyka, będą trzymali akcje w portfelu w różnych proporcjach. Każdy z nich będzie stosował teorię portfela, ale może uzyskać inny skład portfela. Czyli mapa ryzyko-oczekiwana stopa zwrotu w teorii portfela będzie się przesuwać i zmieniać kształt w zależności od inwestora. Będzie również istnieć "rynkowa" mapa ryzyka i oczekiwanej stopy zwrotu, uśredniająca subiektywne mapy.

Należy zwrócić również uwagę, że decyzje inwestorów o skrajnie subiektywnych wycenach nie są błędne. Jeśli nazywać je już tak, to najwyżej można byłoby powiedzieć, że są to "wymuszone błędy".

Zakładamy dwa okresy: 0 i 1. Jest N walorów indeksowanych literką i oraz j. Jest także M inwestorów indeksowanych literką k. Lintner najpierw wyprowadza następujący wzór na oczekiwaną cenę akcji i-tego waloru k-tego inwestora w okresie 1:



Jeśli chodzi o v(i,k) to jest to jakby krańcowa wariancja portfela do i-tego waloru dla k-tego inwestora. Nie musimy tutaj się wgłębiać w znaczenie tej miary - najważniejsze, żeby zobaczyć, że jest proporcjonalna do kowariancji dla walorów i,j dla k-tego inwestora.

Można łatwo pokazać, że uśredniona (dla wszystkich inwestorów) oczekiwana cena akcji w okresie 1 jest równa:



Jeśli podzielimy obie strony przez P(0) i odejmiemy 1 z obu stron, to dostaniemy wzór na uśrednioną dla wszystkich M inwestorów oczekiwaną stopę wzrostu ceny i-tego waloru:



Załóżmy dla uproszczenia, że spółki nie wypłacają dywidend w okresie 1. Wówczas g(i) jest to oczekiwana stopa zwrotu i-tego waloru, co oznacza, że możemy to równanie potraktować jak uogólniony CAPM-SML dla rozbieżnych opinii. Model ten zapisywaliśmy w postaci:



W takim razie (uśredniona) i-ta cena ryzyka jest zależna od (uśrednionej) awersji do ryzyka oraz kowariancji cen i,j:



Wnioski są interesujące. Powyższy wzór jest na tyle ogólny, iż możemy stwierdzić, że nawet jeśli wszyscy inwestorzy mają takie same oczekiwania i opinie co do i-tej oczekiwanej stopy zwrotu, to i-ta cena ryzyka będzie zależeć nie tylko od kowariancji, ale także od awersji do ryzyka. A przecież awersja do ryzyka należy do dziedziny preferencji danego inwestora.

Załóżmy najpierw, że wszyscy mają identyczne oszacowania przyszłej ceny akcji (czyli także oczekiwanej stopy zwrotu) oraz ryzyka (wariancji/kowariancji cen, ale także stopy zwrotu). W takiej sytuacji, jeśli ktoś będzie miał wyższą awersję do ryzyka, to po prostu oczekiwana stopa zwrotu będzie musiała być mniejsza (inwestor chce mniej ryzykować). Ale ponieważ przyszła oczekiwana cena zależy dodatnio od awersji do ryzyka, to wariancja portfela będzie musiała odpowiednio mocniej spaść. Dostajemy więc klasyczny model - jeśli inwestor chce więcej (mniej) ryzykować, to posiada większe (mniejsze) ryzyko inwestycji, a wtedy oczekiwana stopa zwrotu rośnie (maleje).

Następnie uogólnimy ten przypadek. Załóżmy jeszcze raz, że wszyscy zgadzają się co do przyszłej ceny i-tej akcji. O ile aktualna cena akcji jest znana, to znów trzeba się zastanowić nad pozostałymi wyrazami: awersją do ryzyka i wariancją. Aby oczekiwana cena pozostała stała, to inwestorzy NIE MUSZĄ zgadzać się co do oszacowania wariancji, czyli ryzyka. Jeśli inwestor 1 uważa, że ryzyko jest wyższe niż inwestor 2, to aby ich oczekiwana cena pozostała identyczna, muszą się różnić awersją do ryzyka. Awersja do ryzyka inwestora 1 musi wtedy odpowiednio (stosunkowo) spaść.

Może się zdarzyć także sytuacja odwrotna. Inwestorzy mogą zgadzać się co do ryzyka, ale już nie oczekiwanej przyszłej ceny. Wówczas jeśli inwestor 1 ma wyższe oczekiwania ceny niż inwestor 2, to aby oszacowania ryzyka pozostały identyczne, awersja do ryzyka inwestora 1 musi stosunkowo wzrosnąć.

Inwestorzy mogą w końcu różnić się w ocenach zarówno przyszłej ceny, jak i ryzyka. W takiej sytuacji awersja do ryzyka przestaje mieć znaczenie "stabilizatora", bo każdy może mieć dowolne równanie oczekiwanej ceny. Stąd także każdy będzie posiadał swoje własne oszacowania SML. Oczywiście będzie podążał za racjonalnymi oczekiwaniami, lecz subiektywizmu w praktyce nie uda mu się ominąć. Oszacowania przyszłej oczekiwanej stopy zwrotu na podstawie średnich w przeszłości to duże uproszczenie zakładające, że przyszłość będzie taka jak przeszłość. Jednakże często to założenie nie jest uprawnione. Wykorzystywanie nowych, aktualnych informacji w sporządzaniu SML i wyceny dyskontowej rodzi duże pole do rozbieżności opinii. Dopiero rynek uśrednia wszystkie te opinie losując "obiektywną" wartość rynkową. Trochę to śmiesznie brzmi: rynek losuje wartość, którą należy uznać za obiektywną. Ale trzeba też pamiętać, że nie uwzględniamy tutaj różnych nieefektywności rynku, jak np. asymetria informacji czy też ataki spekulantów mające na celu wywołanie paniki lub euforii. Tak więc na razie kwestię formowania się trendów pozostawiam na boku. Dowodzę tylko, że sama rozbieżność opinii nie może stanowić przesłanki do tego, że kurs ma tendencję do poruszania się w danym kierunku.

Literatura:

J. Lintner, "The Aggregation of Investor's Diverse Judgments and Preferences in Purely Competetive Security Markets", 1969.

piątek, 27 kwietnia 2012

Jak CAPM wiąże się z teorią wyceny akcji? Przykład wyceny KGHM

CAPM zarówno swoją nazwą (Capital Asset Pricing Model to po polsku model wyceny aktywów kapitałowych) jak i istotą nawiązuje do wyceny akcji, więc tytułowe pytanie wydaje się bez sensu. W rzeczywistości model ten nie wyznacza bezpośrednio wartości wewnętrznej akcji, lecz właściwą oczekiwaną stopę zwrotu dowolnego aktywa kapitałowego (aktywom o określonym ryzyku rynkowym musi towarzyszyć odpowiednia oczekiwana stopa zwrotu). Zbyt wysoka oczekiwana stopa zwrotu w stosunku do ryzyka sprawi, że cena akcji szybko pójdzie w górę. Akcje znajdują się bowiem powyżej SML, a skoro cena wzrośnie, to oczekiwany zysk spadnie, a więc akcje powrócą na SML. Z kolei zbyt niska oczekiwana stopa zwrotu spowoduje, że cena szybko spadnie. Wtedy akcje znajdują się poniżej SML, a skoro cena spadnie, to oczekiwany zysk wzrośnie, a więc akcje powrócą na SML.

Fakt - CAPM można w takim sensie użyć jako narzędzie do wyceny akcji. Jednak rodzą się problemy w ogólniejszych przypadkach. W sytuacji gdy spółka dopiero co została założona lub gdy akcje dopiero co wchodzą na giełdę nie ma możliwości użycia CAPM. Innym kłopotem jest sytuacja, gdy spółka jest młoda i znajduje się w fazie ekspansji, a także gdy następują jakieś bardzo istotne fundamentalnie zmiany dla spółki - wtedy liczy się przede wszystkim analiza fundamentalna. Nawet w tych przypadkach nie wolno lekceważyć CAPM, ponieważ obecnie naukowcy pracują nad coraz bardziej zaawansowanymi rozszerzeniami i uogólnieniami tegoż modelu. Niemniej wszelkie niuanse i subtelności w zmianach wyceny mogą jedynie zostać odkryte w toku analizy fundamentalnej.

W sytuacji, gdy spółka wypłaca dywidendy i oczekuje się, że będą one rosły w średnim tempie g, wtedy możemy zastosować model wyceny Gordona:



gdzie:

P(0) - obecna wartość wewnętrzna akcji
D(1) - oczekiwana dywidenda w okresie 1
r - wymagana stopa zwrotu przez akcjonariusza (koszt kapitału własnego)
g - oczekiwana stopa wzrostu dywidendy

Krytycy tego prostego modelu przekonują, że jest on nieprzydatny, ponieważ istnieje zbyt duża niepewność co do przyszłości nawet stabilnej firmy; zmienność i cykliczność otoczenia gospodarczego nie pozwala wyznaczyć precyzyjnie wartości, natomiast inwestorzy różnią się znacznie oczekiwaniami na temat przyszłych zysków. Ponadto nawet niewielkie różnice pomiędzy tempem wzrostu zysku/dywidendy a kosztem kapitału własnego powodują silne zmiany w wycenie. Koszt kapitału własnego jest pojęciem abstrakcyjnym, umownym, ponieważ jego oszacowanie jest często intuicyjne. Powyższej krytyce można przeciwstawić 5 kontrargumentów.

Po pierwsze budowa modelu wyceny nie polega na znajomości przyszłości, lecz na posiadaniu racjonalnych oczekiwań. Racjonalne oczekiwania są często błędnie rozumiane przez inwestorów. Na przykład uważają, że wartość wewnętrzna powinna odzwierciedlać oczekiwania (prognozy) zarządu spółki lub też ich własne optymistyczne oczekiwania. W rzeczywistości rynek ocenia wartość obiektywnie, a więc uśrednia pesymistyczne i optymistyczne założenia. Oczywiście optymistyczne założenia będą mieć większą wagę, jeśli spółka dobrze sobie radziła w przeszłości.

Po drugie w psychologii, a także w ekonomii behawioralnej dobrze znane jest zjawisko regresji do średniej. Z tego punktu widzenia optymistyczne założenia, że firma będzie się rozwijać szybciej niż rynek, nie mogą być odpowiednie w długim okresie czasu, ponieważ należy założyć zbieżność do tempa rynku. Mogą przy tym istnieć pewne wyjątki, jeśli np. spółka ma już dziś przewagę monopolistyczną i jest w stanie ją utrzymać. Podobnie w drugą stronę - jeśli firma w najbliższym czasie będzie się wolniej rozwijać od rynku, to w dalszych okresach powinniśmy uwzględnić powrót do średniej. Mogą istnieć wyjątki także w tej sytuacji, np. jeśli zarząd ewidentnie niszczy wartość firmy lub jest strukturalnie nieefektywny.

Obok zjawiska regresji do średniej, można także zasygnalizować "działanie" prawa wielkich liczb. Zgodnie z tym prawem średnia z próby dąży wraz ze wzrostem liczebności próby do średniej z populacji. Prawo regresji do średniej nie jest prawem wielkich liczb. To pierwsze prawo jest prawem "natury", z kolei drugie - prawem matematyki.

Po trzecie bardzo ważny jest wyraz D(1) w modelu Gordona. To dzięki niemu możemy kalibrować zmianą wyceny. Wydaje się rozsądne założenie, że o ile dywidendy w okresach dalszych mogą rosnąć w średnim tempie g, o tyle dywidenda w okresie 1 może być dość dokładnie oszacowana, ponieważ zysk w okresie 1 można prognozować w oparciu o przeszłe i bieżące informacje.

Po czwarte racjonalny inwestor musi "chronić się" przed zbyt dużą niepewnością przyszłego wzrostu zysku firmy tak samo jak chroni się przed skutkami inflacji. Jeśli inflacja wzrasta, to będzie on wymagał większego zwrotu skorygowanego o stopę inflacji. Podobnie dzieje się, gdy firma potrafi zwiększyć tempo wzrostu zysku wykorzystując zwiększoną rentowność kapitału własnego. Inwestor w takiej sytuacji także musi zwiększyć wymaganą stopę zwrotu, ponieważ rodzi się niepewność, że ROE powróci do średniej po jakimś czasie. Z drugiej jednak strony nie wie jak oszacować takie ryzyko, bo nie ma na czym się oprzeć. Dlatego koszt kapitału własnego rośnie, ale nie aż tak mocno jak tempo wzrostu zysku (ani więc samo ROE). Kwestia ile dokładnie wzrośnie jest rzeczywiście złożona, ale tematem tym należałoby się zająć oddzielnie. Tak czy inaczej inwestor nie pozwoli, aby różnica pomiędzy r a g stała się nagle zbyt mała.

Po piąte siła wymienionych argumentów pozwala także wykorzystać prosty CAPM, który precyzyjnie wyznacza oczekiwaną stopę zwrotu. Ponieważ oczekiwana stopa zwrotu = wymagana stopa zwrotu akcjonariusza = koszt kapitału akcjonariusza, to teza o tym, że koszt kapitału własnego stanowi zbyt niejasną koncepcję traci rację bytu - nawet jeśli spółka nie była dotąd notowana na giełdzie, to do obliczenia wymaganej stopy zwrotu możemy wykorzystać dane statystyczne dotyczące spółki podobnej, ale notowanej na giełdzie zgodnie z twierdzeniem, że w długim okresie oczekiwana stopa zwrotu zbiega do średniej (w tym przypadku dla danej branży). Większy problem powstaje dla spółki o zupełnie nowym profilu czy zupełnie nowej branży nieobecnej na rynku. W tym przypadku ryzyko jest na tyle duże, że należy po prostu potraktować wartość księgową kapitału własnego jako wartość wewnętrzną, co spowoduje, że wymagana stopa zwrotu będzie bliska ROE. Większy problem powstaje w sytuacji, gdy spółka już istnieje jakiś czas na rynku, nie jest notowana na giełdzie i jednocześnie stosunek zadłużenia do kapitału własnego znacznie się różni od średniej ze spółek w branży. Wielkość zadłużenia wpływa bowiem na koszt kapitału własnego. Niektórzy próbują rozwiązać to zagdnienie wykorzystując tzw. równanie Hamady. Niestety podejście to zazwyczaj błąd, gdyż aby stosować r. Hamady trzeba rozumieć skąd ono wynika. Najlepsze rozwiązanie tego problemu polega na tym, aby
(a) obliczyć koszt kapitału dla branży lub spółki podobnej za pomocą CAPM ,
(b) obliczyć stosunek [ROE(dla danej spółki) / ROE(dla branży lub spółki podobnej) ]
(c) przemnożyć (a) przez (b).


Tak więc CAPM można włączyć do modelu wyceny dla każdej akcji. Przypomnijmy wzór CAPM-SML:



μ(i) - oczekiwana stopa zwrotu waloru i
Rf - stopa wolna od ryzyka rynkowego
beta(i) - ryzyko rynkowe waloru i
μ(M) - oczekiwana stopa zwrotu z portfela rynkowego (M)


Do wyceny wykorzystujemy prosty CAPM, ponieważ interesuje nas tylko uśredniona oczekiwana przyszłość wzrostu akcji. Koszt kapitału własnego w dużej części musi odzwierciedlać wynagrodzenie za ryzyko fundamentalne, a je możemy jedynie ocenić z perspektywy teraźniejszości (bieżących oczekiwań).

Przykład dla KGHM.

Akcje KGHM cieszą się dużą popularnością, ale jednocześnie są trudne do wyceny. Różnice w wycenach tej spółki różnych instytucji są olbrzymie. Fakt - ogromna zmienność cen miedzi powoduje, że wartość KGHM może bardzo szybko spaść i bardzo szybko wzrosnąć. Jednak paradoksalnie jest to właśnie dość pozytywny aspekt wyceny, ponieważ racjonalne oczekiwania będą polegały na uśrednianiu możliwych wydarzeń, a większe ryzyko będzie uwidocznione w większej oczekiwanej stopie zwrotu.

Wyznaczmy roczną wymaganą stopę zwrotu KGHM za pomocą CAPM. Dane obejmują okres od końca 1997 do końca 2011. Pobieramy dane ze stooq.pl. Wymagana stopa zwrotu obejmuje nie tylko wzrost kapitałowy ale także z dywidend. Stooq.pl zawiera opcję uwzględniania dywidend w kursie. Na podstawie wpisu Dlaczego indeks ważony kapitalizacją uważany jest za benchmark? wiadomo już, że indeks giełdowy stanowi przybliżenie portfela rynkowego. Przyjmiemy oczywiście za portfel rynkowy WIG. WIG jest to indeks uwzględniający także dywidendy.
Stopy zwrotu wraz ze średnimi przedstawia poniższa tabela:



Możemy graficznie porównać KGHM z WIG:



KGHM w tym okresie wzrósł wielokrotnie silniej od WIG. Roczna średnia arytmetyczna stopa zwrotu wyniosła prawie aż 49%, podczas gdy indeks 11,5%. Powstaje pytanie czy średnia stopa zwrotu KGHM nie była za duża? KGHM posiada dużą oczekiwaną stopę zwrotu, ponieważ jego wartość silnie zależy od czynników zewnętrznych: cen miedzi (które zależą od sytuacji makroekonomicznej) oraz czynników politycznych. Aby oszacować właściwą wymaganą stopę zwrotu, użyjemy wzoru SML.

Zanim jednak zastosujemy ten wzór, powinniśmy sprawdzić czy stopa zwrotu KGHM nie posiada przypadkiem rozkładu Levy'ego z nieskończoną wariancją. Ja używam programu J. P. Nolana Stable. Oczywiście obserwacji jest tu zdecydowanie za mało, by móc coś konkretnego powiedzieć. Jednak zamiast częstości rocznych, możemy użyć do sprawdzianu częstości kwartalnych. Program wylicza, że dla tych danych parametr alfa = 2, czyli KGH ma skończoną wariancję. Możemy zatem spokojnie zastosować klasyczny SML.

Pewien problem leży w wyznaczeniu stopy wolnej od ryzyka Rf. Za Rf najczęściej przyjmuje się średnią rentowność 52-tygodniowych bonów skarbowych. Jednak średnia rentowność bonów w danym okresie, których dane uzyskałem z portalu money.pl wynosi 8,59%, co jest spowodowane występowaniem bardzo dużej inflacji w początkowych latach badanego okresu.

Wydaje się, że aby prawidłowo wyznaczyć r, trzeba używać tych samych okresów co KGH zarówno dla WIG jak i Rf. Wymagana stopa zwrotu w różnych okresach może mieć bowiem inne parametry. Problem jednakże polega na tym, że przecież na podstawie danych historycznych chcemy wyliczyć oczekiwaną stopę zwrotu w teraźniejszości i przyszłości, a więc aproksymujemy przeszłość na teraźniejszość i przyszłość. Ale z tego wynika, że przyjmujemy te same parametry co w przeszłości. Nie można zgodzić się na to, aby Rf wyniosła 8,59%, ponieważ dziś rentowność bonów sk. wynosi 4,58%. W momencie gdy inflacja zaczęła silnie spadać, rentowność zaczęła się normować. I tak od 2003 r. do końca 2011 średnia rentowność bonów wynosi 5,2%. Przyjmiemy zatem za Rf = 5,2%, ponieważ taką wolną od ryzyka stopę można założyć w przyszłości.

Ostatnia kwestia to beta, do obliczenia której używamy wzoru:



Średnia stopa zwrotu WIG w danym okresie wynosi 11,48%. Na marginesie dodam, że o ile stopą wolną od ryzyka można manipulować, to już samą średnią stopą WIG nie można. Beta liczona jest bowiem w oparciu o stopy w danym w okresie, dlatego też Rm musi być dokładnie średnią arytmetyczną z tego okresu. Nie może być geometryczną średnią, ani jakąś inną którą sobie arbitralnie ustalamy. To jest zabronione, bo beta uwzględnia prawdziwą średnią arytmetyczną. Zatem jeśli np. w danym okresie Rm = 14%, to wstawiamy 14%, a nie 10% bo nam się tak wydaje lepiej.

Po obliczeniu bety, która wyszła 2,4 podstawiamy dane do wzoru na CAPM:

r = 5,2 + 2,4*(11,48-5,2) = 20,3%.

Otrzymana wymagana stopa zwrotu dla KGH wynosi 20,3%.

Porównując średnią stopę zwrotu KGH 49% z wymaganą stopą zwrotu 20,3% możemy początkowo wnioskować, że oczekiwana stopa zwrotu dla KGHM leży powyżej SML, czyli rynek jest czy był nieefektywny - KGH był za nisko wyceniony. W rzeczywistości ten wniosek może się okazać tylko pozorny. Arytmetyczna średnia będzie prawidłowa dla długich okresów obserwacji, lecz dla krótszych przypisze zbyt dużą wagę obserwacjom odstającym. Aby rozwiązać ten problem można użyć średniej geometrycznej za pomocą wzoru:

średnia geometryczna stopa zwrotu = (wartość końcowa/wartość początkowa)^[1/(n-1)] - 1.

Podstawiając dane dostaniemy (110,6/6,9229)^(1/(15-1)) - 1 = 21,9%.

Jak widać średnia geometryczna bardzo bliska jest wartości otrzymanej za pomocą CAPM. Jednakże średnia geometryczna ma jedną podstawową wadę: w ogóle nie uwzględnia wartości środkowych. Dlatego najlepszą estymację średniej uzyskuje się stosując regresję liniową wg następującego wzoru:

ln(kurs) = a + b*t + e

Współczynnik kierunkowy (b) tej funkcji staje się średnim procentowym wzrostem zmiennej objaśnianej. Podstawiając dane dla KGHM, otrzymałem b = 22,4%.

A zatem w tym przypadku średnia stopa zwrotu jest bardzo zbliżona do geometrycznej i nieco mniej do CAPM. Niemniej odchylenie jest niewielkie i widać, że CAPM prawidłowo wyliczył wymaganą stopę zwrotu. KGHM leży praktycznie na SML (rynek prawidłowo wycenia akcje).

Powstaje jednak pytanie czy statystyczna wycena (czy statyczna jak kto woli) będzie odpowiadać fundamentalnej. na razie wiemy tylko, że KGHM statystycznie jest dobrze wyceniony, co nie znaczy, że jest dobrze wyceniony na chwilę obecną - pełną dynamikę wyceny może jedynie oddać model dyskontowy uwzględniając fundamenty. Aby sprawdzić czy dzisiejsza rynkowa wycena KGHM jest prawidłowa, użyjemy wzoru Gordona, gdyż KGHM jest spółka, która konsekwentnie wypłaca dywidendy od 2005 r. Tak więc dane będą dotyczyć okresu 2005-2011.

Aby wyznaczyć wartość wewnętrzną akcji KGHM potrzebujemy wyliczyć tylko dwie zmienne: g oraz D(1), ponieważ r już obliczyliśmy. Zajmijmy się g. We wpisie Analiza tempa wzrostu zysku firmy pisałem o 3 metodach szacowania stopy wzrostu zysku: historycznej, eksperckiej i fundamentalnej (teoretycznej). Najlepiej użyć wszystkich 3 i połączyć. Tak też zrobimy. Z historycznego punktu widzenia tempo g wyznaczamy w oparciu o parametr b' tendencji rozwojowej:

ln(dywidenda) = a' + b'*t

Ocena parametru b' wynosi 21,1%, choć przy dużym odchyleniu standardowym. Wartość ta jest większa niż r, więc nie może być użyta do wyceny: w którymś miejscu popełniamy błąd. Od razu warto sprawdzić czy przypadkiem nie mamy tu do czynienia z trendem nieliniowym. Logarytmiczna dywidenda ma następujący wykres:



Danych jest zbyt mało, by rozsądzać o trendzie. Powinniśmy więc zastąpić dywidendy zyskami. Sprawdźmy jak zyski rosną od 1998 do 2010 r. (pomijamy 2011, bo dywidendy odnoszą się do zysku z poprzedniego roku). Wyznaczenie tendencji rozwojowej musi tu odbyć się bez stosowania logarytmów, gdyż zyski w niektórych latach były ujemne. W takiej sytuacji często rozwiązuje się ten problem następująco:
1. najpierw wyznacza się regresję liniową dla samej zmiennej, czyli zysku, aby uzyskać średnią zmianę zysku równą współczynnikowi kierunkowemu regresji,
2. następnie oblicza się średni zysk w danym okresie
3. Dzieli się współczynnik kierunkowy z (1) przez średni zysk z (2), aby uzyskać średnią procentową zmianę zysku.

Okazuje się, że zysk średnio rośnie w tempie 24%, czyli zdecydowanie nadal zbyt dużo.

Widać więc, że metoda historyczna w tym przypadku jest niewystarczająca. Gdybyśmy dodatkowo posiadali pewne fundamentalne informacje, być może problem udałoby się rozwikłać. Podpowiedź znajdujemy w zdarzeniach ostatnich miesięcy.

W 2011 r. akcjonariusze KGHM mieli wyjątkowego pecha. Z jednej strony wyniki spółki były rekordowe, ale stało się tak w dużej części dzięki zdarzeniom jednorazowym. Z drugiej strony pojawiły się silne sygnały recesyjne w Europie i USA, co natychmiast przełożyło się na spadki notowań miedzi, a więc także KGHM. Pod koniec roku, gdy wydawało się, że kurs akcji może wrócić do ostatnich maksimów, jak obuchem uderzyła w rynek wiadomość o wprowadzeniu przez rząd podatku od niektórych kopalin, w tym miedzi. Kurs KGHM natychmiast zareagował potężną wyprzedażą.

Te negatywne zdarzenia wpłynęły na całą strukturę wyceny akcji. Łatwo to dostrzeżemy, gdy obliczymy r z CAPM ucinając rok 2011. Wtedy okazuje się, że r = 26,2%. Płyną z tego ważne wnioski. Stopa r prawdopodobnie zmniejszyła się z ok. 26 do ok. 20%. Również g spadło. Pytanie jak bardzo? Aby uzyskać odpowiedzieć na to pytanie, musimy się dowiedzieć, jaki wpływ ma nowy podatek na wyniki spółki. W artykule na forbes.pl Podatek od kopalin zmniejszy potencjał KGHM czytamy:

Zdaniem analityka wprowadzenie podatku od kopalin da budżetowi Polski, przy obecnym poziomie cen miedzi, prawie 2,5 mld zł rocznie dodatkowych wpływów. To oznacza jednak, że KGHM będzie miał właśnie o taką kwotę mniej pieniędzy na inwestycje, dywidendę, czy inne projekty, na które chciałby wydać te pieniądze.


Połączmy ten fragment z prognozą zysku KGHM na 2012 r. W artykule money.pl Najnowsza prognoza zysku netto dla KGHM czytamy, że spółka zakłada zysk na poziomie 3,8 mld zł. Dodając do 3,8 wartość 2,5 dostajemy 6,3 mld. Zatem stosunek 3,8/6,3 = 0,6 jest to wielkość korygująca zysk o podatek od kopalin. Oznacza to, że aby oszacować g po uwzględnieniu podatku, musimy przemnożyć stare g przez 0,6. Z regresji otrzymaliśmy 21,1%. Oznacza to, że właściwe g = 0,6*21,1% = 12,66%.

Porównamy następnie ten wynik z metodą fundamentalną. Metoda ta polega na zastosowaniu dla ROE = const, wzoru g = k*ROE, gdzie k = 1-dywidenda/zysk netto. Natomiast w ogólnym przypadku g(t) = k(t)*ROE(t) + s(t), gdzie s(t) = ROE(t)/ROE(t-1)-1. Oczywiście ROE zmienia się dla każdego okresu, ale nas interesują średnie wielkości - jeśli średnie ROE istnieje dla danego okresu, to różnice w ROE w różnych latach można potraktować jak odchylenia statystyczne. Dlatego też używamy pierwszego wzoru na g. Średni stosunek dywidenda/zysk netto w l. 2005-2011 wyniósł 0,485, czyli k = 1-0,485 = 0,515. Średnie ROE w okresie 2004-2010 wyniósł 38,7% (dywidenda liczona jest od zysku z zeszłego roku, czyli od 2004 do 2010). Czyli

g = 0,515*38,7% = 19,9%.

Otrzymany wynik metodą fundamentalną jest bardzo zbliżony do uzyskanego za pomocą regresji liniowej. Aby uzyskać właściwą wartość g, skorygujemy również tę wielkość o 0,6. Stąd g za pomocą metody fundamentalnej wynosi:

g = 0,6*19,9% = 11,94%.

Aby połączyć metodę ekonometryczną z fundamentalną, obliczmy średnią wyników z obu metod:

g = (12,66+11,94)/2 = 12,3%.

Liczba akcji KGH wynosi 0,2 mld. Ponieważ zysk KGHM w 2012 r. zakładany jest na poziomie 3,8 mld zł, to zysk na akcję wynosi 3,8 zł/0,2 = 19 zł. Wcześniej podałem, że średni stosunek dywidenda/zysk wynosi 0,485. Oczekiwana dywidenda z zysku za 2012 r. wypłacona w okresie 1 (w roku 2013) równa się:

0,485*19 zł = 9,215.

Obecnie jesteśmy po 1 kwartale 2012 r. + 1 miesiąc. Zatem oczekiwana dywidenda w okresie 1 dotyczy 2013 + 1 kwartał 2013 + 1 miesiąc 2013. Oczekiwana dywidenda wypłacona za rok, czyli na początku maja 2013 r. uwzględnia dodatkowe odpowiednio proporcjonalne tempo wzrostu w tym czasie, które wynosi 12,3%/4 + 12,3%/12 = 4,1%. (Ponieważ obliczamy wzrost za 1 kwartał + 1 miesiąc). Oczekiwana dywidenda wynosi:

D(1) = 9,215*(1+4,1%) = 9,6 zł.

Podstawmy dane do wzoru Gordona:

P(0) = D(1)/(r - g) = 9,6 /(0,203-0,123) = 120.

Nie można jednak zapomnieć, że dywidenda za 2011 r. jeszcze nie została wypłacona, ale jest już pewna i powiększa wirtualnie kapitał inwestora, a więc i wartość akcji. Gdy dywidenda zostanie wypłacona, kurs zmniejszy się o jej wysokość. W tym momencie wartość wewnętrzna nadal uwzględnia więc wartość jeszcze niewypłaconej dywidendy za 2011 r. Na podstawie artykułu Dywidenda KGHM: możliwa wypłata 18 zł na akcję stwierdzamy, że jest to 18 zł. Tak więc całkowita wartość wewnętrzna akcji KGHM wynosi:

P(0) = 120 + 18 = 138 zł.

A teraz przyglądamy się kursowi akcji. Dziś kurs KGHM wynosi 137,7 zł.

Aby upamiętnić, że tyle rzeczywiście cena obecnie wynosi wklejam wykres:



Podsumowanie.

Przedstawiłem teoretyczną podstawę połączenia CAPM i wyceny akcji za pomocą modelu dyskontowego, a także uzasadniłem użycie prostego modelu Gordona. Przeprowadziłem badanie dla KGHM w dwóch kierunkach: użycia CAPM jako narzędzia estymacji oczekiwanej stopy zwrotu, którą następnie można zastosować do modelu Gordona. I tak po pierwsze prosty CAPM świetnie się sprawdził jako metoda wyznaczania oczekiwanej stopy zwrotu, ponieważ średnio tyle mniej więcej wynosi faktyczny zwrot z akcji. Po drugie model Gordona w połączeniu z CAPM również bardzo dobrze się sprawdził - widać, że rynek właśnie tej metody używa, ponieważ obecny kurs KGHM jest praktycznie równy teoretycznej wycenie. Prawdopodobnie stało się tak przez przypadek, ale zbieżność teorii do rzeczywistej ceny jest imponująca. Możemy stwierdzić, że rynek okazuje się fundamentalnie bardzo efektywny w przypadku akcji KGHM.

Źródło danych statystycznych:

stooq.pl
bankier.pl
money.pl

piątek, 30 marca 2012

Teoria portfela nie implikuje efektywnego rynku

Jak zostało powiedziane, teorię portfela (zarówno klasyczną Markowitza i CML, jak również uogólnioną czy też w wersji alternatywnej) należy stosować pod warunkiem, że spełnione są jej założenia o istnieniu oczekiwanej stopy zwrotu i (mierzalnego) ryzyka instrumentów finansowych. Jak się jednak dobrze zastanowimy, to dojdziemy do wniosku, że ta oczekiwana stopa zwrotu musi być właściwa - warunek ten oznacza, iż akcje muszą być dobrze wycenione. Dlaczego? Najlepiej zrozumieć to na przykładzie. Załóżmy, że kupujemy akcje PKO BP. Spółka ta rozwija się stabilnie w tempie wzrostu gospodarczego (ok. 7% rocznie). Ryzyko tutaj nie jest duże, więc nie powinniśmy oczekiwać dużych zwrotów. Oczekiwana stopa zwrotu powinna wynieść tyle co dla rynku polskiego, czyli ok. 11%. Gdyby więc oczekiwana stopa zwrotu PKO BP wyniosła aż 30%, to inwestorzy zaczęliby oczywiście rzucać się stadem na akcje, bo takiej okazji trudno przegapić. To spowodowałoby, że cena szybko wzrosłaby, a wówczas ostatni inwestorzy nie mogliby już osiągnąć zbyt dużych zwrotów. Pytanie brzmi: do jakiego punktu cena wzrośnie? Odpowiedź: cena wzrośnie do takiego punktu, aby oczekiwana stopa zwrotu wyniosła 11% (spadnie do takiego poziomu). Odwrotnie jeśli oczekiwana stopa zwrotu wyniesie tylko 5%. Tak mały zwrot jest nieopłacalny przy ponoszonym ryzyku, a zatem inwestorzy będą sprzedawać akcje. Cena spadnie do punktu aż oczekiwana stopa zwrotu wyniesie 11% (wzrośnie do takiego poziomu).

Widać więc, że jeśli akcje nie są prawidłowo wycenione, to nie opłaca się stosować teorii portfela: kupujemy akcje najbardziej niedowartościowane, sprzedajemy przewartościowane. Jeśli natomiast akcje są dobrze wycenione, to oczekiwana stopa zwrotu jest właściwa (czyli dobrze odzwierciedla ryzyko), zatem teoria portfela pozostaje ważna.

Warunek dobrze wycenionych akcji nie musi jednak oznaczać, że gracze są w pełni racjonalni lub że rynek jest w pełni efektywny. Może wystąpić sytuacja, gdy stopy zwrotu są skorelowane, daje się przewidzieć kierunek kursu i na tym dodatkowo zarobić, a jednocześnie akcje będą nadal dobrze wycenione. Możemy wszakże spojrzeć na wartość akcji w szerszym kontekście - nie jak na liczbę lecz przedział. Wartość akcji może się mieścić w pewnym przedziale z co najmniej dwóch powodów.

Po pierwsze inwestorzy mają często odmienne oczekiwania co do przyszłych zysków i dywidend. Jeden może uważać, że obecnie to już za drogo, drugi, że poziom cenowy jeszcze nie osiągnął optimum. Należy jednak pamiętać, że gracze mają racjonalne oczekiwania - uśredniają optymistyczne i pesymistyczne założenia, więc różnice oczekiwań nie muszą być wcale duże. Ale w jaki sposób konkretnie tworzą oczekiwania? Aby odpowiedzieć na to pytanie, musimy wrócić do postu Analiza tempa wzrostu zysku firmy. Są trzy podejścia oszacowania przyszłego tempa wzrostu: historyczne, eksperckie i fundamentalne. Metoda ekspercka jest oczywiście mocno subiektywna, choć jak wskazują np. badania O'Brien'a (1988) prognozy analityków dla kolejnych dwóch kwartałów pokonywały modele szeregów czasowych, dla kolejnych trzech kwartałów były tak samo dobre, zaś dla czterech naprzód już gorsze. W podejściu historycznym również występować może duża doza subiektywizmu, jeżeli średnie tempo wzrostu zysku spółki nie było dotąd jednorodne w czasie. W tworzeniu przyszłych oczekiwań należy wykorzystać wówczas Prawo Wielkich Liczb (zgodnie z którym średnia z próby dąży do średniej z populacji) lub znane w psychologii tzw. prawo regresji do średniej. Z tego właśnie względu w modelu wyceny akcji umieszcza się wartość rezydualną, która zakłada po pewnym czasie stały oczekiwany wzrost zysku. Okej, ale od którego okresu przyjąć ten stały wzrost zysku, skoro np. spółka zmieniła strategię lub dokonała restrukturyzacji, tak że po latach wychodzi na prostą? Oto jest pytanie. Z kolei w podejściu fundamentalnym w celu obliczenia parametrów wykorzystuje się metodę historyczną lub/i ekspercką. Dlatego subiektywnego punktu widzenia w praktyce raczej nie da się uniknąć. Dlaczego podkreśliłem "raczej"? Zawsze można porównać daną firmę do innych firm, które przechodziły kiedyś podobną drogę i na tej podstawie wyciągnąć wnioski. Problemem niestacjonarności w ekonomii zajmował się Hamilton w pracy z 1989, którą można przeczytać TUTAJ. Później powstało wiele publikacji na ten temat. S. Eickmeier TUTAJ poszukuje stacjonarnych i niestacjonarnych czynników wpływających na wzrost gospodarczy w strefie euro. Jedną z nowszych prac zajmującą się niestacjonarnością statystycznej aktywności gospodarczej w USA jest praca do przeczytania TUTAJ. Tak czy inaczej, są to tylko narzędzia ekonometryczne, natomiast oceny zawsze dokonuje badacz. Dlatego wcześniej napisałem, że inwestorzy mogą różnić się w szacunkach, ale różnice te mogą nie być wielkie. W każdym razie nie mogą być na tyle duże, aby wywołać długoterminowy trend. Do tego potrzeba czegoś więcej.

Po drugie na rynku panuje asymetria informacji. Niektórzy są lepiej poinformowani i dyskontują szybciej informacje. Ponieważ insider trading jest zakazany, inwestorzy ci odpowiednio się kryją, np. jeśli znają dobre wiadomości przed ogółem, kupują mniejszymi pakietami akcje wcześniej w odpowiednim okresie czasu, wywołując tym rosnący popyt. Inni gracze, np. stosujący analizę techniczną, wyłapują wczesny trend rosnący, co powoduje jego umocnienie. Dodatkowo dobre/złe informacje często występują seriami. Oczywiście racjonalny inwestor dyskontuje taki fakt w momencie ukazania się pierwszej pozytywnej/negatywnej informacji. Jednakże tutaj właśnie włącza się pierwszy podany wyżej powód - różnice w oczekiwaniach wpływu informacji na przyszłe wyniki spółki. Nawet jeśli po pojawieniu się jednej dobrej informacji, rynek natychmiast zdyskontuje ukazanie się prawdopodobnej serii kolejnych pozytywnych informacji, to wcale nie musi być zgody co do siły znaczenia tych następnych informacji. Jeśli np. PKO BP rośnie średnio 7% rocznie, ale w danym roku zysk netto wzrósłby o 15%, to rynek musi przeanalizować z czego to wynikło. Czy miały na to wpływ pojedyncze przypadkowe zdarzenia, czy też był to jakiś zaplanowany sukces inwestycyjny? Do tego wniosku rynek dojdzie rzecz jasna obiektywnie. Ale już wpływ samego zdarzenia jest mocno subiektywny. Mogło być tak, że akurat złożyły się jakieś szczególne okoliczności, które nie są możliwe do spostrzeżenia, a tym bardziej są niemierzalne, lecz pomogły osiągnąć taki rezultat, przy czym spółka przypisuje to własnym umiejętnościom. Jeśli jakieś szczęśliwe okoliczności do tego doprowadziły, wówczas rynek musi to odebrać jako zwykły fart - a zatem jako ten pierwszy wariant. Wtedy oczywiście rynek potraktuje to jako pojedyncze wydarzenie. Jeśli natomiast zadziałał tu jakiś czynnik strukturalny, to rynek musi to odebrać jako coś więcej - być może początek serii tak dobrych wyników. Ale jeśli nawet potraktuje jako zapoczątkowanie serii, to także może się różnić w tym, jak szybko ta seria wygaśnie i z jaką siłą.

Sprzężenia zwrotne pomiędzy różnicami oczekiwań a popytem spekulującym pozytywne/negatywne informacje na podstawie wzrostu/spadku kursu wywołanym przez insiderów może zatem skutkować pojawieniem się długiego trendu. Oznaczać to musi nieefektywność rynku lub niepełną racjonalność graczy.

No dobrze, ale wyobraźmy sobie sytuację, że kurs PKO BP rośnie przez 2 lata, a miesięczne stopy zwrotu są mocno skorelowane. Wiemy, że roczna oczekiwana stopa zwrotu z tej akcji wynosi mniej więcej 11%. Oznacza to, że miesięczna wynosi 0,9%. Jednakże akcje w ciągu tych dwóch lat rosną średnio miesięcznie 5%, czyli 80% rocznie. Oczywiście wiemy, że w długim okresie czasu średnia stopa wróci do wartości oczekiwanej, jednak co zrobić z takim przypadkiem średniookresowym? Potraktować jako przypadkowe odchylenie od normy czy też jako źle wycenioną akcję? Nie, ani to, ani to. Akcje mogą być ciągle dobrze wycenione, jeśli ta oczekiwana stopa zwrotu będzie właściwa przy odpowiednim ryzyku. Można pomyśleć, że ryzyko jest niewspółmiernie niskie w stosunku do stopy zwrotu. Jednak... problem polega właśnie na tym, że ów stosunek może się zmieniać w czasie. Przecież ta zmienność także jest niepewnością! Wchodzimy tutaj znowu w zagadnienia niestacjonarności. Zagadnienie to również nie jest nowe z punktu widzenia teorii portfela. Już Markowitz dostrzegał problem w postaci niejednorodności w czasie parametrów rozkładu stopy zwrotu. Na początku proponowano użyć wielookresowego modelu portfela Markowitza, jednakże taki model jest trudny do zaakceptowania - jest sztuczny i nie uwzględnia efektów niestacjonarności. Pionierami w uogólnieniu teorii portfela na niestacjonarność oczekiwanej stopy zwrotu i ryzyka byli C. B. Barry i R. L. Winkler - Nonstationarity and Portfolio Choice. W kolejnych latach powstało znowu wiele publikacji wnoszących jakieś nowe idee do "niestacjonarnej teorii portfela". W Nonstationary Optimization Approach for Finding Universal Portfolios Autorzy oprócz wyłożenia swojej teorii, przedstawiają też interesujące wyniki empiryczne.

W ten sposób wykazałem, że możliwość (konieczność) zastosowania teorii portfela w szerokim jej znaczeniu nie implikuje efektywności rynku, pomimo że implikuje dobrze wycenione aktywa - pod warunkiem, że potraktujemy wartość aktywa w kategoriach przedziału a nie liczby.

czwartek, 22 marca 2012

Dlaczego indeks ważony kapitalizacją uważany jest za benchmark?

Powiedzmy, że systematycznie co roku pokonujemy bez większych trudności indeks giełdowy. Pada wówczas myśl, że jesteśmy lepsi od rynku, a tym samym od innych inwestorów. Nasuwa się pytanie: dlaczego rynek utożsamiamy z indeksem giełdowym? Dlaczego standardowo porównujemy stopę zwrotu z inwestycji ze stopą zwrotu z indeksu giełdowego, który jest (najczęściej) ważony kapitalizacją (jak np. WIG lub S&P 500)? Dlaczego za benchmark nie uznajemy np. indeksu o równych wagach poszczególnych spółek? Albo jakichś innych? Odpowiedź na to pytanie kryje się w teorii portfela.

Załóżmy najpierw, że spełnione są założenia teorii portfela, o których można przeczytać w skrócie we wpisie Teoria portfela. Model Markowitza - Wprowadzenie W rzeczywistości warunki te nie muszą być w pełni spełnione, ponieważ klasyczną teorię portfela Markowitza można uogólnić, np. na niegaussowskie rozkłady, o czym można poczytać we wpisie Klasyka żyje i ma się dobrze (dlatego teoria portfela jest szerszym pojęciem od teorii Markowitza). Niemniej muszą istnieć warunki pozwalające na to, aby stopa zwrotu z instrumentu finansowego posiadała dwa parametry: ryzyko oraz oczekiwaną stopę zwrotu (wartość oczekiwaną).

Następnie załóżmy, że wszyscy inwestorzy są w pełni racjonalni. Wynikają z tego dwa wnioski. Po pierwsze stosują oni teorię portfela (ponieważ jej założenia są spełnione). Pamiętamy o co w niej chodzi - istnieją walory (np. akcje), które włączamy do portfela i zadanie polega na znalezieniu portfela o minimalnym ryzyku przy wybranej oczekiwanej stopie zwrotu. Logika podpowiada, że im wyższe ryzyko, tym wyższa powinna być oczekiwana stopa zwrotu. Jednak jest to logika ekonomiczna, a nie matematyczna. Poniżej widzimy krzywą minimalnego ryzyka (na mapie ryzyko-oczekiwana stopa zwrotu, przy czym ryzyko jest tu odchyleniem standardowym, tj. pierwiastkiem z wariancji), na której leżą ich portfele - każdy inwestor wybiera portfel na tej krzywej wedle swoich preferencji (wybiera portfel o jakiejś oczekiwanej stopie zwrotu i patrzy jakie ryzyko jej towarzyszy):



Dolna część krzywej jest zakreskowana ponieważ jest to część nieefektywna, którą racjonalni inwestorzy odrzucają (bo wraz ze wzrostem ryzyka oczekiwana stopa zwrotu portfela spada). Górna część krzywej nazywana jest granicą portfeli efektywnych.

Po drugie inwestorzy wykorzystują w pełni wszystkie istotne informacje rynkowe, w tym możliwość pełnej dywersyfikacji portfela. Przypomnijmy definicję dywersyfikacji ryzyka:

Dywersyfikacja ryzyka jest to inaczej rozproszenie (zmniejszenie) ryzyka portfela na skutek włączenia doń dużej liczby różnych walorów bez obniżenia oczekiwanej stopy zwrotu portfela.

Częstym błędem inwestorów jest twierdzenie, że dywersyfikując portfel zmniejszamy ryzyko, ale przy tym także oczekiwaną stopę zwrotu. A właśnie istota dywersyfikacji polega na nie zmniejszaniu oczekiwanej stopy zwrotu. Jest to możliwe dzięki "oczyszczeniu" walorów z wzajemnych korelacji (wtedy kombinacje liniowe walorów stają się niezależnymi stopniami swobody). Istotę dywersyfikacji przedstawia poniższy rysunek znany już z wpisu Teoria portfela Markowitza. Portfel złożony z K walorów:



Widzimy 3 krzywe minimalnego ryzyka. Krzywa N1A jest granicą efektywnych portfeli trzyskładnikowych (ABC), przy czym N1(1,05; 5,9) jest portfelem o globalnie minimalnej wariancji. Krzywa N2B jest granicą efektywną portfeli dwuskładnikowych (BC), przy czym N2(2,47; 4,41) jest portfelem o minimalnej wariancji. Z kolei krzywa N3A jest granicą efektywną portfeli dwuskładnikowych tworzonych z (AB), zaś N3(3,12; 8,78) jest portfelem o minimalnej wariancji. Zatem figura CN1AN3BN2 jest zbiorem portfeli dominujących nad wszystkimi innymi portfelami dwuskładnikowymi.

Stąd granica efektywnych portfeli 3-składnikowych jest bardziej opłacalna od 2-składnikowych.

Im więcej walorów uwzględni się w portfelu, tym ryzyko zostanie bardziej zdywersyfikowane. Wykorzystując możliwie najwięcej walorów na rynku można stworzyć krzywą minimalnego ryzyka, która znajdzie się możliwie najbliżej osi pionowej. Wszyscy inwestorzy mają więc taką samą krzywą minimalnego ryzyka i ich portfele giełdowe znajdują się gdzieś na tej krzywej.

Jednakże rynek kapitałowy to nie tylko akcje, ale także obligacje. Wprawdzie ryzykowne obligacje mogą zostać potraktowane jak akcje, jednakże obligacje rządowe zazwyczaj uznawane są za walory wolne od ryzyka. (Modna obecnie Grecja to nadal skrajność). Mogą także występować wysoko oprocentowane lokaty. Dzięki włączeniu waloru wolnego od ryzyka maksymalnie zdywersyfikujemy portfel. Włączmy zatem walor wolny od ryzyka (F) do portfela. Inwestor dzieli kapitał na dwie części: ryzykowną oraz bez ryzyka. Oczekiwana stopa zwrotu portfela jest więc pewną kombinacją liniową oczekiwanej stopy zwrotu z giełdy i stopy zwrotu z waloru wolnego od ryzyka. Jeżeli sztucznie założymy, że inwestor może także pożyczać od kogoś aktywa po stopie procentowej wolnej od ryzyka, to wizualnie kombinacja ta daje linię prostą (jeśli zaś realnie założymy, że stopa procentowa pożyczki będzie wyższa, to od pewnego punktu linia zmniejszy nachylenie ze względu na dodatkowe koszty - kwestia ta jednak jest głównie techniczna i jej nie omawiam, gdyż niepotrzebnie komplikowałaby ideę zagadnienia). Ale uwaga. Na początku inwestor wybierał dowolny ryzykowny portfel na krzywej minimalnego ryzyka zgodnie ze swoimi preferencjami. Wynikałoby z tego, że po połączeniu z walorem wolnym od ryzyka, może powstać wiele klas kombinacji liniowych. Jednakże szybko spostrzegamy, że istnieje tylko jedna efektywna klasa kombinacji liniowych, tak że tylko jeden portfel (M) leżący na krzywej minimalnego ryzyka może zostać wybrany do tej kombinacji:



Najlepszą linią jest ta która przynosi najwyższą możliwą oczekiwaną stopę zwrotu przy danym ryzyku. Zatem ta linia reprezentuje najlepszą klasę linii, zaś te zakreskowane należy odrzucić, bo są nieefektywne. Dlatego właśnie portfel KAŻDEGO inwestora składa się częściowo z aktywa wolnego od ryzyka F oraz częściowo z portfela M. Portfel M nazywamy portfelem rynkowym, bo zawiera wszystkie ryzykowne walory na rynku kapitałowym.

Powstała linia nazywana jest linią rynku kapitałowego (Capital Market Line - CML).
Łatwo zauważyć, że CML staje się nową granicą portfeli efektywnych, którą inwestorzy będą teraz stosować:



Inwestor wybiera jakiś portfel leżący na CML według swoich preferencji. Tworzy w ten sposób portfel o oczekiwanej stopie zwrotu μ(P), która składa się w proporcji x z oczekiwanej stopy zwrotu portfela rynkowego μ(M) oraz w proporcji 1-x ze stopy wolnej od ryzyka Rf:



(Dla zainteresowanych pełne omówienie CML tutaj).

Wniosek? Z punktu widzenia samego rynku giełdowego WSZYSCY inwestorzy posiadają ten sam skład portfela M! (Różnić się będą jedynie wagami portfela ryzykownego i nieryzykownego). Powstaje pytanie czy można szybko znaleźć skład tego jednego jedynego portfela M? Skoro każdy posiada M, to znaczy, że wszystkich inwestorów giełdowych możemy potratować jak jednego inwestora. Waga waloru A należącego do portfela M jest zdefiniowana jako:



Wszystkie pieniądze na giełdzie (F) to po prostu kapitalizacja giełdowa. Natomiast pieniądze przeznaczone tylko na walor A (F_A), czyli cena waloru A razy ich liczba to właśnie kapitalizacja waloru A. Czyli:



To samo oczywiście dzieje się z kolejnymi walorami B,C itd. Wagi portfela M są ustawiane w porządku od najwyższej do najniższej, ponieważ taki jest algorytm optymalizacji.

A więc dostajemy dokładnie skład indeksu ważonego kapitalizacją. Każdy inwestor będzie kupował indeks giełdowy. Jeśli więc wyłamujemy się z takiej strategii, czyli nie inwestujemy w oparciu o CML, to powinniśmy porównywać swoje wyniki z indeksem giełdowym.

Czy rzeczywiście jednak indeks giełdowy jest prawdziwym benchmarkiem?

Cała powyższa logika będzie w pełni prawidłowa przy dwóch początkowych założeniach:
-że są spełnione założenia teorii portfela oraz
-że wszyscy inwestorzy są racjonalni.

Któreś z tych założeń niestety nie jest spełnione. Skąd to wiadomo? Bo jak dobrze wiemy NIE WSZYSCY inwestorzy stosują teorię portfela. To już wystarczy, by stwierdzić, że indeks giełdowy nie musi być prawdziwym benchmarkiem.

Czy spełnione są założenia teorii portfela? Byłbym ostrożny w formułowaniu kategorycznych stwierdzeń typu: nie są spełnione założenia, więc teoria portfela nie działa. Przede wszystkim należy pamiętać o różnego rodzaju uogólnieniach tej teorii (np. na rozkład Levy'ego. Taki rozkład uwzględnia leptokurtozę, która oznacza, że nietypowe zmiany są częstsze niż dla rozkładu normalnego). Intuicja podpowiada, że dla możliwości zastosowania teorii portfela rozkład stopy zwrotu powinien być symetryczny (ryzyko powinno się równomiernie rozkładać na plus jak i minus). W rzeczywistości rozkłady te są prawostronnie skośne, co oznacza, że wzrosty kursów występują częściej niż spadki. Ale i ten aspekt nie może dezaktualizować teorii portfela, ponieważ sam Markowitz stworzył również alternatywną wersję swojej teorii, w której za ryzyko nie przyjmował wariancji, ale semiwariancję. W innej wersji semiwariancję zastąpiono wartością zagrożoną (Value at Risk - VaR). Istnieją bowiem dwie koncepcje pojmowania ryzyka:
1. z jednej strony jako zagrożenie, z drugiej jako szansa (odpowiednik to zmienność)
2. tylko jako zagrożenie (możliwość, że coś może się nie udać).

Później uogólniono VaR na warunkową wartość zagrożoną (CVaR (Conditional VaR), ponieważ ta pierwsza nie spełnia warunku subaddytywności, co oznacza, że VaR policzona dla zdywersyfikowanego portfela może być większa niż suma VaR-ów policzona dla instrumentów składowych. W wyniku dywersyfikacji zamiast spadku można otrzymać wzrost ryzyka. CVar jest pozbawiona tej wady.

Dodatkowo teoria portfela została zgeneralizowana na zmienne skorelowane (autokorelacja zmienności, autokorelacja stóp zwrotu, korelacja zmienności i stóp zwrotu), pojęcia z zakresu fraktali i multifraktali oraz wielookresowe modele i niestacjonarność struktury danych. J.F Muzy, D. Sornette, J. Delour i A. Arneodo w pracy "Multifractal returns and Hierarchical Portfolio Theory" konstruują wielowymiarowy multifraktalny model budowy portfela, radząc sobie także z kurtozą. Taki model uwzględnia zmienność parametrów w czasie. Widać więc, że sama teoria portfela nie może być tak zwyczajnie odrzucona. Te najnowsze są to jednak bardzo skomplikowane modele i zwykły inwestor nie ma na razie szans ich zastosować. Być może w przyszłości powstaną oprogramowania umożliwiające samodzielne wykorzystanie takich narzędzi.

No dobrze, ale przecież jest jeszcze jeden kontrowersyjny punkt naszego rozumowania. Portfel rynkowy powinien zgodnie z teorią zawierać wszystkie walory na rynku posiadające oczekiwaną stopę zwrotu i zmienność, włączając w to ryzykowne obligacje, nieruchomości i towary, natomiast popularne indeksy zawierają tylko niektóre akcje. Niektórzy inwestorzy posiadają w portfelach egzotyczne walory, które dodatkowo dywersyfikują ryzyko, a tym samym przesuwają krzywą minimalnego ryzyka w lewo. Tak więc można byłoby sądzić, że to z góry przekreśla uznanie indeksu za benchmark.

Jednakże walory na rynku najczęściej są jakoś skorelowane dodatnio, a wtedy... przypomnę ten oto rysunek z wpisu Teoria portfela Markowitza. Portfel złożony z K walorów:



K to liczba składników portfela, natomiast ryzyko jest tutaj mierzone jako procentowy udział ryzyka portfela do oczekiwanego (przeciętnego) ryzyka portfela jednoskładnikowego. Widzimy, że ryzyko spada coraz wolniej aż do pewnej granicy, która stanowi ryzyko niedywersyfikowalne - tutaj stanowi ono średnią kowariancję stóp zwrotu wszystkich walorów (dla klasycznej teorii Markowitza). Tak więc pewnym momencie nie opłaca się już dołączać nowych walorów do portfela. Tutaj leży właśnie źródło tzw. przedywersyfikowania, tj. sytuacji, gdy koszty zwiększania składników portfela są większe niż korzyści w postaci spadku ryzyka.

Możliwe, że to właśnie z tego powodu oczekiwane stopy zwrotu z różnych indeksów giełdowych (różnych krajów) mają podobne wartości. Jeśli to prawda, to otrzymalibyśmy dość silny argument za traktowaniem indeksów jako benchmarki, choćby plus minus parę procent.


Zatem głównie fakt, iż nie wszyscy inwestorzy stosują (lub że duża większość nie stosuje) ściśle teorii portfela sprawia, że indeksu ważonego kapitalizacją (o dużej liczbie walorów) nie należy zbyt poważnie uznawać za benchmark.


Zupełnie odrębną sprawą jest możliwość uzyskania wyższej oczekiwanej stopy zwrotu od portfela rynkowego przy wyższym od niego ryzyku - w tym przypadku to jedynie szczęście powoduje pozorną wygraną z rynkiem, ponieważ ryzyko ma swoją cenę w postaci "premii za ryzyko". (Z punktu widzenia CML aby tak się stało portfel musi mieć ujemną wagę waloru wolnego od ryzyka, co oznacza zaciągnięcie przez inwestora kredytu, za który kupuje dodatkowy udział portfela rynkowego; to oczywiście niesie większe ryzyko, a więc i większy oczekiwany zysk). Główny problem polega właśnie na mierzeniu ryzyka. Nowsze modele radzą sobie z tym coraz lepiej, również dlatego, że uciekają od formalnej efektywności rynku i często zbliżają się w kierunku bardziej ogólnym. Czar inwestowania na giełdzie polega na tym, że zawsze znajdzie się miejsce na wiarę w to, że istotne pokonanie indeksu zostało spowodowane nieefektywnością rynku.

poniedziałek, 20 lutego 2012

Błędy w publikacji

Wczoraj zamieściłem wpis pod tytułem "Badanie 3 wybranych strategii analizy technicznej i ich połączenia na przykładzie S&P 500", w którym opisywałem testy zamieszczone w artykule C. Lento "A Combined Signal Approach To Technical Analysis On The S&P 500". Jeśli ktoś to czytał, na pewno zdziwił się, że do obliczenia średniej kroczącej wykorzystano logarytmiczne stopy zwrotu. Mnie też to zdziwiło - powinno używać się średniej cen z n okresów. Na początku sądziłem, że jest okej, bo może chodzi o to, żeby posłużyć się zlogarytmowanym indeksem. Przepisałem więc wzory i tabele z wynikami. Później jednak zacząłem się zastanawiać nad tymi logarytmicznymi stopami zwrotu wraz z ich sygnałami. Doszedłem do wniosku, że to bzdura. Poszukałem w internecie publikacji, w której ktoś użył tego samego wzoru na średnią kroczącą. Nie znalazłem. Wysnułem wniosek, że C. Lento pomimo dużej wiedzy ekonometrycznej nie przyłożył się; być może nie ma dużego pojęcia o analizie technicznej. Przyjrzyjmy się sygnałowi kupna i sprzedaży na MAC-O lub TRB-O. Przecież każdy zaawansowany technik wie, że trzeba użyć pewnych filtrów procentowych bądź czasowych zanim się dokona się transakcji. Tutaj brakuje takowych. Przejrzałem szybko pracę Brocka, Lakonishoka, i LeBarona "Simple Technical Trading Rules and the Stochastic Properties of Stock Returns" (1992), w której wprowadzają właśnie te metody MAC-O i TRB-O. Po pierwsze w tej publikacji Autorzy stosują metodę bez filtru oraz z filtrem 1%. Po drugie wzoru z logarytmicznymi stopami zwrotu na sygnał kupna i sprzedaży w ich pracy nie zobaczyłem. Dlatego też trzeba stwierdzić, że praca Lento zawiera błędy, czyli nie należy jej traktować poważnie i jej cytować. Co ciekawe wikipedia angielska również posługuje się tą samą pracą Lento w haśle Technical analysis. Świadczy to o tym, że należy bardzo uważać na publikacje naukowe. Jeśli Autor nie jest wybitnym autorytetem w swojej dziedzinie (Brock i Lakonishok są), to należy podchodzić od samego początku nieufnie i krytycznie do treści.

.................................................................................

Poniżej można przeczytać wczorajszy wpis:


Powinniśmy pamiętać, że nawet jeśli analiza techniczna pozwala w niektórych przypadkach poprawnie przewidzieć kierunek kursu, to wcale nie daje to jeszcze przewagi na rynku. W poprzednim artykule dowodziłem (po raz kolejny), że indeks SP 500 podlega pamięci długoterminowej. W tym sensie rynek pozostaje nieefektywny lub co najwyżej staje się ułamkowo efektywny. Oznacza to jedynie, że występują długoterminowe trendy, tak iż ryzyko jest (w pewnych okresach) mniejsze niż dla efektywnego rynku. Metoda "kup i trzymaj" (dla rynku akcji) może się więc okazać równie dobra jak analiza techniczna. Aby analiza techniczna stanowiła zyskowną strategię, to musi pokonać metodę kup i trzymaj.

W artykule "A Combined Signal Approach To Technical Analysis On The S&P 500" C. Lento testuje 3 metody analizy technicznej dla S&P 500, w tym metodę łączonych średnich kroczących. Na końcu nawet zostaje przetestowana strategia połączona, tzn. strategia, w której łączy się te oddzielne metody w jedną całość. Nazywa ją Combined Signal Approach (CSA).

Zajmijmy się metodą średnich kroczących krzyżowanych (łączonych), A moving average cross-over (MAC-O). Autor definiuje reguły tradingu w następujący sposób. Sygnał kupna:



Sygnał sprzedaży:



gdzie:

R(i,t) - logarytmiczna stopa zwrotu w krótkim okresie S (1 lub 5 dni)
R(i,t-1) - logarytmiczna stopa zwrotu w długim okresie L (50, 150 lub 200 dni). Do testu zostały użyte kombinacje (1,50), (1,200) i (5,150).

Metoda filtra generuje sygnał kupna i sprzedaży na następującej zasadzie: kupuj gdy cena rośnie f% powyżej ostatniego dołka i sprzedaj gdy cena spada f% poniżej ostatniego szczytu. Do testu zostały użyte parametry: 1%, 2% i 5%.

Ostatnia z trzech strategii to zasięg przebicia, Trading Range Break-out (TRB-O). Odnosi się ona do poziomu wsparcia i oporu. Generuje sygnał kupna gdy cena przebija w górę opór, a sygnał sprzedaży gdy przebija w dół wsparcie. Poziom oporu został zdefiniowany jako lokalne maksimum, a poziom wsparcia jako lokalne minimum. Matematycznie zostało to zapisane:



gdzie

P(t) - cena w okresie t.

Strategia TRB-O została przebadana dla 50, 150 i 200 dni (n).

Test objął okres 1 styczeń 1950 - 19 marzec 2008 (14646 obserwacji). Opierano się tylko na cenach zamknięcia. Metodologię skonstruowano następująco. W przypadku MAC-O jeśli padał sygnał BUY, zajmowano pozycję long, a gdy następował sygnał SELL, sprzedawano instrument i kupowano instrument bez ryzyka, dla którego zakładano roczną stopę procentową 3%. Z kolei w przypadku filtra cenowego i TRB-O zajmowano pozycję long (dla BUY) i short (SELL).

Najważniejsze wyniki zostały przedstawione w poniższej tabeli:



Okazuje się, że po uwzględnieniu kosztów transakcyjnych tylko strategia oparta na średnich kroczących o parametrach 1/200 i 5/150 jest w stanie pokonać metodę "kup i trzymaj" i to nie więcej niż 0,5% rocznie. W przypadku 1/200 roczna nadwyżkowa stopa zwrotu wyniosła 0,5%, a dla 5/150 0,3%.

Skoro pojedynczo działa jedynie MAC-O, to wydaje się, że należy odrzucić TRB-O i metodę filtra. Jednak Autor sugeruje, że połączenie metod w postaci CSA może dać lepsze rezultaty. Wszystkich reguł razem jest 9. Zatem można kombinować je ze sobą. Liczba danych pozwoliła połączyć ze sobą maksymalnie 6 reguł (6/9). W ten sposób otrzymano wyniki:



De facto jedynie strategia 2/9, tj. połączenie 2 reguł przyniosło nadwyżkę 1,6% po odjęciu prowizji maklerskich. Szczerze mówiąc jednak nie wiadomo do końca o co chodziło tutaj Autorowi, bo przecież nie wiadomo które połączenia najlepiej się sprawdziły.

Podsumowując, mimo iż artykuł Lento prowadzi do konkluzji, że metoda średnich kroczących oraz pewne połączenie strategii pokonuje rynek, to uważam, że jest przeciwnie. Nadwyżka 0,5% rocznie ponad "kup i trzymaj" to przecież ciągle bardzo mało. Z kolei pomysł włączenia do strategii metod które pojedynczo się nie sprawdzają, wydaje mi się nietrafny. Nadwyżka 1,6% ponad "kup i trzymaj" (w sumie też niewiele) uzyskana z połączenia 2 nie wiadomo jakich reguł pozostaje tylko teoretyczną ciekawostką.

Literatura:

C. Lento, A Combined Signal Approach To Technical Analysis On The S&P 500, 2008 - praca jest dostępna w Internecie za darmo. Wystarczy wpisać tytuł w Google Scholar.

poniedziałek, 30 stycznia 2012

Persystencja dla logarytmicznego SP500

Gwałtowne spadki na rynkach kapitałowych, które w przeciągu ostatnich miesięcy zagroziły hossie, skłaniają do powtórnego zastanowienia się nad istnieniem "długiej pamięci" w danych. Przypomnę, że z moich badań wynika, że średnio pamięć długoterminowa dla miesięcznych stóp zwrotu trwa ok. 42 miesięcy dla rynku amerykańskiego (u Petersa wyszło 48 m-cy). Teraz pomyślmy. Hossa rozpoczęta w 2003 r. trwała niecałe 5 lat. Bessa od 2007 r. zaledwie 1,5 roku. Można powiedzieć, że taki jest typowy przebieg cyklu: hossa jest powolna, ale długa, bessa szybka, ale krótka. Jeśli hossa rozpoczęta w marcu 2009 r. miałaby się skończyć w maju 2011, to trwałaby zaledwie 2 lata i 2 miesiące.

Zainteresowało mnie to, co by się stało gdybym przebadał SP500 od stycznia 1940 (a nie jak wcześniej 1933) do końca grudnia 2011. Wykładnik Hursta H wyniósł 0,72. Okazało się, że poziom ten załamuje się dopiero dokładnie średnio po 60 miesiącach. Wynika z tego, że w okresie 1940-2011 długa pamięć miała przeciętny cykl 5 lat a nie 3,5-4 jak wcześniej. Moment od którego nachylenie poniższego wykresu ulega kontrakcji i wyrównaniu do linii regresji to moment załamania się długiej pamięci.



Należy sobie jasno powiedzieć, że nie ma żadnych wątpliwości, że taka pamięć występowała: różnica pomiędzy empirycznym H = 0,72 a teoretycznym H wyniosła prawie 3,5 razy odchylenia standardowego H.

Dowód na persystencję indeksu jest nawet silniejszy. Nie występuje bowiem żadna istotna liniowa autokorelacja dowolnego rzędu w miesięcznych stopach zwrotu dla badanego zakresu. Oznacza to, że autokorelacja liniowa nie może pozorować długiej pamięci jak to czasami bywa.

Przykład dla autokorelacji 1 rzędu miesięcznych stóp zwrotu SP500 w l. 1940-2011:


Wiadomo jednak również, że istotny wykładnik Hursta nie musi dawać sygnału o długiej pamięci jeśli wariancja stopy zwrotu nie istnieje (staje się nieskończona). Aby wygładzić poniższy trend:



dokonałem transformacji w przebieg logarytmiczny:



Wykładnik Hursta praktycznie się nie zmienił dla tej transformacji. Być może wariancja staje się szalona w bessie, ale jeśli popatrzymy na ogólny obraz zlogarytmowanego wykresu, to dostrzegamy pewną kilkuletnią "gładkość".

Na podstawie tutejszych badań trzeba stwierdzić, że średni czas trwania długiej pamięci nie jest ściśle określony. Może to być pomiędzy 3,5 a 5 lat. Dane od 1940 r. wskazują, że trendy są dłuższe. Wydaje się, że duże znaczenie ma tutaj hossa, która zbyt łatwo nie zmienia kierunku.

Ciągle należy mieć na uwadze, że nie mówimy tutaj o autokorelacji liniowej, ale nieliniowej długoterminowej. Oznacza to - mówiąc zwięźle i surowo - że jeśli w jednym miesiącu jest "plus", to w drugim, trzecim, czwartym itd. może być zarówno "plus" jak i "minus", ale "minus" z większym niż 50% prawdopodobieństwem będzie mniejszy niż ten pierwszy "plus", przy czym prawdopodobieństwo to będzie z każdym następnym miesiącem spadać aż do 50%. Pierwszy plus jest jak gdyby "efektem motyla" prowadzącym kurs do góry. W ten sposób powstaje gładkość ruchu. W ten sposób również powstają fale, w tym korekty trendu - np. kliny i trójkąty, znane z analizy technicznej.

czwartek, 26 stycznia 2012

Atak na szczyt

Dla giełd światowych nadeszła decydująca chwila. Indeks DJIA dotarł właśnie do swojego szczytu z początku maja 2011:



Z kolei SP 500 jest ciągle trochę w tyle, ale powoli goni swojego kolegę:



Z tej okazji przygotowałem bardzo ładny fragment utworu z filmu Szklana Pułapka:

Assault On The Tower

A cały utwór można posłuchać tutaj na Youtubie.

(Tylko bez podtekstów w stylu że to co się dzieje na indeksach w USA to pułapka.)

Nasze Wigi oczywiście są daleko, daleko w tyle. Ma na to wpływ kryzys Europejski (DAX i CAC 40 są także daleko od szczytu) oraz negatywne informacje o wprowadzeniu nowego podatku od kopalin ciążącego na KGHM. Ale to jest nic wielkiego wobec faktu, że jeszcze zupełnie niedawno większość inwestorów i analityków ogłosiło jednogłośnie bessę. Dziś im wszystkim głupio? A może liczą, że to jednak pułapka?

niedziela, 15 stycznia 2012

Linie trendu - refleksje

Ostatni wpis Czy analiza techniczna działa? zmieniałem i poprawiałem wielokrotnie. Na przykład wyniki dla BRE Banku zaczęły mnie zastanawiać, bo znacznie się różniły się od pozostałych dużych spółek. Dla wszystkich dużych spółek częstość zmiany kierunku po przecięciu linii trendu wynosiła ponad 55%, a najczęściej ponad 60%. W przypadku BRE dla przecięcia linii trendu rosnącego wyniosło tylko 50% i spadkowego 40%. Przetestowałem więc jeszcze raz BRE Bank i okazało się, że tym razem częstości zbliżyły się do tych, które prezentowały inne duże spółki. Różnica wynika z dwóch powodów. Przede wszystkim za drugim razem podczas testu znalazłem dwa razy więcej obserwacji. Drugą sprawą było to, że - jak mi się wydaje - nabrałem pewnego doświadczenia i "oka technicznego". W analizie technicznej potrzeba dość miękkiego oka na to co się patrzy.

Może podam przykład. Kiedy linia trendu spadkowego zostaje przebita +4%, to zgodnie z punktem 4 oczekuje się wzrostów przez co najmniej ok. tydzień. Ale nie oznacza to, że kurs musi rosnąć w ciągu tego tygodnia. Może tylko stać, nawet przez kilka tygodni i potem znowu zacząć rosnąć, ale ważne by nie spadł poniżej linii, którą niedawno przebił lub po prostu aby nie spadł poniżej ceny zakupu. Minimalna zmiana warunku może diametralnie zmienić wynik testu. A tutaj się właśnie liczą takie niuanse. Potrzebny więc jest albo specjalny program, w którym można byłoby umieścić najbardziej szczegółowe warunki, aby dokonać precyzyjnych oszacowań albo spróbować subiektywnie ocenić sytuację w danym przypadku.

Moja metoda była oczywiście subiektywna. Starałem się wypośrodkować pomiędzy tymi dwoma warunkami. Jeśli uznałem, że kurs za silnie spada pomimo uprzedniego przebicia linii trendu +4% filtru, to oceniałem sytuację jako "porażkę", nawet jeśli później kurs nagle znowu się podniósł - w końcu nie znamy przyszłości, a trader musi się bronić przed stratami.
Z drugiej strony, jeśli kurs spadał, ale za to niezbyt silnie - nawet w ciągu tygodnia od przebicia linii trendu - tak że nie wrócił do punktu kupna, a tym bardziej do linii trendu, to można było zastosować kolejny warunek: oczekiwanie na następny tydzień. Wtedy zaczynamy od nowa. Czyli jeśli w drugim tygodniu kurs rósł - to "sukces". Ale jeśli w tym drugim tygodniu znowu spadał, to znowu pytanie: mocno czy silnie. Ważne by nie spadł poniżej ceny zakupu bądź linii trendu. I potem znowu powtarzamy ów "algorytm". Jednak jeśli po paru tygodniach nie widać wzrostów, to algorytm powinien zostać zatrzymany i sytuacja oceniona jako porażka. Ten sam schemat należy wykorzystać dla przecięcia linii trendu rosnącego.

Im więcej i głębiej analizuję te wykresy, tym silniej dochodzę do wniosku, że w przecięciach wsparć i oporów, czy jak kto woli, linii trendu, tkwi pewien potencjał. Nie chodzi o to, że to są jakieś tam "narzędzia", jak to mawiają technicy. To jest obiektywna metoda przewidywania kursu. Naprawdę chciałem ją obalić, ale dla dużych spółek nie umiałem. Nie wiem czy prawdopodobieństwo jej trafności wynosi 55, 60, 65%, a maksymalnie 70%, ale krótkoterminowa bezwładność kursu wydaje się istnieć. Niemniej pamiętać trzeba, że nawet gdyby w pełni udowodnić jej skuteczność, to nadal nie daje gwarancji ponadprzeciętnej stopy zwrotu.