niedziela, 16 marca 2014

Czy stop lossy są opłacalne?

Zlecenia stop loss mają z pewnością duże znaczenie dla traderów, ale jeszcze większe dla maklerów. Jeśli posiadamy strategię, która rzeczywiście działa, to znaczy potrafimy przewidzieć pewne ruchy kursu, to stop lossy mogą pomagać w zwiększeniu zysków. Problem polega na tym, że prawie wszyscy "doradcy" nakłaniają nas do stosowania stop lossów używając tylko jednego argumentu: że stop loss chroni nasz kapitał przed nadmiernym obsunięciem albo po prostu przed zbyt dużym ryzykiem. Niestety takie twierdzenie jest jak masło maślane - fakt, iż szybko usuwam akcje z portfela powoduje, że w tym czasie mogę przerzucić się na obligacje albo lokaty, a więc po prostu wtedy mniej ryzykuję i nie tracę. Nie znaczy to jednak wcale, że moje zyski będą większe. Mogą być całościowo znacznie mniejsze, bo częste używanie stop lossów generuje koszty transakcyjne.

Pytanie brzmi jak bardzo stop lossy implikujące te koszty niszczą naszą stopę zwrotu? W artykule Stopa zwrotu po potrąceniu prowizji  pokazałem, że stopa zwrotu po potrąceniu prowizji przy kupnie i sprzedaży wynosi:

(1)

gdzie
r to stopa zwrotu bez potrącenia prowizji,
x - wielkość prowizji jako część posiadanego kapitału.

Jednakże nasz problem jest trochę bardziej ogólny. Nie interesuje nas przecież jedna transakcja kupna i sprzedaży, ale wszystkie transakcje w danym okresie. Na przykład jeżeli wiem, że dana strategia pozwala osiągnąć średnio 15% rocznie bez prowizji przy użyciu średnio 5 stop lossów, to ile faktycznie wynosi moja stopa zwrotu? Poniższe obliczenia są mojego autorstwa.

Mój pomysł polega na tym, aby wyznaczyć logarytmiczną stopę zwrotu, którą dzielimy na liczbę zrealizowanych stop lossów, ponieważ każdy stop loss oznacza uzyskanie pewnej stopy zwrotu w danym okresie. Jeżeli mamy 1 stop loss, to znaczy po prostu, że stosujemy metodę kup i trzymaj (bo na koniec pewnego okresu sprzedajemy po określonej cenie). Jeśli są 2 stop lossy, to znaczy, że handlowaliśmy dwukrotnie i posiadamy 2 stopy zwrotu. Jeśli mamy cel 5 stop lossów, to znaczy, że mamy 5 zrealizowanych transakcji kupna i sprzedaży, 5 stóp zwrotu i możemy obliczyć średnią stopę zwrotu. Tak więc dzieląc logarytmiczną stopę zwrotu przez liczbę stop lossów, uzyskamy średnią logarytmiczną stopę zwrotu z jednej transakcji sprzedaży. W kolejnym etapie przekształcimy ją w arytmetyczną stopę zwrotu i obliczymy na podstawie wzoru (1) stopę zwrotu potrąconą o koszty transakcyjne. Ostatni etap będzie polegał na ponownym przekształceniu tej stopy w logarytmiczną stopę zwrotu, pomnożeniu przez liczbę stop lossów, ponieważ musimy powrócić do stopy zwrotu dla wszystkich transakcji i na koniec przekształceniu tej stopy zwrotu w arytmetyczną stopę zwrotu, która już będzie potrącona o prowizje. Otrzymamy w ten sposób nowy, ogólny wzór na stopę zwrotu po potrąceniu kosztów transakcji.

Załóżmy, że w pewnym okresie czasu uzyskujemy całkowitą stopę zwrotu r. W tym okresie dokonujemy N transakcji sprzedaży, co możemy utożsamić z liczbą stop lossów. Całkowitą logarytmiczną stopę zwrotu definiujemy następująco:

(2)
Z tego wynika, że

(3)

Jeżeli podzielimy logarytmiczną stopę zwrotu przez N, to otrzymamy średnią logarytmiczną stopę zwrotu z jednej transakcji sprzedaży, którą oznaczymy następująco:

(4)


Ponieważ ostatnie wyrażenie jest ciągle logarytmiczną stopą zwrotu, stosujemy do niego odpowiednio (2) i (3), a więc dostajemy następujący wzór na średnią (arytmetyczną) stopę zwrotu z jednej transakcji sprzedaży:

(5)
Podstawiając (5) do (1), dostaniemy średnią stopę zwrotu z jednej transakcji sprzedaży potrąconą o prowizje (od kupna i sprzedaży):


Stopę tę przekształcamy w logarytmiczną zgodnie z (2):

a więc po skróceniu

(6)

Stopę z (6) przekształcamy w całkowitą logarytmiczną stopę zwrotu po potrąceniu prowizji. Na podstawie (4) zapiszemy, że:

(7)
Zaś na podstawie (2) i (3) mamy że:

(8)

Łącząc (7) i (6) i podstawiając to do (8), uzyskujemy:



Wyrażenie to możemy uprościć wykorzystując własności logarytmów. Dodatkowo wyrażenie w nawiasie sprowadzimy do wspólnego mianownika (1+x). W rezultacie otrzymamy:

(9)

Podstawiając wyrażenie (2) do (4), a następnie (4) do (9), dostaniemy:
 
(10)
Po dalszych przekształceniach (10), w tym wykorzystaniu ponownie własności logarytmów, finalnie otrzymujemy wzór na całkowitą stopę zwrotu po potrąceniu prowizji ze wszystkich transakcji:

 (11)

Teraz możemy podstawić dane z naszego przykładu do wzoru (11). Jeżeli nasza stopa zwrotu bez potrącania prowizji wynosi 15%, a używamy średnio 5 stop lossów, zaś prowizja przy kupnie i sprzedaży wynosi 0.39% kapitału, to znaczy, że nasza faktyczna stopa zwrotu wynosi:


Zauważmy więc, że stosując 5 stop lossów w ciągu roku, stopa zwrotu okazuje się być na poziomie średniej rynkowej.

A teraz załóżmy, że potrafimy wyciągać średnio aż 25% rocznie, ale średnio używając stop lossa co 1 miesiąc. Wtedy nasza stopa zwrotu przez prowizje spada do 13,8%.

Z kolei jeśli podstawimy za N = 1, to (11) musi sprowadzać się do wzoru (1).

Przed korzystaniem z narzędzi typu stop loss, warto przeczytać co mówią statystyki na temat zyskowności jego używania w stosunku do kup i trzymaj. Bulkowski na swojej stronie http://thepatternsite.com/CanStopsHurt.html przedstawia następujące wyniki strategii z wykorzystaniem stop lossów:



Mówiąc krótko, stop lossy według Bulkowskiego powodują więcej szkód niż pożytku. Nie wiem czy Autor uwzględniał koszty transakcyjne, ale wydaje się, że tak, bo w przeciwnym wypadku trudno byłoby zrozumieć takie straty na płynnych walorach.


Źródło:

1. http://gieldowyracjonalista.blogspot.com/2011/03/stopa-zwrotu-po-potraceniu-prowizji.html
2. http://thepatternsite.com/CanStopsHurt.html

niedziela, 23 lutego 2014

Bessa w USA nie udzieli się Polsce???

Post ten ten jest odpowiedzią na artykuł Czy bessa w USA udzieli się Polsce?, który pojawił się 10.02 na całkiem niezłym, choć trochę zbyt amatorskim blogu. Z owego artykułu dowiadujemy się, że:

  • Nadejście bessy w USA nigdy nie spowodowało nadejścia bessy w Polsce. Co więcej czasem to właśnie Polska pierwsza zaczynała spadać, a dopiero później dołączały Stany. 
  • Bessy w Polsce zawsze pojawiały się w towarzystwie słabych danych makro z kraju.
 A później czytamy:

Na pytanie o zawalenie się naszej giełdy mamy jasna odpowiedź nieco wyżej mówiącą że: Jeszcze nigdy bessa w USA nie wywołała bessy w Polsce. Ta odpowiedź sugeruje, że nie musimy martwić się, o "przeciągającą się" hossę w USA jeśli inwestujemy w Polsce.

 Dzięki uzyskanej wiedzy w artykule Czy trój-betowy CAPM wyjaśnia stopy zwrotu? wiemy już, że istnieje teoretyczny związek pomiędzy dochodami z pracy a oczekiwaną stopą zwrotu z akcji na rynku kapitałowym. Wiemy także, że istnieje empiryczna zależność pomiędzy stopami zwrotu a dochodami z pracy. Należy tu dokładnie zrozumieć, że mówimy o dochodach z pracy,a zatem nie wliczamy żadnych dochodów z inwestycji kapitałowej. Oznacza to, że dochody z pracy nie mogą być utożsamiane z PKB. PKB uwzględnia wszelkie dochody. Od PKB trzeba by odjąć wszystkie dochody pochodzące spoza pracy: dywidendy (jeśli nie są rekompensatą za wynagrodzenie) oraz wszystkie zyski kapitałowe.

Dla uproszczenia obliczeń, przyjmę jednak, że dochody z pracy jest to PKB. Ale musimy pamiętać, że nie jest to dobre przybliżenie, jeśli S&P500 stanowi dużą część PKB USA. A jaki jest obecnie stosunek SP500 do GDP? Na stronie http://www.gurufocus.com/stock-market-valuations.php
mamy odpowiedź. Najpierw spójrzmy na następujący wykres:



Teraz zobaczmy to samo, ale w stosunku procentowym obydwu indeksów:


SP500 obecnie przewyższa GDP o 15%. Tak więc S&P 500 ogólnie stanowi dużą część GDP, dlatego też korelacja pomiędzy nimi jest sama z siebie tautologiczna. Ma to też pewien związek ze strategią polegającą na kupowaniu akcji gdy ten stosunek jest mniejszy od 1 i sprzedawaniu gdy jest powyżej 1. Jeśli bowiem dziś akcje stanowią ponad 100% GDP, to znaczy, że GDP rośnie ogólnie wolniej niż SP500, co sprawia, że można uznać rynek za zbyt szybko rosnący, czyli jakby przewartościowany. Odwrotnie, jeśli SP500 do GDP < 1, to GDP rośnie ogólnie szybciej od SP500, co sprawia, że można uznać rynek za zbyt wolno rosnący, czyli jakby niedowartościowany. Tym samym otrzymujemy pewne wskazówki na rosnące niebezpieczeństwo inwestowania w akcje w USA.

Pytanie jednak jak się ma giełda USA do Polski? Możemy z dużą dozą pewności stwierdzić, że dane makro z Polski będą mieć wpływ na WIG. Ale czy amerykańskie PKB wpływa na WIG?

Pobrałem kwartalne PKB ze strony http://www.bea.gov/ aby obliczyć kwartalne stopy zmian PKB kw/kw (niezaanualizowane). Ze stooq.pl pobrałem dane S&P500 oraz WIG i policzyłem kwartalne stopy zwrotu kw/kw. Interesowały mnie lata od początku 2001 do ostatnich danych, czyli września 2013. Było to tylko 51 danych, ale wnioski można już wyciągać. Przy tak małej liczbie obserwacji poziom istotności 0,1 wystarczy.

To może po kolei. Korelacja Pearsona pomiędzy PKB USA i S&P 500 wyniosła 0,39, oczywiście istotna stat.  Jednakże z punktu widzenia regresji liniowej, zależność istnieje, p < 0,01, ale R^2 = 15%, R^2 adj. = 13,4%.

Jednak nas bardziej interesuje kwartalna zmiana WIG w relacji do kwartalnej zmiany PKB USA. Okazuje się, że korelacja Pearsona wynosi aż 0,44. W regresji liniowej również p < 0,01, R^2 jest wyższy niż dla SP500 i wynosi 19,55%, a R^2 adj.= 18%. Niski R^2 jest spowodowany dużym rozrzutem obserwacji wokół wartości oczekiwanej:


Ten empiryczny model ma następującą postać:

Oczekiwana stopa WIG(t) = -0.04 + 7.02*Stopa_zmian_PKB_USA(t)

Oczekiwaną i faktyczną stopę zwrotu z WIG możemy także porównać w perspektywie czasowej:




Nie ma żadnych wątpliwości, że PKB amerykańskie ma wpływ na WIG.


Ale nie dotarliśmy jeszcze głównej myśli, czyli relacji S&P 500 i WIG. Możemy pokusić się o stworzenie czegoś na kształt dwu-, a później 3-czynnikowego CAPM opisywanego w poprzednim artykule. Dołóżmy do modelu stopę z SP500. Jeśli przyjmiemy, że stopa procentowa jest stała w czasie, to możemy pominąć stopę wolną od ryzyka i po prostu przyjąć 2-czynnikowy CAPM w postaci:

Oczekiwana stopa WIG(t) = stała + Beta*Stopa_SP500 + beta(labor)*Stopa_zmian_PKB_USA(t) 

Otrzymałem następujące parametry (stała praktycznie wyniosła zero i jest nieistotna):

Oczekiwana stopa WIG(t) = 0.96*Stopa_SP500(t) + 2.58*Stopa_zmian_PKB_USA(t)

R^2 = 63,5%, R^2 adj. = 62%.

Wnioski są oczywiste. Jeśli WIG potraktujemy jak zwykłą, ale dużą spółkę w indeksie SP500, to otrzymujemy bardzo silną zależność 0,96 pomiędzy S&P 500 a WIG.



Przy usunięciu zmiennej PKB, beta = 1,04, a zatem WIG będzie nieco silniej się odchylał niż SP500, ale R^2 jest wtedy niższy.

I na koniec można się zastanowić nad 3-cim czynnikiem. Ogólnie nasz CAPM wyglądał tak:


Uważny Czytelnik dostrzeże, że nasza regresja nie jest to CAPM, bo tam beta była zmienną, a stałe współczynniki były wyliczane z regresji. U nas jest odwrotnie: betę sobie wyliczyliśmy jako stałą. Z tego powodu nie mamy prawa twierdzić, że modelujemy zmienność bety. Jak już moglibyśmy się pokusić o stwierdzenie, że modelujemy zmienność oczekiwanej stop zwrotu SP500. Ponieważ definicja bety(prem) była następująca:


to w naszym przypadku ta beta(prem) zostanie obliczona na podstawie Metody Najmniejszych Kwadratów, która stosuje ten sam wzór. Musimy tylko dobrać odpowiednie zmienne. Zmiennymi pierwotnymi były Ri(t) - stopa zwrotu i-tego aktywa oraz R(prem)(t-1) - premia za ryzyko rynkowe z okresu t-1. Jednak, jak już wcześniej założyliśmy, stopa wolna od ryzyka będzie stała, a zatem premia za ryzyko może być wyrażona po prostu oczekiwaną stopą SP500. Ponieważ naszym celem jest odszukanie zmienności oczekiwanej stopy zwrotu SP500 albo, mówiąc bardziej ekonomicznie, cykliczności rynkowej, za R(prem)(t-1) podstawimy R(prem)(t-4), nazwijmy ją beta(2), czyli w naszym przypadku stopę zwrotu z SP500 sprzed 4 kwartałów. Mówiąc krótko, dostaniemy model:

Oczekiwana stopa WIG(t) = stała + Beta(1)*Stopa_SP500 + Beta(2)*Stopa_SP500(t-4) + Beta(3)*Stopa_zmian_PKB_USA(t)

Otrzymałem następujący model empiryczny ze wszystkimi istotnymi parametrami:

Oczekiwana stopa WIG(t) = 0.93*Stopa_SP500 - 0.28*Stopa_SP500(t-4) + 3*Stopa_zmian_PKB_USA(t)

R^2 = 66.7%, R^2adj. = 64.4%  - wysokie wartości wskazują na najlepsze dopasowanie z dotychczasowych modeli.

Poniżej dopasowanie obserwacji do analizowanego modelu przedstawia rysunek:




Model sugeruje, że stopa zwrotu SP500 sprzed 4 kwartałów, czyli 1 roku, wpływa ujemnie na bieżącą stopę WIG o ok. 30%. Jeśli wiemy, że rok temu SP500 urósł w 1 kw. o 10%, to możemy się spodziewać, że w tym roku w 1 kw. WIG spadnie o niecałe 3%, przy innych czynnikach niezmienionych. Można powiedzieć, że po roku następuje pewna zmiana w cyklu WIG. Co ciekawe, taka zależność nie występuje dla SP 500. Indeks amerykański nie reaguje na to co się działo na nim rok temu, z punktu widzenia regresji liniowej. 

Z czego może wynikać ta różnica? Moja hipoteza jest taka, że cykl gospodarczy w USA nie pokrywa się z cyklem gospodarczym w Polsce, a to powoduje, że WIG reaguje na przeszłe zmiany samego SP500 inaczej. Na przykład załóżmy, że cykl gospodarczy trwa w Polsce krócej niż w USA. To będzie powodowało, że WIG zacznie szybciej zmieniać kierunek, bo już po roku. W tym czasie w USA cykl jeszcze trwa. Jeżeli w USA cykl trwa dłużej, to pewna odwrotna reakcja na przeszłe zmiany powinna nastąpić po dłuższym okresie. Pytanie po jakim okresie? Z moich prób wynika, że po 7 kwartałach.
Kiedy zastosowałem model:

oczekiwana stopa zwrotu SP500 = stała + beta*stopa_SP500(t-7)

a więc sprawdziłem jak się zachowuje indeks po 7 kwartałach, to okazało się, że dostałem parametry istotne statystycznie:

oczekiwana stopa zwrotu SP500 = 0.02 - 0.25*stopa_SP500(t-7)

R^2 jest wprawdzie bardzo niski, bo tylko 8%, jednak nie ma wątpliwości, że istnieje ujemna zależność. 

Przedstawiona hipoteza byłaby fałszywa, gdyby WIG również miał istotne parametry i podobny R^2 dla identycznego modelu, tj dla

oczekiwana stopa zwrotu WIG = stała + beta*stopa_SP500(t-7)

Jednak w tym przypadku otrzymany parametr, za wyjątkiem stałej, jest nieistotny statystycznie (p = 0.34), zaś R^2 wynosi tylko 2,1%.

  Z powyższego można wnioskować, że rzeczywiście cykl SP500 jest dłuższy niż cykl WIG ok. 3 kwartały. To prawdopodobnie jest przyczyna, dla której Autor rzeczonego artykułu stwierdził, że bessa w USA nie zwiastuje bessy w Polsce. Cykle obu indeksów się nie pokrywają, cykle obydwu gospodarek mają prawdopodobnie różną średnią długość, lecz reakcja WIG na S&P 500 jest silna i dodatnia.


Źródło:

1. http://gieldowyracjonalista.blogspot.com/2013/11/czy-troj-betowy-capm-wyjasnia-stopy.html
2. http://10-procent-rocznie.blogspot.com/2014/02/czy-bessa-w-usa-udzieli-sie-polsce.html
3. http://www.gurufocus.com/stock-market-valuations.php
3. http://www.bea.gov/
4. stooq.pl

niedziela, 3 listopada 2013

Czy trój-betowy CAPM wyjaśnia stopy zwrotu?

Jednym z najważniejszych wyzwań nauki o finansach jest zrozumienie w jaki sposób  inwestorzy wyceniają ryzykowne aktywa. Jest ogólnie zgodny pogląd, że inwestorzy wymagają wyższego zwrotu z inwestycji w ryzykowne projekty czy papiery wartościowe, jednakże nadal nie ma jednolitego stanowiska co do modelu opisującego premię za ryzyko (jak i samo ryzyko). Wiemy, że punktem wyjścia musi być teoria portfela, która stanowi bazę do wyprowadzenia jednego z najważniejszych modeli w teorii finansów - CAPM, który z kolei pozwala w przejrzysty sposób oszacować premię za ryzyko z poszczególnych aktywów. Wnioski z CAPM są następujące:
a) ryzyko projektu jest mierzone betą danego aktywa
b) zależność pomiędzy wymaganą stopą zwrotu a betą jest liniowa (i dodatnia).

Wiele badań przeprowadzono w celu sprawdzenia czy CAPM faktycznie wyjaśnia historycznie średnie stopy zwrotu. Najpoważniejsze badania przeprowadzone np. przez Famę i Frencha w 1992 r. dowodzą, że CAPM jest niezdolny do wyjaśniania średnich stóp zwrotu, tak że jest ekonomicznie nieistotny. Relacja pomiędzy rynkową betą a średnią stopą zwrotu jest płaska. W szczególności portfele zawierające akcje z relatywnie małą kapitalizacją (małe spółki) pozwalały osiągać ponadprzeciętne stopy zwrotu, tzn. w tym sensie, że pewna część średniej stopy zwrotu nie mogła zostać wyjaśniona za pomocą premii za ryzyko.

Trzeba jednak pamiętać o założeniach stojących u podłoża klasycznego CAPM. Model ten wyprowadzono przy założeniu, że inwestorzy żyją tylko w jednym okresie, przez co model jest statyczny. W ten sposób zakłada się, że beta i premia za ryzyko są zawsze takie same.

W rzeczywistości mogą się one zmieniać. Na przykład podczas recesji dźwignia finansowa (stosunek długu do kapitału własnego plus jeden lub inaczej aktywa do kapitału własnego) firm o słabszej kondycji może drastycznie wzrosnąć (1. firma, aby przetrwać, zaciąga pożyczkę, ale pożyczkodawcy będą w takiej sytuacji żądać wyższego oprocentowania; 2. na skutek strat i spadku kapitału własnego) powodując wzrost bety. (Zwróćmy uwagę, że wtedy rośnie oczekiwana stopa zwrotu, ponieważ cena akcji spada). Beta zależy od warunków ekonomicznych, co prowadzi do wniosku, że trzeba stosować betę warunkową.

R. Jagannathan i Z. Wang [1] obrazują problem statycznego CAPM następująco. Wyobraźmy sobie, że są tylko dwie akcje na świecie, A oraz B, i rozważamy dwa okresy. Beta akcji A wynosi 0,5 w 1 okresie i 1,25 w 2 okresie (czyli średnia beta wynosi 0,875). Beta akcji B wynosi odpowiednio 1,5 i 0,75 (czyli średnia beta = 1,125). Załóżmy, że oczekiwana premia za ryzyko portfela rynkowego (tj. z tych dwóch akcji) jest to 10% w 1 okresie i 20% w 2 okresie (czyli średnio 15%). Wtedy oczekiwana premia za ryzyko akcji A wyniesie 5% (0,5*10%) w 1 okresie i 25% (1,25*20%) w 2 okresie. Oczekiwana premia za ryzyko z akcji B wyniesie 15% w obu okresach. W ten sposób badacze popełniają błąd, gdyż stwierdzają, że średnia premia wynosi 15% zarówno dla rynku jak i akcji B, ale beta jest inna: rynek ma betę równą 1, a akcja B 1,125.  To znaczy - mówiąc bardziej ogólnie - mogą istnieć dwie różne akcje o tej samej średniej (w czasie) premii za ryzyko, lecz innej becie i będzie się wydawało, że CAPM nie działa.

Autorzy opracowują atrakcyjny teoretycznie i empirycznie model, gdyż przechodzi on płynnie od warunkowego CAPM do niewarunkowego CAPM, w którym to beta jest zbudowana z dwóch niezależnych części. Dostajemy de facto szczególny przypadek APM (Arbitrage Pricing Model), tj. modelu wieloczynnikowego (wielo-betowego). Tyle że APM jest tylko ogólnym modelem nie interpretującym żadnego czynnika, podczas gdy  w modelu Jagannathana i Wanga wszystko jest ściśle określone.

Zacznijmy więc od wprowadzonej definicji CCAPM (Conditional CAPM - Warunkowy CAPM). Niech I(t-1) oznacza informację dostarczoną inwestorom w okresie t-1. Wtedy:


Pojawia się tutaj pojęcie zero-beta, o którym nigdy nie wspominałem. Model Zero-beta CAPM został wyprowadzony w 1972 r. przez Fishera Blacka [2] i można go traktować jako uogólnienie klasycznego CAPM. Zamiast stopy wolnej od ryzyka pojawia się stopa aktywa, którego beta = 0. Taka beta może mieć odchylenie standardowe różne od zera (w przeciwieństwie do stopy wolnej od ryzyka), a więc aktywo może być ciągle ryzykowne, ale sama stopa zwrotu może w ogóle nie korelować z portfelem rynkowym (i dlatego jest niezależnym od bety elementem). Na przykład jeśli spółka opiera swoją działalność na wdrażaniu nowoczesnej, opatentowanej przez siebie technologii, to jej zyski nie będą raczej zależały od kondycji gospodarki (pod warunkiem, że nie jest to "dobro luksusowe", o wysokiej cenie).  Motywem do wyprowadzenia tego modelu było, podobnie jak w przypadku CCAPM, empiryczne zakwestionowanie CAPM przez statystyków.

Z równania (2) można otrzymać niewarunkowy CAPM:




W okresie recesji wiele firm wpada w problemy finansowe, przez co dźwignia finansowa, jak już wspomniałem, wzrasta. Jest to czynnik powodujący wzrost warunkowej bety. Jednocześnie jednak, ponieważ możliwości kreowania zysku spadają, niepewność również spada (bo wiadomo, że będzie źle). Jest to więc czynnik obniżający warunkową betę. Tak więc te dwa przeciwstawne czynniki będą się ze sobą ścierać.

Jeśli ostatnie wyrażenie w równaniu (4) będzie równe 0, to wracamy do statycznego, klasycznego CAPM. W przypadku CCAPM wyrażenie to można zdekomponować na dwa niezależne czynniki. Po dalszych przekształceniach Autorzy otrzymują model w formie regresji liniowej:



gdzie:

                                 

                                                      c(0), c(m), c(prem) to pewne stałe,

Pierwsza beta(i) mierzy, tak jak zwykła beta, średnie ryzyko rynkowe i-tego aktywa. Druga beta nazwana premium beta (po polsku możemy powiedzieć, że jest to premia za betę), mierzy niestabilność bety, czyli zmienność ryzyka rynkowego.
Premia za ryzyko rynkowe, R(prem)(t-1) to różnica między oczekiwaną stopą zwrotu z portfela rynkowego a oczekiwaną stopą zwrotu z aktywa o zerowej becie, lecz odnosi się do okresu poprzedniego, nawiązując tym samym do zmienności samego ryzyka.

Autorzy weryfikują ten model w praktyce. Najpierw określają 2 problemy natury technicznej.
Po pierwsze premia za ryzyko nie jest już różnicą pomiędzy oczekiwaną stopą zwrotu z portfela rynkowego a stopą wolną od ryzyka, lecz różnicą pomiędzy oczekiwaną stopą zwrotu z portfela rynkowego a stopą zwrotu z aktywa o zerowej becie. Wiadomo jednocześnie, że premia za ryzyko będzie się zmieniać pod wpływem cyklów gospodarczych. Z tego powodu Autorzy decydują się użyć zmiennych prognozujących takie cykle. Jak Autorzy stwierdzają, wskazując na literaturę, dużą pomocą w tym stanowią stopy procentowe. Jako jednostkową premię za ryzyko wykorzystują różnicę pomiędzy 6-miesięcznymi papierami komercyjnymi a 6-miesięcznymi bonami skarbowymi.

Po drugie portfel rynkowy również jest nieobserwowalny. Portfel ten powinien odzwierciedlać zagregowane bogactwo uczestników rynku. To znaczy, inwestor posiadający ułamek portfela rynkowego posiada nie tylko ułamek wartości spółek na rynku kapitałowym i pieniędzy w skarbie państwa oraz bankach, ale także ułamek wartości wszystkich innych firm spoza rynku kapitałowego oraz ułamek wszystkich innych aktywów (nie tylko które da się kupić i sprzedać, ale także tych, których nie da się kupić ani sprzedać). Portfel rynkowy jest więc bardzo szeroko rozumiany. Wynika to z faktu, że w teorii portfela uwzględniamy wszystkie aktywa, które mogą inwestorowi przynieść zysk i niosą ryzyko mierzone wariancją. Teoria sztucznie zakłada, że wszyscy mają równy dostęp do każdego aktywa. W rzeczywistości, jak wiadomo każdy inwestor może de facto mieć dostęp do takich aktywów, do których inni nie mają. To oczywiście powoduje, że każdy inwestor może mieć inny portfel rynkowy, a nie - jak mówi teoria - jeden i ten sam. Na szczęście, jak się okazuje, taka sytuacja nie będzie wywoływać strasznych rozbieżności z modelem. David Mayers w 1972/1973 r. wyprowadził następujący model CAPM, uwzględniający aktywa niehandlowane:



gdzie:




Model ten oczywiście można sprowadzić do wersji zero-beta CAPM.

Jeśli więc są jakieś aktywa niedostępne dla reszty, którymi się nie handluje, to najprawdopodobniej ich korelacja z rynkiem będzie zerowa, wtedy kowariancja będzie zerowa i model sprowadza się do postaci klasycznego CAPM. Fama i Schwert [3] empirycznie zbadali różnicę pomiędzy betą pierwotnego CAPM a modelem Mayersa, przyjmując, że aktywa niehandlowane jest to kapitał ludzki. Analizowali zarówno miesięczne, jak roczne stopy zwrotu na NYSE. Autorzy kwitują stwierdzeniem, że różnica ta jest niewielka i praktycznie model Mayersa nie zmienia dostarczanych przez pierwotny CAPM oczekiwań. Można więc mniemać, że korelacja niehandlowanego z handlowanym kapitałem jest faktycznie zerowa albo bliska zeru.  Trzeba jednak podkreślić, że badacze zajmowali się tylko statyczną wersją CAPM.

Normalnie celem CAPM jest wyznaczenie oczekiwanej stopy zwrotu aktywa z rynku kapitałowego (zupełnie inną kwestią jest fakt, że do jej wyznaczenia potrzebne są także aktywa spoza tego rynku). Ale gdybyśmy już chcieli wyznaczyć oczekiwaną stopę zwrotu z niehandlowalnego aktywa, ale korelacja z rynkiem byłaby zerowa, to dostalibyśmy stopę wolną od ryzyka lub - dla zero-beta CAPM - stopę zwrotu z aktywa o zerowej becie. Model z zerową betą staje się bardziej realistyczny, ale też kłopotliwy, bo jeśli każdy ma swoje własne aktywo o zerowej becie, a ich oczekiwane stopy zwrotu będą różne, to nachylenie CML i SML będzie dla każdego inwestora inne (subiektywne), tak że obiektywne empiryczne modelowanie staje się niejednoznaczne.

Gdy analizujemy problem aktywów niehandlowalnych, to prędzej czy później docieramy do kapitału ludzkiego. Oczywiście możemy sprzedawać swoją pracę i swój czas, ale w większości cywilizowanych krajów (ze względu na przykład na ograniczenia prawne) nie możemy sprzedać swoich umiejętności, zdolności czy talentów. Posiadając te wartości możemy jedynie generować z nich okresowe wynagrodzenie, czyli swego rodzaju dywidendy, którym może towarzyszyć określone ryzyko (chwiejność umiejętności, zdolności lub talentów). Widzimy teraz jasno, że handlowane aktywa trzeba inaczej traktować niż niehandlowane, a stąd dlaczego model Mayersa odróżnia te dwa typy.

W rzeczywistości kwestia niehandlowalności kapitału ludzkiego jest bardziej skomplikowana. Np. hipoteczne listy zastawne czy hipoteczne instrumenty pochodne, normalnie handlowane na rynku, opierają się na kredytach hipotecznych, a z kolei kredyty hipoteczne są swego rodzaju pożyczką przyszłych oczekiwanych dochodów (wynagrodzeń z pracy) służących do kupna nieruchomości. W ten sposób kapitałem ludzkim można w pewnym stopniu handlować.

Jagannathan i Wang przyjmują w swoim modelu, że część kapitału ludzkiego, ściślej sam dochód z pracy, jest dobrem handlowanym. Stąd wysuwają propozycję, by stopę wzrostu dochodu z kapitału ludzkiego potraktować jako pośrednik stopy zwrotu z kapitału ludzkiego.  Trzeba przyznać, że ma to sens: część wynagrodzenia z pracy może zostać zainwestowane w projekty handlowalne, ale nieskorelowane z rynkiem kapitałowym, np. pomysły technologiczne lub organizacyjne, w skrócie: w projekty prowadzące do postępu technicznego. Takie projekty przynoszą stopę zwrotu z samego wynagrodzenia z pracy.

W konsekwencji przyjmujemy stopę z portfela rynkowego, Rm(t), o następującej konstrukcji:


gdzie:


                       (Reszta to stałe.)

Po odpowiednich przekształceniach otrzymujemy trój-betowy CAPM:




gdzie:





CZĘŚĆ EMPIRYCZNA:

Autorzy empirycznie testują swój CAPM, porównując go z innymi modelami. Użyli stóp zwrotu z akcji na NYSE, AMEX (1962-90) i NASDAQ (1973-90). Weryfikację modelu oparli na badaniach Famy i Frencha, aby móc z nimi porównywać. Najpierw zaczynają od tradycyjnego, zwykłego CAPM, tj. o postaci:

 Graficznie przestawiają uzyskane wyniki:





Jak widać faktyczne średnie stopy zwrotu z akcji kompletnie nie odpowiadają oczekiwanym stopom zwrotu przewidywanym przez CAPM.

Następnie pozwalają, aby beta zmieniała się cały czas, tj. zakładają warunkowy CAPM, ale bez kapitału ludzkiego. Testują zatem swój dwu-betowy CAPM:


Niestety graficznie wyników nie pokazali. Możemy jedynie porównać dane statystyczne. O ile wsp. determinacji R^2 w statycznym CAPM wyniósł zaledwie 1,35%, o tyle w modelu z premium beta wynosi prawie 30%. Jest to istotna poprawa modelu, jednak jeśli przyjrzeć się p-value parametrów, to już tak kolorowo nie jest.  O ile c(prem) jest istotny statystycznie (0,1%), o tyle c(vw) juz nie (38,45%).


W końcu Autorzy dodają do modelu kapitał ludzki, testując swój główny trój-betowy model:

Za dochód z pracy brali całkowity dochód minus dochód z dywidend. (dywidendy powinny być odejmowane, bo indeks już je uwzględnia). Tutaj już mogą pochwalić się całkiem niezłymi rezultatami:




Średnie zrealizowane stopy zwrotu niemal idealnie odpowiadają prognozowanym oczekiwanym zyskom. R^2 wyniósł 55%. p-value dla c(labor) wyniósł 2,07%, a więc dochód miał duży wpływ na poprawę prognozy. Niestety c(vw) nadal jest zbyt wysoki (p-value = 23,8%), pomimo że już jego istotność się poprawiła. 

Szkoda, że Autorzy nie sprawdzili modelu usuwając c(vw), bo mogłoby się okazać, że wyniki są jeszcze lepsze. Ale to popsułoby wydźwięk pracy, której celem było opracowanie teorii i zbadanie jej w praktyce. Gdyby rzeczywiście tak było, to zamiast obrony CAPM, dostalibyśmy kolejne jego "obalenie".

Autorzy raczej, jak na klasycznych ekonomistów przystało, dążą do obalenia poglądów o istnieniu anomalii rynkowych, jak np. efekt małych spółek lub efekt BV/P. Na przykład dodali do swojego modelu nową zmienną, logarytm z wartości rynkowej akcji, testując efekt małych spółek. Wielkość spółki rozumie się tu poprzez wartość rynkową, a nie księgową. Jeśli dodatkowa zmienna wielkości rzeczywiście istotnie wpłynie na poprawę modelu, to znaczy, że efekt wielkości spółek rzeczywiście będzie występował. Wnioski są ogólnie takie, że ta dodatkowa zmienna w 3-betowym CAPM rzeczywiście poprawiła R^2, z 55% do 64,7%, jednakże sama istotność współczynnika tej zmiennej jest zbyt niska - jej p-value = 14,7%.

W końcu badacze porównali swój model z 3-czynnikowym modelem Famy i Frencha [4], którzy dowiedli empirycznie, że rzeczywiście występuje efekt małych spółek (tzn. średnio rzecz biorąc, im mniejsze spółki, tym większe oczekiwane zyski) oraz efekt BV/P (tzn. średnio biorąc, im większy BV/P , tj. book value to price, tym większe oczekiwane zyski). Fama i French wprowadzili do CAPM 2 czynniki, odpowiadający za efekt małych spółek oraz odpowiadający za BV/P. Postać tego modelu jest następująca:


c(SMB) - (Small Minus Big) - jest to różnica pomiędzy średnią stopą zwrotu z 3 portfeli najmniejszych akcji (o najmniejszej kapitalizacji) a stopą zwrotu z 3 portfeli największych akcji (o największej kapitalizacji).

c(HML) - (High Minus Low) - jest to różnica pomiędzy stopą zwrotu z 2 portfeli o największym BV/P a stopą zwrotu z 2 portfeli o najmniejszym BV/P.

 Wyniki testu tego modelu przez Jagannathana i Wanga okazują się zaskakujące. Otrzymali R^2 równy 55%, czyli tyle samo, co w swoim 3-betowym CAPM. Obydwa modele mają podobną moc. Ale p-value dla c(SMB) i c(HML) wyniosło, odpowiednio, 12,6% i 33,6%, wskazując na duże ryzyko błędu. Oczywiste pytanie się nasuwa co by się stało, gdyby dodać dwa czynniki z modelu Famy-Frencha do 3-betowego CAPM? Czyli rozważamy następujący model:



Rezultat to wzrost R^2 do 64%. Jednakże jednocześnie p-value c(SMB) i c(HML) wzrosło do ponad 40%, wskazując na swoją nieistotność (co Autorzy zaznaczają). Jeżeli jednak model tak się poprawił, to najprawdopodobniej jest to wynik tego, że czynniki z modelu Famy i Frencha są skorelowane z niestabilnością bety i kapitałem ludzkim. Tym samym można uznać, że efekt małych spółek oraz efekt BV/P wynika przynajmniej w pewnej części z ryzyka zmienności bety i z ryzyka inwestowania dochodów z pracy.


Pomimo tych wszystkich rewelacji, empiryczna część badań Jagannathana i Wanga została skrytykowana przez Lewellena i Nagela w 2006 r. [5], którzy zaprzeczają jakoby CCAPM znacznie poprawiał CAPM. Według nich CCAPM (ani uzyskany z niego niewarunkowy CAPM) nie wyjaśnia stóp zwrotu, w szczególności anomalii rynkowych, jak efekt małych spółek, BV/P czy momentum. Dowodzą, że kowariancja pomiędzy betą a premią za ryzyko (drugi składnik w równaniu z numerem 4) nie jest wystarczająco duża, aby uzasadnić faktyczne stopy zwrotu. Pomimo tych kontrowersji wyprowadzony 3-betowy CAPM wnosi duży udział do teorii finansów.


Literatura:


[1] R. Jagannathan, Z. Wang - The conditional CAPM and the crosssection of expected returns, The Journal of Finance, 1996,

[2] F. Black - Capital market equilibrium with restricted borrowing, The Journal of Business, 1972,

 [3] E. F. Fama, G. W. Schwert - Human capital and capital market equilibrium, Journal of Financial Economics, 1977,

 [4] E. F. Fama, K. R. French - Common risk factors in the returns on stocks and bonds, Journal of financial economics, 1993,

[5] J. Lewellen, S. Nagel - The conditional CAPM does not explain asset-pricing anomalies, Journal of Financial Economics, 2006.

sobota, 31 sierpnia 2013

Uogólniony wskaźnik Sharpe'a

W każdym podręczniku poruszającym temat zarządzania portfelem inwestycyjnym znajdziemy pojęcie wskaźnika Sharpe'a (SR - Sharpe Ratio). W procesie zarządzania podstawową kwestią jest zbadanie oczekiwanej (średniej) stopy zwrotu (u(Rp)) w stosunku do ponoszonego ryzyka. Tradycyjnie ryzyko określane jest przez odchylenie standardowe stopy zwrotu. W nawiązaniu do CAPM przyjęło się dodatkowo, żeby od oczekiwanej stopy zwrotu odjąć stopę wolną od ryzyka (R(f)), bo wtedy dostaniemy premię za ryzyko. Zatem SR ma postać:



Oczywiście im większy SR, tym lepsza jakość zarządzania portfelem.

Jest to znany i powszechnie stosowany miernik. Jednakże opiera się on na założeniu, że istnieją tylko dwa parametry rozkładu gęstości stopy zwrotu: średnia i wariancja. Założenie to ma teoretyczne podstawy, gdyż  zgodnie z Centralnym Twierdzeniem Granicznym średnia stopa zwrotu będzie dążyła do rozkładu normalnego, jeśli kolejne stopy zwrotu będą od siebie niezależne oraz będą posiadać identyczny rozkład prawdopodobieństwa oraz skończoną wariancję. To znane twierdzenie zostało jednak bardzo mocno uogólnione. Okazuje się, że średnia będzie dążyć do rozkładu normalnego, nawet jeśli zmienne są od siebie zależne [3], a nawet wtedy, gdy ich rozkłady nie będą jednakowe [1]. Właściwie jedynym ograniczeniem jest, aby średnia i wariancja były skończone. Trzeba jednak pamiętać, że w tych przypadkach zbieganie do rozkładu Gaussa będzie dużo wolniejsze niż dla klasycznego przypadku. (Przyjemnie opisane "działanie" tego twierdzenia można obejrzeć tutaj )

Badania jednak wskazują, że stopy zwrotu daleko odbiegają od rozkładu normalnego. Dziać się tak może z dwóch powodów. Po pierwsze twierdzenie mówi, że średnia stopa zwrotu dąży do r. Gaussa, a nie sama stopa (aczkolwiek zamiast średniej może być to po prostu suma, a więc logarytmiczna stopa zwrotu już mogłaby dążyć rozkładu normalnego). Po drugie wariancja może wbrew intuicji być nieskończona; co więcej wiadomo, że w wielu przypadkach tak właśnie się dzieje.

Nawet jeśli Centralne Twierdzenie Graniczne nadal obowiązuje na rynku, to prawdopodobnie potrzeba (bardzo) dużej próbki, aby testy potwierdzały normalność stóp zwrotu. Inwestor zarządzający portfelem nie może zatem lekceważyć pozostałych parametrów takich jak skośność i kurtoza.
Skośność może być prawostronna lub lewostronna. Poniżej przykład skośności prawostronnej:


Ponieważ mediana, me, dzieli badaną strukturę na dwie równe części, a  średnia jest większa od mediany, to mniej niż połowa danych ma wartości większe od średniej.


A poniżej przykład lewostronnej:



Ponieważ mediana dzieli badaną strukturę na dwie równe części, a  średnia jest mnijesza od mediany, to ponad połowa danych ma wartości większe od średniej.

Kurtoza może być leptokurtyczna lub platykurtyczna. Poniżej widzimy  różne kształty rozkładu w porównaniu do rozkładu normalnego.



Leptokurtoza jest to kurtoza dodatnia i charakteryzuje się wysmukłym wierzchołkiem oraz tzw. grubymi ogonami, tj. rzadkie zdarzenia są częstsze niż dla rozkładu normalnego. Platykurtoza jest to kurtoza ujemna i charakteryzuje się spłaszczonym wierzchołkiem oraz cienkimi ogonami, tzn. mniej prawdopodobne zdarzenia są rzadsze niż dla rozkładu normalnego. 


 V. Zakamouline i S. Koekebakker [6] wyprowadzili SR uwzględniający skośność (ASSR - Adjusted for Skewness Sharpe Ratio). Wzór na ASSR jest następujący:


gdzie


χ - skośność rozkładu stopy zwrotu

b(3) - względna awersja do ryzyka.

Parametr b(3) jest ściśle związany z awersją do ryzyka Pratta-Arrowa. Przypomnę teraz, że w artykule Rozbieżność opinii w kontekście CAPM  zdefiniowana była awersja do ryzyka Pratta Arrowa następująco:


gdzie U - funkcja użyteczności inwestora (dopowiedzmy, że jeżeli awersja do ryzyka pozostaje wielkością stałą, to U jest dana wzorem: U(W) = y1 + y2*(-exp(-a*W)), dla a > 0, gdzie y1 to dowolna liczba; y2 > 0; W to inwestowana kwota. Zob. [5]).

Z kolei parametr b(n) jest dany wzorem:


gdzie n - liczba parametrów rozkładu stopy zwrotu.

Jeśli n = 2, wtedy stopa zwrotu jest opisana tylko wartością oczekiwaną i wariancją. Wtedy też b = 1.
W przypadku 3 parametrów, pojawia się skośność. Dostajemy wtedy wzór:


Parametr b(3) oznacza w tym wypadku preferencję w stosunku ryzyka skośności. Skośność wyznacza pewną osobliwą miarę ryzyka, którą za chwilę omówię. 
Na razie zauważmy, że ASSR zależy od preferencji inwestora, a nie tylko od własności stopy zwrotu. Co to oznacza? Że inwestorzy z różną preferencją do ryzyka skośności będą inaczej rangować ryzykowne aktywa.

Zauważmy teraz, że im większa (dodatnia) skośność, tym większy ASSR. Czyli lepsze zarządzanie portfelem, pomimo iż oczekiwana stopa zwrotu nie rośnie. Dzieje się tak, ponieważ większa dodatnia skośność znacznie zmniejsza ryzyko ujemnych stóp zwrotu i zwiększa prawdopodobieństwo bardzo dużych stóp zwrotu. Przypatrzmy się jednak obu obrazkom gdzie jest dodatnia skośność. Prawdopodobieństwo niskich stóp zwrotu zwiększa się, czyli jest to negatywny efekt, jednakże jest on równoważony przez spadek ujemnych stóp zwrotu i wzrost bardzo dużych stóp zwrotu. Oczekiwana stopa zwrotu pozostaje niezmienna, a jedynie częstości się przesuwają.

Odwrotna sytuacja występuje dla ujemnej skośności. Spada gwałtownie do zera szansa na bardzo duże zyski, rośnie szansa na umiarkowane zyski oraz rośnie szansa na straty. Z punktu widzenia ryzyka ujemna skośność jest niepożądana przez inwestora.

Od razu powiem, że nie jest to wcale proste do zrozumienia. Jeśli ujemna skośność rośnie coraz bardziej, to przecież rośnie szansa na przyzwoite zyski. Dlaczego więc to jest negatywne? Rzecz dotyczy tego samego aspektu co w przypadku innej miary ryzyka, Value at Risk, która mierzy tylko maksymalną stratę z danym prawdopodobieństwem. Trzeba pamiętać, że oczekiwany zysk się nie zmienia i choć największa szansa jest, że "będzie dobrze", to równocześnie rośnie niebezpieczeństwo, że "będzie źle" albo "bardzo źle".

Jednak faktyczna moc ASSR polega na tym, że jeśli inwestor nie ma w ogóle awersji do takiego ryzyka, to b = 0 i wtedy ASSR sprowadza się do SR. Pytanie czy jest to zasadne skoro VaR rośnie (maksymalna strata wzrasta ze względu grubszy lewy ogon rozkładu). Wątpliwe. Skąd jednak mamy wiedzieć jaką awersję do ryzyka skośności przyjąć?

Przy założeniu, że rozkład stopy zwrotu jest tzw. normalnym odwrotnym Gaussowskim rozkładem (nie jest to sztuczne założenie, tzn. ma również podstawy teoretyczne; rozkład ten jest jednym z uogólnień rozkładu normalnego. Co więcej, badania dowodzą, że doskonale dopasowuje się on do rozkładu dziennych stóp zwrotu [2])  U. Homm i C. Pigorsch [4] wyprowadzają uogólniony wskaźnik Sharpe'a (GSR - Generalized Sharpe Ratio), który nie zależy w ogóle od awersji do ryzyka. Wzór na GSR  jest następujący:



gdzie K - kurtoza albo precyzyjniej nadwyżka kurtozy, bo aby porównywać rozkład zmiennej z rozkładem normalnym, musimy odjąć od kurtozy liczbę 3.

Gdy skośność i K są równe 0, GSR sprowadza się do SR.

Jak widać powyższy wzór na GSR uwzględnia nie tylko skośność, ale dodatkowo także kurtozę, a więc ryzyko rzadkich zdarzeń, jak np. krach. Zatem kurtoza mierzy dodatkowo ryzyko załamania. Będzie tak, gdy K > 0. Oczywiście, jeśli K < 0, to ryzyko rzadkich zdarzeń staje się mniejsze niż dla rozkładu Gaussa, zatem ma wtedy pozytywny wpływ na GSR.

Wzór GSR może się wydać skomplikowany, ale jest łatwy w użyciu. Wystarczy podstawić, używając Excela, który ma wszystkie potrzebne miary statystyczne. Zwrócę tu uwagę, że Excel w swoich funkcjach nazywa nadwyżkę kurtozy właśnie kurtozą, a więc wystarczy wstawić bezpośrednią funkcję do wzoru.

Przykład.

Porównajmy SR i GSR na przykładzie paru wybranych spółek i WIG w okresie 30.11.2004 - 27.08.2013. Zakładając, że w tym okresie trzymamy pewne spółki i ich nie sprzedajemy, mierzymy co miesiąc stopę zwrotu (dywidendy są uwzględnione). Dane pobrałem ze stooq.pl. Czyli miesięczne stopy zwrotu stają się podstawą do wyznaczenia SR i GSR:

WIG:
SR = 12,8%.
GSR = 12,5%.

GSR jest mniejszy od SR z powodu ujemnej skośności (-0,37) oraz leptokurtozy (1,58).

PKO:
SR = 12,7%
GSR = 12,4%

SR i GSR dla PKO są niemal identyczne jak dla WIG.

PGD:
SR = 9,3%
GSR = 10,2%

GSR pokazuje, że w rzeczywistości premia za ryzyko w stosunku do podejmowanego ryzyka Pageda jest wyższa o 1% niż wskazywałby SR. Pomimo tej poprawy trzymanie tej spółki od końca 2004 r. do dziś wydaje się być złym pomysłem, skoro WIG przynosi wyższe wynagrodzenie w stosunku do ryzyka. 


LBW:
SR = 14,1%
GSR = 15,6%

W przypadku Lubawy sytuacja wygląda odwrotnie. Nie dość, że SR jest znacznie wyższe od WIG, to jeszcze GSR informuje, że ryzyko jest jeszcze mniejsze. Poprawa GSR wynika z dużej dodatniej skośności LBW, która zmniejsza ryzyko (dla WIG skośność była ujemna).

ELZ

SR = 15,1%
GSR = 15,9%.

Sytuacja Elzabu jest podobna jak w przypadku LBW, a więc znacznie pokonuje indeks.
Tym razem możemy dodatkowo porównać efektywność inwestowania w LBW z ELZ. Gdybyśmy je ocenili w oparciu o SR, to stwierdzilibyśmy, że trzymanie ELZ jest efektywniejsze niż LBW. Ale jak ocenimy je przez pryzmat GSR, to dowiadujemy się, że obie mają porównywalną efektywność: 15,9% u ELZ jest nieznacznie wyższe od 15,6% u LBW, intuicyjnie można wręcz powiedzieć, że różnica jest zaniedbywalna. Zatem jakość zarządzania portfelem w obu przypadkach jest praktycznie identyczna, pomimo że SR mówiłby co innego.


Literatura:
[1] Andrews D. W. K., An  Empirical  Process  Central  Limit  Theorem for  Dependent  Non-identically  Distributed Random  VariableJournal of Multivariate Analysis 38, 187-203 (1991);
[2] Barndorff-Nielsen, O.E., Normal Inverse Gaussian Distributions and Stochastic Volatility Modelling, Scandinavian Journal of Statistics, Volume 24, Issue 1, pages 1–13, March 1997;
[3] Hoeffding, W., Robbins H., The central limit theorem for dependent random variables,
Volume 15, Number 3 (1948), 773-780;
[4] Homm, U., Pigorsch, C., Beyond the Sharpe ratio: An application of the Aumann-Serrano index to performance measurement, April 7, 2012,
[5] Pratt, J. W., Risk Aversion in the Small and in the Large, Econometrica, Vol. 32, No. 1/2. (Jan. - Apr., 1964), pp. 122-136;
[6] Zakamouline, V. ; Koekebakker, S., Portfolio performance evaluation with generalized Sharpe ratios: Beyond the mean and variance, Journal of Banking & Finance, 22 August 2008.

Źródło danych statystycznych: stooq.pl.