wtorek, 4 października 2011

Czy analiza techniczna działa?

Znawcy analizy technicznej z powątpiewaniem czytają próby odpowiedzi na takie pytania. Jest to zrozumiałe, ponieważ AT stanowi tak rozległe narzędzie, że nie sposób odpowiedzieć na nie jednoznacznie. Można natomiast jednoznacznie odpowiedzieć czy sprawdzają się określone metody AT. W internecie znajdujemy artykuł z 2002 r. o buńczucznym tytule:

Does Technical Analysis Work?

Autorzy A. Yeung, M. T. Pankaj, N. Patel i S. S. Kim sprawdzają skuteczność wybranych metod, takich jak Bollinger Band (w oparciu o 20-dniową średnią kroczącą), Commodity Channel, Fibonnacci Retracement (Fibonacci Raw Score, Fibonacci Range Score), MACD, 5 Day Money Flow, 9 Day RSI, 14 Days Stochastics. Należy zwrócić uwagę na ograniczenia przestrzenne oraz czasowe badań. Badania objęły jedynie indeks S&P 500 w latach 1990-2002. Po uwzględnieniu kosztów transakcyjnych otrzymano wniosek, iż żadna z powyższych metod nie przyniosła ponadprzeciętnych zysków, za wyjątkiem wstęgi Bollingera. Przedstawiono rysunek:



Akurat wstęgę Bollingera darzę największym sceptycyzmem, o czym już kiedyś napomknąłem (Wstęga Bollingera - ujęcie praktyczne).

Tytuł posta jest oczywiście mało sensowny. Spotkałem już różne artykuły, w których konkludują, że niektóre narzędzia analizy technicznej, jak np. przecięcie się szybkiej i wolnej średniej kroczącej daje w niektórych sytuacjach możliwości zarabiania ponad przeciętną.

---------------------------------------------------------------------------

A co z tymi wsparciami i oporami, które atakowałem nazywając "złudzeniem"? Powiem tak, ciężko jest obiektywnie je sprawdzić. Są różnego rodzaju ograniczenia, jak np. jak szerokie okno w miejscach pojawienia się wsparcia/oporu zastosować? W swoich badaniach starałem się zachować okolice 3-4%. Jeśli kurs przebił ten poziom uznawałem, że wsparcie/opór pękł. Można wprowadzać wiele filtrów. Zgodnie z zasadą najważniejsze są trzy pierwsze punkty odbicia trendu - po nich trend może się prędzej załamać. Jeśli więc po dwóch wsparciach/oporach następuje trzecie odbicie na linii trendu, dopiero możemy mówić o tym, że linia trendu się zrealizowała. Należy więc zbadać czy w trzecim punkcie następuje odbicie, które jest istotą linii trendu. Stosowałem także metodę wachlarza. Przykład dla WIG:



Wynik dla WIG (od 1994) okazał się bardzo marniutki. Szukałem linii trendu co najmniej 2-miesięcznych. Zadawałem 4 pytania:

1. Czy odbija od wsparcia (linii trendu rosnącego)?
2. Czy jeśli przecina wsparcie, to przez jakiś czas (zakładałem przynajmniej ok. tydzień) podąża w tym kierunku?
3. Czy odbija od oporu (linii trendu spadkowego)?
4. Czy jeśli przecina opór, to przez jakiś czas (zakładałem przynajmniej ok. tydzień) podąża w tym kierunku?

Częstości dostałem następujące:

Ad 1) 0,5
Ad 2) 0,567
Ad 3) 0,32
Ad 4) 0,59

Istotność statystyczną wyliczałem w oparciu o schemat Bernoulliego. Dla WIG otrzymano brak istotności.

To badanie powtarzałem dla różnych dużych spółek,

Bank Polska Kasa Opieki:

Ad 1) 0,476
Ad 2) 0,667
Ad 3) 0,545
Ad 4) 0,636.

Bank Handlowy w Warszawie:
Ad 1) 0,32
Ad 2) 0,61
Ad 3) 0,35
Ad 4) 0,74

BRE Bank (od 1994):
Ad 1) 0,588 (20/34)
Ad 2) 0,667 (22/33)
Ad 3) 0,364 (12/33)
Ad 4) 0,53 (17/32)

KGHM:
Ad 1) 0,62
Ad 2) 0,70*
Ad 3) 0,42
Ad 4) 0,71*

Getin Holding:
Ad 1) 0,4 (6/15)
Ad 2) 0,6 (9/15)
Ad 3) 0,43 (6/14)
Ad 4) 0,57. (8/14)

Budimex:
Ad 1) 0,58
Ad 2) 0,667
Ad 3) 0,25
Ad 4) 0,583.

Spośród nich jedynie KGHM charakteryzował się niektórymi istotnymi prawdopodobieństwami empirycznymi. Zaznaczone gwiazdką to te istotne.

Należy jednak zwrócić uwagę, że próba dla KGHM objęła zaledwie ok. 30 obserwacji, podobnie dla WIG, a w przypadku wielu innych sporo mniej. Np. dla BHW brak istotności w p. 4 może wynikać z zaledwie 25 obserwacji. Wydaje się, że należy uznać częstość 74% za istotną. Być może przy większej próbce pojawiłaby się istotność, także dla samych "odbić", chociaż w to wątpię. Wsparcia i opory nie mogą raczej służyć do określenia czy w tych miejscach nastąpi odbicie - to czysty przypadek, a więc są w pewnym sensie złudzeniem. Jednakże jeśli nastąpi już to przebicie, to faktycznie sensowne jest zagrać pod zmianę trendu, choćby krótkoterminowego. Generalnie należy jeszcze przebadać mniejsze spółki.

Właśnie sprawdziłem Paged. Kurs spółki jest dość charakterystyczny, bo ma tendencje do spadania (czy też wyniki fin. spółki mają takie tendencje), a czasami potrafi potężnie wybić w górę:



Jak można się domyślić, danych dla pkt-ów 1 i 2 było bardzo mało (zaledwie 9) i częstości nie są istotne statystycznie, natomiast dla pkt-ów 3 i 4 otrzymano 18 danych, czyli też niewiele. Otrzymano następujące częstości:

Ad 1) 55,55% (5/9)
Ad 2) 66,67% (6/9)
Ad 3) 66,67% (12/18)
Ad 4) 72,2% (13/18)

Na oko (na podstawie wykresu) może się wydawać, że skuteczność przebicia linii trendu spadkowego jest spora. Ale pamiętajmy, że założenie dotyczyło poruszania się w kierunku odwrotnym do trendu przynajmniej przez tydzień ( min. 6 dni, nawet 5 jeśli były to spore ruchy) po przebiciu. Ponadto należy wziąć poprawkę na filtr 3-4% wokół linii trendu. A kurs nawet jeśli na chwilę wyszedł ponad linię, to zaraz powracał do niej i czasami dopiero potem znowu odbijał (od tej linii), co sprawia wrażenie, że technika działała. Ale nie było wiadomo, czy rzeczywiście trend się odwrócił. Dobrze widać taką zmyłę w październiku 2010, gdy kurs wybił z trendu spadkowego i wydawałoby się, że pójdzie dalej w górę, ale zatrzymanie wtedy akcji zakończyłoby się bardzo źle.

Drugą małą spółką jaką sprawdziłem jest Lubawa (od 1997 do środka 2011). Jest to typowa spółka mała, gdyż długo i mocno rośnie oraz długo i mocno spada:



Możliwe, że z powodu takich "przedłużonych" ruchów spółek małych, obserwacji jest bardzo mało. W tym przypadku dla każdego z 4-ch punktów poniżej 14. Nie ma sensu mówić oczywiście o istotności stat. Można jedynie przyjrzeć się samym częstościom:

Ad 1) 38,5% (5/13)
Ad 2) 69,2% (9/13)
Ad 3) 50% (6/12)
Ad 4) 40% (4/10)

Trzecią, tym razem średnią spółką, była Dębica (od 1994 do końca 2011):



Wyniki okazują się całkowicie "technicznie" rozczarowujące:

Ad 1) 27,3% (3/11)
Ad 2) 27,3% (3/11)
Ad 3) 31,25% (5/16)
Ad 4) 31,25% (5/16)

Ostatnią spółką jest MNI:



Ad 1) 33,33% (5/15)
Ad 2) 66,66% (10/15)
Ad 3) 43% (6/14)
Ad 4) 50% (7/14)

Zanim podsumuję analizę wsparć i oporów, przypomnę wpis Wsparcia i opory - kolejne złudzenie techników, w którym krytykowałem techników za wprowadzanie złudnych "wsparć" i "oporów" czy raczej linii trendu, stanowiących zwykłe złudzenie.

W istocie wydaje się, że linie trendu nie istnieją (przy założeniu, że trend powinien się utrzymywać co najmniej 2 miesiące) w tym sensie, że zrealizowanie się trzeciego punktu linii trendu jest czysto przypadkowe. Jednakże czym innym jest już przebicie tych obszarów - prawdopodobieństwo zmiany kierunku przynajmniej przez tydzień czasu po tym zdarzeniu jest stosunkowo wysokie (często ponad 55%). Niemniej jak na razie znalazłem tylko jedną spółkę - KGHM - której przebicia są istotne statystycznie. Jedna spółka na GPW to zdecydowanie za mało, by uznać takie narzędzie za obiektywnie opłacalne, choć należy pamiętać, że liczebność próbek w badaniu była bardzo ograniczona.

sobota, 24 września 2011

S&P500 i PKB USA jeszcze raz w zbliżeniu

Skupiając się na dziennych nerwowych zmianach indeksów giełdowych zapominamy często o szerszej perspektywie czasu sprzyjającej sprawdzaniu się prawidłowości statystycznych. Wklejam jeszcze raz wykres który już był trochę analizowany:



Są to roczne zmiany zmiennych. Ostatni rok to 2009, tj. stopa zwrotu dla tego roku obliczona została jako (wartość w styczniu 2010 / wartość w styczniu 2009) - 1. Przypomnę, że współczynnik korelacji liniowej wynosi 0,47. Warto dodać, że współczynnik korelacji rang Spearmana wynosi też 0,47, a tau Kendalla 0,33. Takie wyniki otrzymałem na podstawie danych z http://www.multpl.com/. Zastanawia czemu dane o PKB pobrane z http://www.bea.gov/ nie odpowiadają tym korelacjom. Porównałem z tej strony nominalne tym razem wielkości PKB z danymi SP500 ze Stooq.pl. Okazuje się, że nie ma żadnej korelacji pomiędzy tymi zmiennymi zarówno Pearsona jak i Spearmana i tau Kendalla. To się okazało dziwne i sądziłem, że błąd gdzieś leży w przesunięciach okresu. Przesunąłem zmiany SP500 o jeden okres w tył. Okazało się, że korelacja Pearsona tym razem istnieje i wynosi 0,39 (Spearmana 0,3, Kendalla 0,19). Jednak nie rozumiem czemu tak sie dzieje. Te obliczenia dowodziłyby, że roczne zmiany indeksu wyprzedzają roczne zmiany PKB. Wykres dostałem taki:



Ostatni rok to tym razem 2010. Stopa zwrotu dla tego roku obliczona została jako (wartość na końcu 2010 / wartość na końcu 2009) - 1.

Na zmiany PKB ze strony http://www.bea.gov/ możemy popatrzeć z różnej perspektywy, np. roczne zmiany o kroku kwartalnym mają od 2003 do dziś następujący przebieg:



Obserwacje tej zmiennej w okresie od początku 2q 1947 do końca 2q 2011 charakteryzują się silną autokorelacją liniową 1 rzędu, wynoszącą 0,372; a także 2 rzędu 0,2155. Długoterminowa autokorelacja z kolei nie występuje (możliwe z powodu zbyt małej liczby obserwacji), za wyjątkiem wariancji, dla której pochodna ułamkowa = 0,266. Niezależnie występuje także efekt GARCH i FIGARCH. Poniższy wykres warunkowej wariancji wizualnie daje to odczuć:



Skoro szacunki za 2q wskazują na delikatną poprawę wzrostu PKB i jeśli nie zostaną one zmienioną in minus, będziemy prawdopodobnie mieć do czynienia również z poprawą PKB w 3q. Będzie więc szansa na odbicie giełdy. Wariancja warunkowa znajduje się na stosunkowo niskich poziomach, zatem nie należy oczekiwać w najbliższym czasie nagłego załamania gospodarki, jakim nas karmią media.

środa, 7 września 2011

Bombowa giełda (i trochę o pochodnej ułamkowej)

Kilka tygodni temu światowym giełdom, w tym oczywiście naszej, przydarzyła się "mała" katastrofa, która zmiotła z powierzchni ziemi ostatni rok hossy:



Małe spółki zostały natomiast kompletnie zmiażdżone, bo sierpniowa hekatomba zniosła niemal cały dwuletni rynek byka:



I co najlepsze, wczoraj znowu giełda panicznie spadała.

Najważniejsze na dziś pytanie brzmi czy to co się stało i dzieje nadal to jedynie mocny:

TEST BOMBY

Niezależnie od tego czy mamy do czynienia jedynie z testem czy faktyczną bessą, dopóki giełda będzie podlegała długozasięgowym, nieliniowym autokorelacjom, krach będzie miał daleki wpływ na przyszłość. Ale czy rzeczywiście nasza giełda podlega takim prawom pamięci? Znanym wskaźnikiem występowania pamięci długoterminowej jest wykładnik Hursta. W rzeczywistości metoda jego obliczania powinna być odpowiednio zmodyfikowana dla rozkładu Levy'ego lub przynajmniej t-Studenta. Możemy przecież sobie wyobrazić co się dzieje, gdy następuje potężna fala spadkowa niemożliwa do uzasadnienia dla rozkładu Gaussa. Nawet jeśli fala ta była całkowicie przypadkowa, a po niej kolejne zmiany będą także całkowicie przypadkowe, to całkowity ruch (fala spadkowa + dalsze zmiany) będzie większy niż dla r. Gaussa.

Zamiast obliczać wykładnik Hursta można obliczyć pochodną ułamkową związaną z modelem ARFIMA. ARFIMA(p,d,q) jest uogólnieniem ARIMA(p,d,q). W przypadku ARIMA rząd różnicowania d jest liczbą całkowitą, natomiast w ARFIMA jest liczbą rzeczywistą. Jeśli pochodna ułamkowa d zawiera się w przedziale (0,1/2), mamy do czynienia z pamięcią długoterminową dla procesów stacjonarnych. Jeśli d jest w przedziale (-1/2,0), proces jest antypersystentny. Pochodna ułamkowa jest ściśle związana z wykładnikiem Hursta o czym już tutaj kiedyś dokładnie pisałem.

Drugi problem jest taki, że w danych może jeszcze siedzieć wariancja o pamięci długoterminowej (lub anty-długiej). Proces taki w połączeniu z GARCH nazywa się FIGARCH. Jeśli pochodna ułamkowa znajdzie się w przedziale (0,1/2), pamięć jest "długa" dla stacjonarnych procesów. Jeśli w procesie pojawiła się duża wariancja, to będzie ona "zapamiętana", tak że w przyszłości także będzie się pojawiać. Jeśli w przedziale (-1/2,0) - pamięć jest "anty-długa". Należy wtedy się spodziewać, że po dużej wariancji przyjdzie mniejsza.

Dwa opisane procesy można połączyć w jeden. Nazywa się wtedy ARFIMA-FIGARCH.

Pochodna ułamkowa jest narzędziem matematycznym używanym w różnych dziedzinach, np. do opisu własności mechaniki kwantowej. Z wikipedii:

Stan splątany — rodzaj skorelowanego stanu kwantowego dwóch lub więcej cząstek lub innych układów kwantowych. Posiada on niemożliwą w fizyce klasycznej cechę polegającą na tym, że stan całego układu jest lepiej określony niż stan jego części.


I tak np. dwie cząstki znajdujące się w dowolnie odległych od siebie miejscach we wszechświecie mogą być od siebie zależne, stanowić jeden układ. Jest to typowa dla mechaniki kwantowej nielokalność, z którą w żaden sposób nie mógł się pogodzić Einstein, i którą nazywał on „tajemniczym działaniem na odległość”.

Przykład ten dobrze ilustruje na czym polega "długa" pamięć. Czas nie jest ograniczeniem, podobnie jak dla tych cząstek ograniczeniem nie jest przestrzeń. Dane stanowią w pewnym sensie jeden układ. Oczywiście jest to tylko pewna ilustracja, gdyż procesy które omawiamy są stochastyczne.

Dane objęły lata połowa 1994-połowa 2011. Badanie sprawdzało hipotezę istnienia ARFIMA-FIGARCH dla rozkładu t-Studenta w indeksach WIG i sWIG80.
Okazuje się, że to czy w naszych danych znajdziemy długą pamięć w stopach zwrotu zależy od tego który WIG badamy.

Dla indeksu szerokiego rynku, w dziennych stopach zwrotu nie znajdziemy długiej pamięci zarówno dla nich samych jak i ich wariancji. Jednak tygodniowe stopy zwrotu, choć same nie zawierają długiej pamięci, to ich wariancje już tak - wynosi ona 0,72. Ponieważ jest to więcej niż 0,5, to znaczy, że wariancje te są niestacjonarnym procesem.

Dla indeksu małych spółek (sWIG80) sytuacja przedstawia się interesująco. Dzienne stopy zwrotu posiadają istotną długą pamięć, gdzie d = 0,113. Zwrócę tylko uwagę, że wartość d jest niezależna od zwykłego AR (AR1 równa się tu 0,06, jest istotny). AR to autoregresja liniowa. Długa pamięć nie jest liniowa i nie jest wyrażona w parametrach regresji. Długa pamięć występuje również w wariancjach i wynosi 0,17.
Jeszcze ciekawsze wyniki dostajemy dla tygodniowych danych. W stopach zwrotu długa pamięć równa się ok. 0,174, zaś w wariancjach 0,196.

Armageddon jaki mieliśmy okazję oglądać będzie miał istotne negatywne konsekwencje dla małych spółek w bliższej i dalszej przyszłości, zarówno pomiędzy dziennymi jak i tygodniowymi obserwacjami. Oczywiście sWIG80 będzie się zachowywał podobnie jak WIG, lecz długość ruchu może mieć "własną". Z drugiej strony należy jednak pamiętać, że każdy dodatni impuls będzie również się kumulował i po jakimś czasie ujemny może zostać całkowicie zniwelowany.

Długa pamięć stóp zwrotu może być również znakiem dla analityków technicznych, mianowicie po przebiciu linii trendu (wsparcia/oporu) kurs z większym prawdopodobieństwem będzie poruszać się przez jakiś czas w nowym kierunku. Można postawić hipotezę, że AT wsparć i oporów lepiej nadaje się do wykresów akcji małych spółek. Należy jednak przy tym pamiętać, że indeks nie odzwierciedla pojedynczych akcji.

czwartek, 1 września 2011

Korelacja nieparametryczna jako narzędzie wykrywania trudnych korelacji

Spójrzmy na poniższy wykres rozrzutu obrazujący relację pomiędzy rocznymi procentowymi zmianami nominalnego zysku SP 500 (tj. zysku firm ważonego proporcjonalnie do ich kapitalizacji w indeksie SP 500) - pionowo, a rocznymi procentowymi zmianami nominalnego PKB USA - poziomo, w okresie od 1q 1989 do 4q 2010, z krokiem równym 1 kwartał (tj. odległość pomiędzy dwiema obserwacjami wynosi 1 kwartał):



(Ponieważ zastosowano tutaj kwartalny krok obserwacji, zależność przedstawia się trochę inaczej niż dla kroku rocznego, jaką można było obserwować w poprzednich dwóch postach. Grafika wskazuje bowiem większą zależność dodatnią.)

Pomimo, że korelacja nie odznacza się dużą siłą, niemniej intuicyjnie wydaje się, iż ona istnieje. Okazuje się jednak, że współczynnik korelacji Pearsona wynosi jedynie 0,15 i jest nieistotny statystycznie. Podobnie regresja liniowa jest nieistotna.

Powstaje pytanie czy graficzna korelacja stanowi złudzenie czy też współczynnik korelacji Pearsona zawodzi? Pytanie to jest trochę filozoficzne, bo w statystyce/ekonometrii podobnie jak w naukach mniej ścisłych dużą rolę odgrywa interpretacja. Wiele punktów leży na linii poziomej i za nachylenie dużą odpowiedzialność biorą obserwacje odstające. Z drugiej strony nawet jeśli w umyśle usuniemy te odstające, nadal widzimy, że lekka dodatnia korelacja występuje. Dlaczego więc współczynnik korelacji Pearsona zawodzi? Dzieje się tak prawdopodobnie z powodu występowania kilku obserwacji odstających (druga możliwość to zbyt niskie nachylenie). Przypomnijmy, że korelacja Pearsona jest liniowa, a więc zbyt odległe obserwacje lub nadmiar obserwacji odstających psuje średni rozkład obserwacji wokół linii prostej (tj. wokół wartości oczekiwanej), tak że następuje sztuczne zaniżenie korelacji.

Problem obserwacji odstających w analizie korelacji został już dawno temu zauważony przez badaczy, m.in. Charlesa Spearmana, który zaproponował, aby w trudnych przypadkach (korelacji niskiej jakości) wykonać najpierw tzw. rangowanie, czyli zastąpienie każdej zaobserwowanej wartości przez jej numer w zbiorze posortowanym rosnąco, a następnie obliczyć zwykły współczynnik korelacji liniowej Pearsona z tych rang. W ten sposób powstał współczynnik korelacji rang Spearmana, który przekształca monotoniczną zależność nieliniową w liniową. W wikipedii zostało to zilustrowane filmikiem:

Współczynnik korelacji rang Spearmana

Współczynnik korelacji rang Spearmana zawiera się oczywiście w przedziale <-1,1>, bo jest to po prostu współczynnik korelacji Pearsona dla rang zmiennych.

Warto zauważyć, że korelacja rang Spearmana może być użyta także do obliczania korelacji pomiędzy zmiennymi jakościowymi, których obserwacje można porangować. Np. mamy dwie zmienne - pierwsza to jakość usług danej firmy, druga to rentowność netto (zysk netto podzielony przez przychód, czyli mówiąc krótko mierzy ile przychód generuje zysku). Firm mamy tyle co obserwacji. Rangujemy dane pierwszej zmiennej:

*niska jakość usług (firmy A) - 1,
*wyższa jakość (firmy B) - 2,
*wysoka jakość (firmy C) - 3,
*bardzo wysoka jakość (firmy D) - 4

Mamy ustawienie rang:
1,2,3,4

Rangujemy dane drugiej zmiennej - rentowność netto wyrażoną w procencie:
*do x1% - 1,
* do x2% - 2,
* do x3% - 3
* do x4% - 4

Obserwacja wskazała, że firmie o niskiej jakości (1) odpowiadała niska marża (1). Firmie o wyższej jakości (2) odpowiadała marża (3) (a nie 2). Wysokiej jakości (3) odpowiadała marża (2). Bardzo wysokiej jakości (4) towarzyszyła marża (4). Wynika z tego, że ustawienie rang dla drugiej zmiennej jest następujące:

1,3,2,4

Porównujemy ustawienia rang:

1,2,3,4
1,3,2,4

Rzecz się sprowadza do odejmowania rang: 1-1 = 0, 2-3 = -1, 3-2 = 1, 4-4 = 0. Każdą różnicę podnosimy do kwadratu, stąd otrzymujemy:

0, 1, 1, 0

Sumujemy je, czyli suma = 2.

Wzór na korelację Spearmana (najczęściej stosowany) sprowadza się do postaci:



gdzie d - to różnica pomiędzy odpowiednimi rangami, n - liczba obserwacji

Czyli

R = 1 - 6*2/60 = 0,8.

Sprawdzamy więc jak rangi obydwu zmiennych do siebie pasują. Jeśli rangi jakości usług będzie odpowiadać proporcjonalnie rangom marży, czyli 1-1, 2-2 itd. wówczas wykres rang będzie nachylony pod kątem 45 stopni, co oznacza korelację równą 1. Jeśli rangi będą ustawiać się odwrotnie proporcjonalnie, wówczas korelacja wyniesie -1. Stopień dopasowania rang to właśnie korelacja rang Spearmana.

W naszym przypadku (stopa wzrostu zysku SP 500 vs. stopa wzrostu PKB USA) korelacja Spearmana wynosi 0,358 i jest istotna statystycznie.

Należy zauważyć, że, jak sama nazwa wskazuje, jest to korelacja rang a nie samych zmiennych. Rangi są pewną ideą, przekształceniem wartości zmiennych. Jest to więc koncepcja intuicyjna, ale nie jedyna możliwa.

Drugą znaną miarą korelacji rangowej (czyli zastępującą bezpośrednią korelację zmiennych) jest mniej intuicyjna tzw. Tau Kendalla. Miara opiera się na ustawieniach rang. Weźmy poprzedni przykład ze zmienną "jakość usług" oraz "marża netto". Mamy następujące rangi dla pierwszej zmiennej:

*niska jakość usług (firmy A) - 1,
*wyższa jakość (firmy B) - 2,
*wysoka jakość (firmy C) - 3,
*bardzo wysoka jakość (firmy D) - 4

Jest więc ustawienie rang:
1,2,3,4

Możemy to ustawienie rang zdekomponować w pary w następującej kolejności:

P1 = {[1,2], [1,3], [1,4], [2,3], [2,4], [3,4]}

Ustawienie to nazywamy ustawieniem par rang.

Rangi dla drugiej zmiennej:
*do x1% - 1,
* do x2% - 2,
* do x3% - 3
* do x4% - 4

Analiza wskazała, że firmie o niskiej jakości (1) odpowiadała niska marża (1). Firmie o wyższej jakości (2) odpowiadała marża (3) (a nie 2). Wysokiej jakości (3) odpowiadała marża (2). Bardzo wysokiej jakości (4) towarzyszyła marża (4). Wynika z tego, że ustawienie rang dla drugiej zmiennej jest następujące:

1,3,2,4

Możemy to ustawienie zdekomponować w pary, czyli w ustawienie par, w następującej kolejności:

P2 = {[1,3], [1,2], [1,4], [3,2], [3,4], [2,4]}

Porównajmy obydwa ustawienia par:

P1 = {[1,2], [1,3], [1,4], [2,3], [2,4], [3,4]}
P2 = {[1,3], [1,2], [1,4], [3,2], [3,4], [2,4]}

Odejmujemy od siebie te pary, które są identyczne. Jak widać są tylko dwie pary które nie są identyczne. Są to:

[2,3],[3,2]

Różnica to 2 pary. Ponieważ wzór na Tau Kendalla jest następujący:



gdzie P1 to po prostu ustawienia par dla zmiennej 1, podobnie P2, d to ich różnica oraz N to liczba obserwacji, więc tau Kendalla wynosi:



Jest więc niższy niż R Spearmana.

Im więcej różnic pomiędzy ustawieniami par, tym mniejsza korelacja. Warto zauważyć, że w metodzie tej tworzymy kombinacje ustawień par, a więc tau Kendalla może być rozpatrywane w kategoriach prawdopodobieństwa. Wiemy, że entropia układu jest tym większa im więcej istnieje możliwości ustawień zmiennych. Dokładniej ujmując, współczynnik tau Kendalla opiera się na różnicy między prawdopodobieństwem tego, że dwie zmienne układają się w tym samym porządku w obrębie obserwowanych danych a prawdopodobieństwem, że ich uporządkowanie się różni.

W naszym przypadku korelacja tau Kendalla pomiędzy zmianami zysku SP 500 a zmianami PKB wynosi 0.238 i jest istotna statystycznie. Jednakże znów jest niższy niż R Spearmana. Prawdopodobieństwo, że zmienne będą leżeć w tym samym porządku nie jest zbyt wielkie.

Inną jeszcze miarą korelacji rangowej jest tzw. gamma. Pod względem interpretacji i obliczania jest bardziej podobna do współczynnika tau Kendalla. Krótko mówiąc, współczynnik gamma opiera się również na prawdopodobieństwie, tyle że jest zalecany w przypadkach, gdy dane zawierają wiele powiązanych obserwacji (tzn. obserwacji o takich samych wartościach).

W rozpatrywanym przykładzie korelacji zmian zysków SP 500 i zmian PKB gamma wynosi 0,256 jest również istotna.


Ponieważ koncepcja korelacji rangowej sama w sobie nie zakłada znajomości rozkładu i parametrów rozkładu analizowanych zmiennych, dlatego też metody korelacji rangowych nazywane są nieparametrycznymi. W przypadku korelacji Pearsona wariancja i wartość oczekiwana muszą być znane. Stąd należy do korelacji parametrycznych. Jak dobrze wiemy samo określenie wariancji może być zgubne dla rozkładów rynków finansowych. Tak więc korelacji nieparametrycznych można używać w wielu przypadkach: gdy mamy do czynienia z obserwacjami silnie odstającymi, gdy rozkład posiada nieskończoną wariancję (brak rozkładu normalnego) oraz dla zmiennych jakościowych.

Literatura:

1. Hervé Abdi, The Kendall Rank Correlation Coefficient, 2007
2. http://www.statistica.pl
3. http://pl.wikipedia.org/wiki/Wsp%C3%B3%C5%82czynnik_korelacji_rang_Spearmana

P.S. Bieżąca analiza niezbicie dowodzi, że zyski firm z indeksu i PKB są skorelowane, zatem fakt, iż giełda silnie reaguje na dane makroekonomiczne można uznać za racjonalne. Pytanie czy reakcja nie jest zbyt gwałtowna pozostaje na razie otwarte.

poniedziałek, 22 sierpnia 2011

Przeklęta statystyka... zyski a PKB

Liczbom nie wolno ufać. A testom statyst. to już w ogóle. Test korelacji stopa zmian zysku SP 500 a stopa zmian PKB USA najpierw wskazywał, że dla lat 1929-2009 korelacja liniowa wynosi 0,24 i jest istotna. Potem jednak zrobiłem jeszcze raz ten test i się okazało, że wynosi tylko 0,09 i nieistotna. Ale jak to możliwe, że taka różnica powstała? Gdzie błąd zrobiłem? ... No i już wiem. Pierwszy raz test obejmował o jedną obserwację mniej - bez roku 2009. Za drugim razem starałem się dokładniej przeprowadzić test i uwzględniłem 2009. Okazało się, że jedna obserwacja wszystko zmieniła. Dlaczego? To był jeszcze kryzys. W styczniu 2009 roczny zysk wyniósł 13,06. W styczniu 2010 skoczył już do 56,6. To oznaczało stopę wzrostu 333%. Zresztą widać było na załączonym rysunku ostatnie potężne odchylenie (czerwone - stopy zmian zysku, zielone - stopy zmian PKB):



Ta jedna obserwacja zaburzyła cały obraz i zaciemniła korelację. Bez niej macierz korelacji wygląda następująco:



I teraz korelacja wynosi faktycznie 0,24 (i jest istotna). Zresztą nawet wykres stóp obu zmiennych pokazuje pewną zależność, której chyba nie chciałem wcześniej widzieć (tak uwierzyłem liczbom). Regresja liniowa przedstawia się następująco:

-----------------------------------------------------------------------------
Standard T
Parameter / Estimate / Error / Statistic / P-Value
-----------------------------------------------------------------------------
Constant / -0,00353177 / 0,0268156 / -0,131706 / 0,8956
Zmiana% GDP / 0,887495 / 0,405884 / 2,18657 / 0,0318
-----------------------------------------------------------------------------

Bardziej prawidłowy jest jednak model GARCH (dla t-Studenta):

Variable / Coefficient / St. Error / t-statistic / Sign.
1 Constant / 0.0083799675 / 0.021785467 / 0.3846586124 / [0.7016]
2 Zmiana% GDP /0.7179373154 / 0.3551595659 / 2.0214500309 / [0.0468]
3 %arch_const / 0.0017132208 / 0.0011404797 / 1.5021932245 / [0.1373]
4 %garch1 / 0.8917281024 / 0.0581302536 / 15.340172237 / [0.0000]


Wynika z tego, że

E(Stopa zmian zysku SP 500) = 0.72*stopa zmian PKB

Parametr = 0,72 dowodzi, że powyższy model kiepsko wyjaśnia zmienność zysku SP500. W końcu gdy popatrzymy na wykres, to zysk silniej zmienia się niż PKB. Rzeczywiście - współczynnik determinacji to zaledwie 5,47%. Na zysk wpływają więc inne zmienne, których warto byłoby poszukać.

Ponieważ teraz zmienne są od siebie zależne, to nie można konstruować regresji wielorakiej tak jak w poprzednim wpisie ze zmienną objaśnianą jako stopa zwrotu SP 500 i zmiennymi objaśniającymi jako zmiany zysku i PKB (i wygląda na to, że tamta była nieprawdziwa). Oczywiście da się to rozwiązać, ale teraz nie jest to najważniejsze.

Z drugiej strony tym wynikom też nie należy zbyt ufać. Od roku 1933 do 2008 korelacja staje się znów nieistotna.

Podsumowując, trzeba zachować dystans do statystyki. Wygląda na to, że jednak giełda nie jest aż tak nieracjonalna jak sądziłem. Wprawdzie korelacja pomiędzy zmianą PKB a zmianą zysku SP 500 nie jest wielka, ale jednak istnieje, jeśli tylko odjąć dane odstające (co jednak ciągle jest moim zdaniem kontrowersyjne). Wynikałoby z tego, że jeśli rok 2011 upłynie pod znakiem niskiego wzrostu PKB możemy liczyć także w tym roku na niższe wzrosty zysków giełdowych firm. Oby nie był to spadek PKB.

Ale nowy problem się pojawił: gdyby korelację zacząć od 1933 r. to znów staje się nieistotna. Statystyka nie daje więc jednoznacznej odpowiedzi czy istnieje korelacja liniowa. Wygląda na to, że trzeba będzie poszukać bardziej złożonych związków lub faktycznie takowego nie ma.

piątek, 19 sierpnia 2011

Czyżby giełda była nieracjonalna?

Roczne stopy zwrotu z amerykańskiego indeksu SP 500 są silnie dodatnio skorelowane z rocznymi procentowymi zmianami PKB USA. Logiczne jest, że aby taka korelacja była racjonalna, zmiany zysków giełdowych firm muszą być dodatnio skorelowane ze zmianami PKB. W poprzednim wpisie stwierdziłem:

Ściślej, w latach 1929-2009 korelacja rocznych zmian zysku i PKB wyniosła 0,2349. Dla lat 1933-2009 spada ona jednak do 0,166 i staje się nieistotna statystycznie.

Jednak ponieważ powstała taka niejednoznaczność, zbadałem te relacje dokładniej dla lat 1929-2009. Ponadto, wierząc, że ta dodatnia korelacja jednak istnieje, miałem zadanie stworzyć regresję liniową z tych zmiennych. Jakie doszło do mnie zdziwienie, gdy się okazało, że tej korelacji nie ma!

Nie ma żadnej istotnej korelacji pomiędzy rocznymi zmianami zysku firm z indeksu SP 500, a rocznymi zmianami amerykańskiego PKB. (1929-2009). Korelacja wynosi 0,09 - nieistotna stat. Oto macierz tej korelacji:



Gdyby istniała dodatnia korelacja, powinniśmy dostać relację w formie liniowej funkcji rosnącej. (Dla ujemnej malejącą).

Poniżej ich wykresy w l. 1929-2009 (zielone - zmiany PKB, czerwone - zmiany zysku):



Z kolei tak wygląda korelacja pomiędzy rocznymi stopami zwrotu indeksu SP 500 a rocznymi stopami zmian PKB USA (ten sam zakres danych):



Jest silna - wynosi 0,47.

A tak kształtowały się stopy zwrotu z SP 500 (czerwone) i zmiany PKB (zielone)



Skoro jednak korelacja pomiędzy zmianami zysku SP 500 a zmianami PKB nie występuje, a jednocześnie korelacja zmiany SP 500 - zmiany PKB występuje, to czy w ogóle występuje korelacja zmiany SP 500 - zmiany zysku SP 500? W poprzednim wpisie stwierdziłem, że ta korelacja istnieje, choć nieduża. Jeszcze raz zbadałem dla lat 1929-2009. Faktycznie istnieje, dostałem wartość 0,25. Ale takiej macierzy korelacji się nie spodziewałem:



Okazuje się, że korelacja 0,25 to niemal złudzenie, gdyż powoduje ją głównie jeden element mocno odstający. Co więcej, dla lat 1933-2009 korelacja ta już staje się teoretycznie nieistotna.

Na poniższym rysunku obserwujemy zależność obu zmiennych w l. 1929-2009, czyli stopy zwrotu SP 500 (czerwone) oraz zmiany zysków SP 500 (zielone)



Model regresji liniowej wskazuje jednak, że istnieje istotna relacja:

Stopa zwrotu SP 500 = 0,026633 + 0,10976*Stopa zmian zysku SP 500

Przy czym stała jest nieistotna, zaś standard error (odchylenie standardowe) dla parametru stopy zmian zysku SP 500 wynosi 0,048. Ponadto

R^2 = 6,119%
R^2 (adjusted for d.f.) = 4,93%

Zdecydowanie zbyt niskie R^2 potwierdza poniższy obrazek, gdzie widać, że owa relacja to niemalże złudzenie (to samo co wyżej tylko powiększone)



Dla porównania, regresja liniowa stóp zwrotu SP 500 i zmian PKB przedstawia się następująco:

Stopa zwrotu SP 500 = -0,0148286 + 1,53355*Stopa zmian US GDP

Przy czym stała jest nieistotna, zaś standard error (odchylenie standardowe) dla parametru stopy zmian zysku US GDP wynosi 0,324. Ponadto

R^2 = 22,12%
R^2 (adjusted for d.f.) = 21,14%



Jest jeden plus tego, że zmiany zysku SP 500 i zmiany PKB są nieskorelowane. Mianowicie można próbować stworzyć regresję wieloraką, która właśnie wymaga, aby zmienne objaśniające były od siebie wzajemnie niezależne. Regresja wieloraka umożliwia połączyć pojedyncze regresje w jeden spójny model. Zmienną objaśnianą oczywiście byłyby stopy zwrotu SP 500. Otrzymana funkcja regresji to

Stopa zwrotu SP 500 = -0,018827 + 0,0910764*Stopa zmian zysku SP 500 +
1,47109*Stopa zmian US GDP


Pełna statystyka tego modelu jest poniżej

-----------------------------------------------------------------------------
Standard T
Parameter Estimate Error Statistic P-Value
-----------------------------------------------------------------------------
CONSTANT -0,018827 0,0209038 -0,90065 0,3705
Zmiany% zysku SP500 0,0910764 0,0433199 2,10242 0,0387
Zmiany% US GDP 1,47109 0,318334 4,6212 0,0000
-----------------------------------------------------------------------------

R^2 = 26,3%
R^2 (adjusted for d.f.) = 24,4%
SE = 0,164
MAE = 0,122
Durbin-Watson statistic = 1,69738 (P=0,0729)
ARCH(1) in the error: Chi^2(1) = 9.502633 [0.0021]

Jak widać efekt ARCH(1) jest istotny, zatem powinniśmy użyć modelu ARCH lub GARCH.
Dla rozkładu Gaussa (normalność nie została odrzucona w teście) oto co dostałem

Stopa zwrotu SP 500 = -0.0236 + 0.0844*Stopa zmian zysku SP 500 +
1.903*Stopa zmian US GDP


Variable / Coefficient / St. Error / t-statistic / Sign.
1 Constant / -0.0195765692 / 0.0161692291 / -1.2107299063 / [0.2299]
2 Zmiany% zysku SP500 / 0.0840991811 / 0.0464795795 / 1.8093791295 / [0.0745]
3 Zmiany% US GDP / 1.8874096009 / 0.2669705282 / 7.0697301818 / [0.0000]
4 %arch_const / 0.0228298854 / 0.0078681976 / 2.9015394007 / [0.0049]
5 %arch1 / 0.412844619 / 0.1955934408 / 2.1107283426 / [0.0382]
6 %garch1 / -0.2899308775 / 0.2162188358 / -1.3409140623 / [0.1841]


R^2 = 24.270465148%
S.E. = 0.1662718341

Model nie uległ poprawie.

Jakie więc wnioski? Czy giełda zachowuje się nieracjonalnie skoro zyski firm są kompletnie nieskorelowane ze zmianami PKB, a jednocześnie giełda reaguje silnie na zmiany PKB? Obecnie wniosek powstaje następujący. Giełda reaguje zbyt nerwowo na zmiany PKB i potwierdza do pewnego stopnia swoją nieracjonalność. Aby w pełni się z tym zgodzić powinniśmy jeszcze sprawdzić co się dzieje w poszczególnych kwartałach: czy kwartalne zmiany PKB i zysków są trochę skorelowane? Zwrócę też uwagę, że wszystkie zmienne, którymi operowałem w tym wpisie: indeks SP 500, zysk SP 500 oraz PKB USA były wyrażone w wielkościach realnych i brane ze strony: http://www.multpl.com/us-gdp-inflation-adjusted/ . Nie jest wykluczone, że istotne różnice pojawiłyby się przy wartościach nominalnych. Na razie należy skonkludować, że giełda jest po pierwsze nadreaktywna na otoczenie, po drugie prawie w ogóle nie reaguje na roczne zmiany własnego zysku. Krótko mówiąc jest za bardzo spekulacyjna, a za mało "inwestycyjna".

Ale właściwie czy może być to zaskakujący wniosek? Nasza polska giełda robi właściwie to samo, tylko jeszcze gorzej, bo bezmyślnie powtarza każdy ruch giełdy z Ameryki.

.......................................................................

Dodane 22.08.2011:

Jeszcze raz zrobiłem testy, które opisałem w następnym poście. Okazuje się, że w rzeczywistości to statystyka trochę kłamie, a giełda nie okazuje się wcale tak bardzo nieracjonalna (korelacja zmiany zysku - zmiany PKB istnieje). Nadal jednak związek wydaje się być zbyt chwiejny.

piątek, 29 lipca 2011

Wycena S&P 500 - gdzie jesteśmy?

W poprzednim artykule przedstawiłem model wyceny akcji nazwany Uogólnionym modelem Grahama-Dodda (UMGD). Tak jak stwierdzono, model jest trudny w użytkowaniu (ogólnie DCF jest trudny do sporządzenia), niemniej należy pokazać przykład jego użycia. Wydaje się, że najbardziej wiarygodną wycenę sporządzę dla indeksu amerykańskiego S&P 500, gdyż historyczne dane będą mogły posłużyć bez problemu do najtrudniejszej zdaje się części - wartości rezydualnej.

Ostatnio groza padła na rynki akcji, tak że indeks się nieco osunął:



I jak to zwykle bywa, pojawiają się głosy: czy to początek bessy? Wiele ostatnich danych makroekonomicznych nie napawa optymizmem. Porównajmy jak zmienia się ostatnio realny PKB w USA (w ujęciu annualizowanym):

1 kw. 2010 +3,7%
2 kw. 2010 +1,6%
3 kw. 2010 +2,5%
4 kw. 2010 +2,3%
1 kw. 2011 +0,4%

Jednocześnie gospodarkę USA straszy widmo niewypłacalności kraju. Dług USA wynosi obecnie ok. 14,3 bln dol. W raporcie CBO (Kongresowe Biuro Budżetu):

czytamy z kolei:

Niższe wpływy z podatków i wyższe wydatki budżetu federalnego na walkę ze spowolnieniem gospodarczym spowodują wzrost długu publicznego USA do 62 proc. na koniec roku.

Do 2020 roku dług ma wzrosnąć według CBO do 87 proc. PKB, jeśli przedłużone zostaną obniżki podatków wprowadzone za prezydentury George'a W. Busha.


Temat zadłużenia państwa jest jednak złożony, więc go zostawmy.

Zmiany PKB USA nie są tożsame ze zmianami zysku netto indeksu S&P 500, choć są trochę skorelowane. Ściślej, w latach 1929-2009 korelacja rocznych zmian zysku i PKB wyniosła 0,2349. Dla lat 1933-2009 spada ona jednak do 0,166 i staje się nieistotna statystycznie. Wobec tego można powiedzieć pół na pół. Dla ciekawostki sprawdziłem także korelację pomiędzy zmianami samego indeksu a PKB. Okazała się bardzo silna. Dla lat 1929-2009 wyniosła 0,477. Dla lat 1933-2009 nieco spadła i wynosi 0,39. Innymi słowy, jeśli przewidzimy na dany rok siłę zmiany PKB, to przewidzimy z dość dużą szansą zmianę SP500. Dodatkowo zbadałem co się dzieje pomiędzy zmianami zysku SP 500 a zmianami tego indeksu. Korelacja wyniosła (1929-2009) 0,258 i jest także istotna statystycznie, ale (1933-2009) 0,203 i leży na granicy istotności.

Na koniec przyjrzałem się jeszcze jednej - ale równie ważnej kwestii, mianowicie czy inwestorzy przewidują przyszłe zmiany zysku i PKB. I tu niespodzianka. Owszem inwestorzy przewidują zmianę zysku - jest ona skorelowana ze zmianą indeksu z okresu poprzedniego (korelacja gdzieś między 0,2 a 0,3). Ale inwestorzy już nie zwracają uwagi na przyszły PKB - zmiany PKB są nieskorelowane ze zmianą indeksu z okresu poprzedniego. Przyszły PKB z kolei jest zbyt mglisty dla inwestorów.

Nam zależy na poprawnym oszacowaniu zysku netto na akcję (EPS) dla SP500, tempa wzrostu tego zysku oraz rentowności kapitału własnego. Wiemy już, że jeśli wzrost PKB osłabnie, to wzrost zysku SP500 niekoniecznie osłabnie, choć trochę może. Dodatkowo należy ocenić jak zmiana zysku wpływa na kolejną zmianę w czasie (czyli autokorelacje). Najlepiej prognozować zmiany za pomocą jakiegoś modelu regresji. Niestety zwykła wieloraka regresja liniowa ani też GARCH nie do końca radzą sobie z modelem. Rocznych obserwacji od 1933 jest niewiele, co stanowi sporą przeszkodę i zapewne lepiej byłoby zgęścić dane do kwartalnych. Trudno się jednak na to zgodzić, bo my prognozujemy roczne zmiany. Regresja pojedyncza przynosi już istotne statystycznie wyniki. Pomiędzy kolejnymi zmianami zysku nie występuje żadna liniowa korelacja, lecz AR(1) daje istotne wyniki, jak również GARCH(1).

Poniżej przedstawiono kolejne poziomy zysku indeksu od 2000 r.:



Łatwo zauważyć, że zmiany zysku są łagodne - jest to zasługa silnych miesięcznych autokorelacji (prawie 0,7). Należy jednak pamiętać, że roczna autokorelacja liniowa zmian zysku jest tutaj co najwyżej złudzeniem (i to każdego rzędu). Niemniej na 3 wykonane testy losowości dla okresu 1933-2010 dwa wskazują, że nawet roczne tempo zmian zysku SP500 nie jest całkowicie losowe. Widocznie występują tutaj nieliniowe autokorelacje, które są wyłapywane przez te testy.

Następnie należy przeanalizować ROE (2000-2010):



ROE ex post - czyli nieprognozowane, lecz dane historycznie. Obliczone jako zysk netto z okresu t/(kapitał własny okresu t-1)

Średnia ROE na tym obszarze wynosi 12,44%. Okazuje się, że ROE ex ante liczony jako zysk netto z okresu t *(1+0,0636) / (kapitał własny okresu t) daje podobną średnią 12,68%. Liczba 0,0636 to średnia geometryczna stopa zmian zysku netto indeksu od 1933 r.

Goldman Sachs (GS) w raporcie The anatomy of ROE: Part 1: S&P 500 przedstawił prognozę ROE na rok 2011 na poziomie 17%. Oto wykres z tego raportu:



Średnia ROE = 15,2%. Przypomnieć należy jednak o konwencji jaką się stosuje dla definicji ROE. Wydaje się, że aby przekształcić ROE z raportu musimy przemnożyć 0,152 przez 1,0636 (średnie tempo wzrostu zysku = 6,36%). Kwestię tę już wyjaśniałem. W ten sposób otrzymujemy średnią ROE dla naszego modelu: ROE = 15,2%*1,0636 = 16,17%. Tę wartość zastosujemy do modelu rezydualnego. Parametry modelu rezydualnego omawialiśmy we wpisie: Prawdziwe znaczenie wskaźnika Cena/Zysk i Cena /Wartość księgowa. . Jedynie poprawka dotyczy ROE. Parametry do modelu rezydualnego są następujące:

r = 10,5%
ROE = 16,17%
w = 6,36%

Standard&Poors (S&P) prognozuje EPS SP500 w 2011 r. na poziomie 94,23 $. Ponieważ EPS 2010 = 77,35 , oznaczałoby to wzrost o prawie 22%. Ze względu na ostatnie gorsze dane ekonomiczne, obniżymy nieco ten wzrost do 18%. W ten sposób nasz prognozowany zysk 2011 równa się 91,3 $. Model (rezydualny) Grahama-Dodda (MGD) jest postaci:

P(0) = EPS(1)*(1 - w/ROE)/(r - w)

Podstawmy dane:

P(0) = 91,3*(1 - 0,0636/0,1617) / (0,105 - 0,0636) = 1337,9.

Na chwilę obecną indeks SP500 posiada wartość 1292.28. Zatem z tego prostego modelu wynikałoby, że mamy dziś do czynienia z niewielkim niedowartościowaniem indeksu. Ale przecież jeszcze parę dni temu indeks uzyskiwał wartości w okolicy wskazane przez model. Zwróciłbym uwagę na fakt, że prognoza zysku 91,3 to subiektywna wielkość. Minimalnie zmniejszę ją do 90, a już otrzymam P = 1319. Ponadto wartość historyczna parametrów modelu nie musi odpowiadać rynkowi. Jeśli rynek ocenia, że USA kroczy ku zagładzie, może zmniejszyć na stałe średnie tempo wzrostu zysku. Na przykład, jeśli tylko zmniejszymy w do 6%, wtedy P(0) = 1287,24, co automatycznie potwierdza efektywność rynku. Rynek poprawnie wyceniałby indeks na chwilę obecną. Niemniej na razie trudno o racjonalne przesłanki, by średnie parametry uległy faktycznie zmianie.

Model rezydualny nie uwzględnia wahań koniunkturalnych. Za pomocą UMGD uwzględnimy część okresu koniunkturalnego. Przyjrzymy się jeszcze raz na załączonym powyżej wykresach zmianom ROE. Te zmiany będą korelować ze zmianami zysku. ROE 2010 = 15%. GS prognozuje ROE = 17% w 2011. Nasz ROE ex ante byłby równy 18% = 17%*(1,0636). Będziemy jednak konsekwentni: skoro obniżyliśmy trochę estymowane tempo wzrostu zysku, to zrobimy to także dla ROE. Uznamy, że ROE
(1) 2011 17,5%
(2) 2012 ROE osiągnie maksimum = 18%.

Następnie stopniowo może spadać:

(3) 2013 17%,
(4) 2014 16,5%
(5) i od 2015 zastosujemy model rezydualny (a więc ROE stałe = 16,17%).

Tempo wzrostu zysku będzie szło w parze ze zmianami ROE. I tak uznamy, że w
(1) 2011 14%
(2) 2012 osiągnie maksimum = 17%
(3) 2013 12%
(4) 2014 8%
(5) i od 2015 zastosujemy model rezydualny (a więc w stałe = 6,36%).

UMGD ma postać:



W naszym przypadku n = 5. Podobnie jak w MGD, EPS(1) = X(1) = 91,3. X(t) = X(t-1)*(1+w(t)). Koszt kapitału własnego r jest stały i równa się 10,5%. Ponieważ wszystkie dane są znane, podstawiamy. Otrzymany wynik to:

P(0) = 1362,7.

Wycena ta niewiele różni się od wyceny uzyskanej za pomocą prostego modelu rezydualnego. Niemniej jest poprawniejsza i doskonale tłumaczy koniunkturę na giełdzie. Obecna wartość indeksu wydaje się trochę za niska. Jednak X(1) jest wartością subiektywną, która sporo zależy od bieżących danych. Ustalając X(1) = 90, dostaniemy P = 1342,4, zatem odchylenie od empirycznej wartości staje się nieistotne (jeszcze parę dni temu indeks osiągał takie wartości). Ostatnie negatywne informacje trochę zaniżają estymowany zysk, sprowadzając wycenę do optimum.

Niemal wszędzie spotykamy się z twierdzeniem, że giełda buja się od jednej skrajności do drugiej. W hossie trwa nadmierny optymizm i euforia, a w bessie niepotrzebna depresja i marazm. Często przywołuje się takie euforyczne okresy jak koniec lat 90-tych, nazywane powszechnie "bańką internetową", które zakończyły się - jak zwykle - katastrofą. Popatrzmy jednak na ROE w tym czasie. Osiągało największe wartości wszechczasów. Rynek słusznie wyceniał wysoko akcje, bo należało jakoś ekstrapolować takie bezprecedensowe zdarzenia. Czy za bardzo, tego nie podejmuję. Racjonalnie nie dałoby się dowieść nieefektywności rynku tamtego okresu. Czy ktoś jednak zwraca na to uwagę? Nie, wszyscy krzyczą, że była wtedy bania, która musiała pęknąć z hukiem. Nic nie było wiadomo. ROE spadło, ale równie dobrze mogło się długo utrzymać lub nawet jeszcze wzrosnąć. Legend i mitów nigdy za mało.

niedziela, 3 lipca 2011

Uogólniony model Grahama-Dodda

Czas na zaprezentowanie "własnego" modelu wyceny akcji. Cudzysłów bierze się stąd, że model ten jest na tyle naturalny, że trudno uwierzyć, aby nikt wcześniej go nie opisał. To że nie spotkałem go w literaturze nie znaczy, że nie został wcześniej zaprezentowany. A jest w gruncie rzeczy bardzo prosty do wyprowadzenia. Model ten nazywam uogólnionym modelem Grahama-Dodda.

Cashflowowy model wyceny akcji jest już znany z wpisu Twierdzenie o nieistotności polityki dywidendy:

(1)

gdzie:
P(0) - wartość (wewnętrzna) akcji w okresie 0
X(t) - zysk netto spółki w okresie t
I(t) - inwestycje spółki w okresie t
r(t) - wymagana stopa zwrotu do akcjonariuszy w okresie t

Inwestycje I(t) można zapisać jako k(t)*X(t), gdzie jedna część k odpowiada za inwestycje realizowane dzięki zyskowi zatrzymanemu oraz druga część odpowiada za inwestycje realizowane dzięki emisji akcji. Podstawiając do (1) I(t) = k(t)*X(t), dostajemy wzór:

(2)

We wpisie Analiza tempa wzrostu zysku firmy wyprowadzono również ogólny wzór na tempo wzrostu zysku netto:

(3)


gdzie
ROE(t) = X(t)/BV(t-1)
s(t) = ROE(t)/ROE(t-1) - 1 , tj. tempo wzrostu ROE.

[W poście Analiza tempa wzrostu zysku firmy definicja była ROE(t) = X(t+1)/BV(t), ale to tylko techniczna różnica].

Z równania (3) wyprowadzamy wzór na k(t):

(4)


Podstawmy (4) do (2):

(5)


I już otrzymaliśmy uogólniony model Grahama-Dodda, jak widać prosta sprawa. Model jest w stanie uwzględnić każdy cykl życia spółki. W szczególności może być przydatny do wyceny akcji spółek młodych, które dopiero wchodzą w silny trend wzrostu bądź też spółek w trakcie restrukturyzacji (modne słowo po kryzysie). Niestety, choć brzmi to pięknie, praktyka rodzi dużo problemów o czym zaraz powiemy. Zauważmy, że jest możliwość przekształcenia (5) do modelu wykorzystującego wartość księgową akcji (BV)

(6)


Model (6) wskazuje, że im większa będzie suma ROE(t) + s(t), tym większa różnica pomiędzy wartością wewnętrzną a księgową. Otrzymujemy pełne wyjaśnienie dlaczego wartość akcji spółki o wysokim potencjale wzrostu często silnie wyprzedza wartość księgową, nawet jeśli obecna rentowność kapitału własnego ROE(t) będzie mniejsza od wymaganej stopy zwrotu r(t). Potencjał drzemiący w spółce i stopniowo uwalniany zostaje odzwierciedlony w rosnącym ROE. Czyli dodatkową premię od rynku (w stosunku do wartości księgowej) otrzymuje spółka, której rentowność kapitału własnego rośnie. Może być to wynik wykorzystania patentów, monopolistycznego charakteru spółki o przewagach konkurencyjnych, restrukturyzacji itp. Oczywiście (6) także działa w drugą stronę, a więc spółki o wysokim ROE, ale przy jego spadkowej tendencji, która może wynikać z pogarszającej się finansowej kondycji spółki, mogą otrzymać od rynku ujemną premię, tak że wartość akcji znajdzie się poniżej wartości księgowej. W takiej sytuacji warunkiem jest, aby s(t) było dostatecznie ujemne. Podsumowując, nie liczy się samo ROE w stosunku do r, ale to czego rynek oczekuje po ROE w przyszłości.

Bardziej praktyczny model to taki wykorzystujący wartość rezydualną. Wartość rezydualna opera się na założeniu, że po pewnym czasie rozwój spółki jest stabilny i zrównoważony, a więc parametry takie jak ROE, w oraz r są stałe w czasie. Wartość rezydualna (RV) to po prostu wyprowadzony w poście Prawdziwe znaczenie wskaźnika Cena/Zysk i Cena /Wartość księgowa. Badanie empiryczne model Grahama-Dodda:



Ponieważ RV pojawia się po n latach to musi zostać zdyskontowana n okresów oraz charakteryzuje się stałymi parametrami począwszy od n-tego okresu. Uogólniony model Grahama-Dodda wykorzystujący wartość rezydualną ma postać:

(7)



lub wykorzystujący wartość księgową w wartości rezydualnej:

(8)


Modele (7) i (8) mają jedną podstawową wadę. Zakładają, że tempo wzrostu zysku (w) jest mniejsze od wymaganej stopy zwrotu (r). Jeśli to założenie nie jest spełnione, wtedy model się całkowicie psuje (nie ma zbieżności do granicy) - wartość akcji P(0) osiąga nieskończoność. Rozwiązanie tego problemu opiera się często na wykorzystaniu użyteczności przepływów pieniężnych (malejącej użyteczności krańcowej), co z kolei powoduje niekorzystne wpadnięcie w subiektywną wycenę akcji. Innym rozwiązaniem są nieliniowe modele wyceny zakładające, że tempo wzrostu zysku zacznie spadać zgodnie z cyklem życia. Nie są to jednak rozwiązania eleganckie teoretycznie i najczęściej oparte na subiektywnej analizie.

Jest jeszcze gorzej. Wystarczy bowiem, że w będzie mniejsze, ale bliskie r, co spowoduje gwałtowny wzrost P(0). Każdy minimalny wzrost w spowoduje duży skok wartości akcji. Co z tego, że wartość akcji będzie skończona, skoro będzie silnie zależała od minimalnych różnic pomiędzy w a r. A im będą sobie bliższe, tym wartość będzie silniej odrywać się od rzeczywistego świata.

Precyzyjna wycena akcji spółek o wysokim potencjale wzrostu jest rzeczą bardzo trudną i powiem szczerze, że należy mieć duży dystans do nawet najbardziej drobiazgowo sporządzonej wyceny.

Niemniej uogólniony model Grahama-Dodda pozwala (jeśli nie wyznaczyć ściśle wartości wewnętrznej) przynajmniej zrozumieć w jaki sposób należy używać wskaźników fundamentalnych, takich jak Cena / zysk oraz Cena / wartość księgowa. Większość inwestorów nie rozumie, że używa tych wskaźników w sposób błędny. Załóżmy, że stopa zwrotu posiada rozkład normalny N(0,1). Zgodnie z nim będzie ona dążyć do 0, a odchylenie wyniesie średnio 1%. Czy to znaczy, że "wartość wewnętrzna stopy zwrotu" wynosi 0? Inwestorzy podchodzą właśnie w taki sposób do wskaźników fundamentalnych: przeciętne wartości dla rynku bądź nawet historycznie dla danej spółki uważają za poziom optymalny.

W książce Damodarana, Investment Valuation, znajdziemy następującą relację pomiędzy ROE a C/WK (PBV):



Oczywiście to tylko pewna statystka, która sama w sobie nie jest wystarczająca. Nie uwzględnia także tempa wzrostu ROE, s. Dodatkową pomocą może być jednak statystyczna relacja pomiędzy tempem wzrostu zysku netto a C/Z (PE) z innej książki Damodarana, Security Analysis on Investment:

piątek, 17 czerwca 2011

Analiza tempa wzrostu zysku firmy

Tempo wzrostu zysku firmy jest jak wiadomo jednym z najważniejszych elementów przy wycenie akcji. Prawidłowe jego oszacowanie pozwala także lepiej przewidzieć kolejny ruch ceny. Istnieją 3 podejścia oszacowania tempa wzrostu zysku.

Pierwsze podejście można nazwać historycznym, ponieważ oszacowujemy tempo wzrostu na podstawie danych historycznych. Metoda historyczna zawsze wiąże się ze stosowaniem statystyki i/lub ekonometrii. Najbardziej intuicyjny sposób to obliczenie średniej arytmetycznej tempa wzrostu z obserwacji statystycznych. Nieco mniej intuicyjny to wyznaczenie średniej geometrycznej. Niestety obydwa sposoby posiadają wady. Średnia arytmetyczna uwzględnia zmiany wewnątrz próby (tzn. w pośrednich okresach), które mogą być czysto przypadkowe, przez co często zaburzają prawdziwy obraz wzrostu zysku. Z kolei średnia geometryczna w ogóle nie uwzględnia zmian wewnątrz okresu (w pośrednich okresach) - jedynie wskazuje jak średnio zysk rósł od okresu do okresu (czyli jakby w środku była linia prosta). Ograniczenia te rozwiązuje się za pomocą modelu regresyjnego, dzięki któremu można oszacować oczekiwaną stopę wzrostu, która niejako uwzględnia zarówno zmiany wewnątrz okresu, a jednocześnie je "wygładza". Jednak temu zagadnieniu nie jest poświęcony artykuł.

Drugie podejście można nazwać eksperckim, ponieważ tempo wzrostu zysku oszacowuje się metodami eksperckimi i prognozami analityków, wykorzystując aktualne informacje:
- z ostatnich raportów, np. sprawozdań finansowych, czyli specyficzne dla danej firmy (na temat zysków, przychodów, marży zysku, rentowności kapitału, wszelkich inwestycji: emisji akcji, zatrzymania zysków, zadłużenia)
- makroekonomiczne informacje mające wpływ na zysk firmy (najważniejsze to wzrost PKB, PNB, stopy procentowe i inflacja)
- informacje ujawnione dla firm konkurencyjnych (np. negatywne informacje u konkurencji mogą prowadzić do ponownej oceny zysku firmy).

Niewątpliwie metoda ekspercka jest dużo bardziej elastyczna niż historyczna, choć bardziej subiektywna. Jeśli firma wchodzi w nową fazę ekspansji, metoda ekspercka prawdopodobnie lepiej sprawdzi się niż historyczna.

Czy rzeczywiście metoda ekspercka jest lepsza niż historyczna? Ogólny wniosek jest taki, że metoda ekspercka lepiej sprawdza się dla prognoz krótkoterminowych, zaś gorzej dla długoterminowych. Badania O'Brien'a (1988) wykazały, że prognozy analityków dla kolejnych dwóch kwartałów pokonywały modele szeregów czasowych, dla kolejnych trzech kwartałów były tak samo dobre, zaś dla czterech naprzód już gorsze.

Trzecie podejście można nazwać teoretycznym lub fundamentalnym. W metodzie historycznej i eksperckiej dostajemy tempo wzrostu jako zmienną egzogeniczną, niezależną od modelu wyceny. W metodzie teoretycznej, zmienna ta staje się endogeniczna. Można jednak powiedzieć, że to teoretyczne podejście łączy w sobie zarówno cechy metody historycznej, jak i eksperckiej, bowiem z jednej strony parametry wchodzące do modelu oblicza się na podstawie danych historycznych, a z drugiej strony można tymi parametrami odpowiednio kalibrować, wykorzystując wiedzę ekspercką.

Trzecie podejście przestudiujemy szczegółowo. Zacznijmy od definicji ROE(t) i jego przekształcenia:



gdzie

X(t+1) - (oczekiwany) zysk netto w okresie t+1
BV(t) - wartość księgowa kapitału własnego

Odejmijmy X(t-1) i podzielmy obie strony przez tę liczbę



Oznaczamy [X(t) - X(t-1)]/X(t-1) = w jako tempo wzrostu zysku netto.
Wyciągnijmy ROE(t) przed ułamek:



i oznaczmy:



Z drugiego równania na k(t) wyznaczamy ROE(t):



W okresie poprzednim, t-1, ROE(t-1) jest równe z definicji (patrz pierwsze równanie):



Jeśli ROE(t) = ROE(t-1), czyli ROE jest stałe w czasie, musi więc zajść:



I stąd BV(t) jest równe:



Aby otrzymać wartość księgową kapitału własnego z okresu t, do wartości księgowej kapitału własnego z okresu t-1, musimy dodać pewną część zysku netto z okresu t. Pewna część zysku netto powiększa bowiem wartość księgową. Jaka część zysku zawsze powiększa wartość księgową? Oczywiście jest to zysk zatrzymany, czyli powstały po odjęciu dywidendy (dywidenda trafia do akcjonariuszy) oraz "zysk" (precyzyjnie kapitał) powstały w wyniku emisji akcji. Zatem k okazuje się sumą współczynnika zatrzymania zysku (kr) i współczynnika wyemitowanego kapitału wyrażony jako część zysku (ke):



gdzie kr(t) = zysk zatrzymany w okresie t/zysk netto(t), ke(t) = ilość kapitału wyemitowanego w okresie t/zysk netto(t)

Stąd widać dlaczego używamy wzoru:



Powyższe wyprowadzenie wzoru prowadzi do wniosku, że znany wzór na tempo wzrostu zysku netto jest prawidłowy tylko w sytuacji, gdy ROE jest stałe w czasie (k nie musi być stałe). W rzeczywistości ROE zmienia się w czasie. Jednakże jeśli przyjmiemy konwencję używania średnich w czasie, wówczas wzór ten będzie nadal prawidłowy, ale pod warunkiem że średnia w ogóle istnieje. Niespełnienie tego warunku może mieć miejsce zarówno dla stacjonarnych jak i niestacjonarnych procesów stochastycznych. We wpisie "Kłopoty ze średnimi w analizie fundamentalnej" omawiałem przykład Asseco Poland, dla którego poddałem w wątpliwość istnienie średniego ROE. Był to przykład, można rzec, stacjonarnego procesu. Z kolei w niestacjonarnych procesach parametry rozkładu zmiennych zwyczajnie ulegają zmianom wraz z przesunięciem w czasie. Średnią zawsze można sztucznie obliczyć, ale jeśli w kolejnych podpróbach średnia nie będzie zbliżała się do pewnej stałej wartości, to znaczy, że rozkład nie posiada średniej.

W wielu sytuacjach rzeczywista rentowność kapitału własnego, jak i jego średnia ulega systematycznym zmianom w czasie (proces jest niestacjonarny), co prowadzi do zmiany tempa wzrostu zysku w czasie, niezależnie od zmian k. Często firma wchodzi w silny trend ekspansji i zwiększa ROE, czyli poprawia rentowność kapitału własnego. W takiej sytuacji używanie wzoru w(t) = k(t)*ROE jest błędem, co obecnie powinno być zupełnie jasne. Rozwiążemy teraz jednak ten problem. Wyjdźmy jeszcze raz od definicji ROE = X(t+1)/BV(t). Licznik możemy na zapisać w postaci



Teraz przyjmijmy, że k(t) jest częścią zysku powiększającą BV, czyli ma taką samą interpretację jak dotychczas. Różnica jest tylko taka, że poprzednio k(t) został wyprowadzony, zaś teraz arbitralnie go ustalamy. Zgodnie z tą interpretacją mianownik można zapisać:



W sumie mamy wzór na ROE(t):



Z tego równania wyznaczmy w(t):



Otrzymaliśmy ogólny wzór na stopę wzrostu zysku netto spółki. Jeśli ROE(t) = ROE(t-1), wtedy drugi składnik się zeruje i powracamy do starego wzoru k*ROE. Przy aplikacji trzeba uważać, bo można się na początku pogubić w oszacowaniu ROE w zależności od tempa w. W rzeczywistości jest na odwrót: w zależy od ROE, a nie ROE od w. W sumie jednak nie jest to taka oczywista sprawa, bo ROE generuje w, ale matematycznie w także mogłoby generować ROE, widząc, że ROE = X(1+w)/BV. Pomimo że, że mamy tu jakby do czynienia ze swego rodzaju "pleonazmem", to jednak musimy patrzeć tak: najpierw jest rentowność, która może być podniesiona na różne sposoby (silna faza ekspansji na rynki; racjonalne zmniejszenie kosztów; postęp techniczny, nowe technologie, patenty) i dopiero ona staje się przyczyną wzrostu.

Ponieważ drugi składnik równania stanowi stopę wzrostu ROE, ogólne równanie na w można zapisać w postaci:



gdzie s(t) - stopa wzrostu ROE(t)

[oznaczyłem s, bo nie mogłem wpaść na coś lepszego, s jak speed].

Warto w końcu zauważyć, iż dokładnie takie samo wyprowadzenie tempa wzrostu można także przeprowadzić dla ROA, ponieważ:



gdzie A(t) - aktywa firmy

Wówczas ogólny wzór na w przybiera postać:



lub prościej



gdzie a(t) - stopa wzrostu ROA(t)

oraz



kb = nowy dług w okresie t/zysk netto(t)

Oczywiście można kombinować dalej na różne sposoby, przyrównywać ze sobą różne wzory na w i wyciągać kolejne zależności, np. pomiędzy ROE a ROA.

Powinno być już jasne, dlaczego we wpisie "Prawdziwe znaczenie wskaźnika Cena/Zysk i Cena /Wartość księgowa. Badanie empiryczne" używano wzoru w(t) = k(t)*ROE. Po pierwsze zakładaliśmy stałość ROE lub ROA. Po drugie niezależnie od tego czy spółka finansuje swoje inwestycje długami, aby powiększyć zyski, stopa wzrostu zysku będzie ciągle równa k(t)*ROE, choć moglibyśmy równie dobrze podstawić k'(t)*ROA. Zwróciłbym jeszcze uwagę na pewien niuans, mianowicie oryginalny wzór Modiglianiego i Millera (MM) nieco różnił się od tego, który ja przedstawiłem. MM nie posługiwali się ROE czy ROA, ale "stopą zwrotu z inwestycji", czyli ROI. Wtedy tempo wzrostu zysku w(t) = k'(t)*ROI(t). Taki wzór będzie zawsze prawidłowy, niezależnie od tego czy ROI będzie się zmieniał w czasie czy nie. Dzieje się tak, bo:

w = wzrost zysku / zysk  = (wzrost zysku / inwestycje) *(inwestycje / zysk) = ROI*(zysk zatrzymany + nowy wyemitowany kapitał + nowe kredyty i pożyczki)/zysk = ROI*k'.

Ale jeśli ustanowimy stałość ROA i ROE oraz że firma nie będzie mieć nowych zobowiązań, wtedy ROI = ROE = ROA. Wtedy powstaje interesująca zależność, bo zysk ze wszystkich aktywów staje się równy zmianie zysku z nowych aktywów.

Podsumowanie.

Tempo wzrostu zysku netto firmy szacujemy na 3 różne podejścia: historyczne, eksperckie i teoretyczne (fundamentalne). Pierwsze dwa traktują tempo wzrostu jako zmienną egzogeniczną w modelu wyceny, a trzecie jako endogeniczną. Aby jednak podstawić dane do wzoru w trzecim sposobie, potrzebna jest wiedza zarówno historyczna jak i ekspercka. Pierwsze pytanie czy i jak rentowność kapitału własnego zmieni się w najbliższych okresach? Drugie pytanie czy i jak zmieni się ilość kapitału własnego (poziom dywidendy, emisje akcji).

Z przedstawionej teorii płynie wniosek, że tempo wzrostu zysku można uzyskać na 2 sposoby, które są niezależne od siebie:
1. poprzez oszczędzanie = inwestowanie
2. poprzez wzrost efektywności działania

Ad 1) Oszczędności są to inwestycje. Zauważmy że:

- zatrzymanie zysku w firmie to oszczędzanie lub inaczej inwestowanie środków akcjonariuszy. Wypłata dywidendy jest formą konsumpcji firmy/akcjonariuszy, a więc jej zaniechanie jest inwestycją
- kupno nowych akcji firmy stanowi z punktu widzenia nowych akcjonariuszy inwestycję, czyli oszczędzanie środków zamiast ich konsumpcji
- pożyczanie środków firmie przez pożyczkodawców (kredytodawców, obligatariuszy) to inwestycja, która stanowi mniej ryzykowną formę oszczędności od kupna akcji.

Oszczędzone środki, nieważne z którego źródła pochodzące, pracują na wzrost zysku. Im więcej inwestujemy środków, tym wzrost zysku będzie większy. Przynajmniej do pewnego poziomu.

Ad 2. Efektywność działania pokazuje jaką część nakładów stanowią zyski lub inaczej ile zysku generują nakłady. Jest to nic innego jak rentowność aktywów. Rentowność aktywów całkowitych to ROA. Rentowność aktywów netto (czyli po odjęciu zobowiązań) to ROE. Ich wzrost często wiąże się z postępem technicznym.

Powyższy podział czynników wzrostu zysku dowodzi, że zwiększenie rentowności (ROE, ROA) nie wynika ze wzrostu inwestycji, gdyż wzrost inwestycji wynika ze wzrostu oszczędności. Dodatkowy wzrost wynikający ze wzrostu ROE i ROA opiera się na bieżących inwestycjach, a nie nowych.

Trudno nie dostrzec zależności pomiędzy skalą mikro a makro. W makroekonomii znana jest tożsamość inwestycje = oszczędności. PKB rośnie właśnie dzięki strumieniom inwestycji, czyli oszczędności oraz postępowi technicznemu (plus wzroście liczby ludności). Niemniej skala mikro a makro nie jest tożsama i ogólnie lepiej nie wyciągać zbyt pochopnych wniosków o całkowitej analogii przedstawionej analizy. W skali mikro do gospodarki kapitał dopływa zarówno z zewnątrz jak i z wewnątrz systemu. W skali makro wraz z zagranicą kapitał dopływa do gospodarki jedynie z wewnątrz jej systemu, a więc (realny) zysk/dochód światowy rośnie jedynie dzięki wewnętrznym mechanizmom.

Literatura:
[1] Damodaran, A., Investment Valuation;
[2] O'Brien, P., Analyst's Forecasts as Earnings Expectations, Journal of Accounting and Economics, 1988.