wtorek, 19 grudnia 2017

Do pamiętnika - Jak duża musi być niestacjonarność, aby KPSS ją wykrył?

Zastanawiałem się, ile muszę podnieść stopę zwrotu, aby KPSS wykrył niestacjonarność. Moje krótkie eksperymenty w gretlu wskazują, że ok. 0,2 pktów proc. jest minimalną wartością dla zmian dziennych. Zrobiłem test dla logarytmicznego kursu Comarch, aby można było dodawać zmienione stopy i stworzyć wykres. Okres 2.01.2014 - 18.12.2017. Wykres oryginalny (logarytmiczny):



Dla CMR nie występuje niestacjonarność, KPSS ( zob. Czy oczekiwane stopy zwrotu w ogóle się zmieniają? ) wskazuje na czystą stacjonarność:


Ponadto brak autokorelacji (ACF, ale PACF wygląda tak samo), ewentualnie lekka ujemna autokorelacja 7 rzędu (istotna st na 1%):

 
Ostatnio wykres wykres wygląda nieźle jakby kurs chciał rosnąć. Średnia dzienna stopa zwrotu w danym okresie to ok. 0,1%, ale pytanie brzmi czy ta średnia się zmienia? KPSS mówi, że nie, ale dziś pokażę, że niewielka zmiana w stopach zwrotu nie zostanie wykryta przez ten test, pomimo że całkowity efekt w postaci trendu może być znaczący. Chyba jednak lepiej poczekać aż nastąpi przebicie linii "trendu spadkowego", która czasami się sprawdza - zob. Czy analiza techniczna działa? Z tym że i to badanie odrzuciło większość przebić, ale była to mała próba.

Ok, to teraz test. Widać, że od połowy zakresu analizowanego wykresu, ok. 490 danych, pojawia się kierunek wzrostowy. Od tego miejsca do końca okresu dodałem do logarytmicznych stóp zwrotu:

1) 0,1 pkt proc. Wtedy otrzymałem wykres:


Wykres jest bardzo podobny, ale trend wydłużony, wobec tego pytanie o niestacjonarność zmian:


A więc nadal to samo. Podniesienie 0,1% nie wystarcza do załapania zmiany - a przecież końcowy efekt to dodatkowy wzrost o 50 pkt proc. (na oryginalnym wykresie zakończenie jest na 0,7, na przekształconym 1,2). ACF i PACF także wyglądają identycznie jak poprzednio.

2) 0,2 pkt proc. Wykres staje się już niemal asymetryczny:



Niestacjonarność nie została formalnie wykazana, ale wrażenie robi wartość statystyki 0,29, której niewiele brakuje do progu 0,348:



3) 0,3 pkt proc. Wykres od połowy zmienia się diametralnie:


KPSS to niezbicie potwierdza:


 Niestacjonarność jest wykazana na poziomie 5% istotności.

Oznacza to, że 0,2 pkt proc. dodatkowej (logarytmicznej) stopy zwrotu może stać się pewnym punktem zaczepienia przy ocenie niestacjonarności. Ta konkluzja zostaje wzmocniona, gdy zmniejszę zakres danych np. do 700. Wtedy dostajemy wykres:



Interesujące jest to, że pomimo, iż po okresie 490, zmiana oczekiwanej stopy zwrotu nie jest już widoczna gołym okiem, to KPSS ją wykrywa:


Warto też dodać, że ACF i PACF wyglądają ciągle tak samo dla oryginalnego wykresu: nie ma tutaj żadnych (dodatnich) autokorelacji - zarówno dla pierwszej połowy wykresu jak i drugiej. Zmieniła się po prostu oczekiwana stopa zwrotu. Konsekwencją tego jest zmiana nachylenia logarytmicznej ceny: na oryginalnym wykresie kurs rośnie w tym samym tempie, na kolejnych rysunkach nachylenie zmienia się w połowie zakresu i z każdym kolejnym coraz mocniej. Do badania samego momentu zmian trendu służą tzw. modele przełącznikowe, ale to już inny temat.

piątek, 8 grudnia 2017

Czy firma powinna dywersyfikować produkt?

Inwestorzy fundamentalni na pewno często zastanawiają się czy dobrym rozwiązaniem dla firmy jest dywersyfikacja swoich produktów. Z czysto ekonomicznego punktu widzenia ma to sens:
1. zmniejsza to ryzyko spadku sprzedaży w danym sektorze lub segmencie rynku;
2. powstaje potencjał zwiększenia wartości firmy dzięki wykorzystaniu synergii między segmentami lub sektorami;
3. Wyręcza to inwestora, który sam chciałby zdywersyfikować portfel kupując różne akcje - nie ponosi ani kosztów transakcyjnych ani wysiłku wyznaczania ich udziału.

Jeżeli chodzi o punkt trzeci, to gdyby się głębiej przypatrzeć, pojawiają się pewne wątpliwości czy faktycznie firma powinna zastępować inwestora. Taka wewnętrzna dywersyfikacja może polegać po prostu na dodaniu do swojej działalności operacyjnej nowy segment rynku albo na nabyciu innej firmy, która już obsługuje ten segment. Obydwa rozwiązania wymagają opracowania ekspertyz, które oszacują opłacalność takiej operacji. Są to więc dodatkowe koszty, które redukują oszczędności inwestora wynikające z braku dodatkowych kosztów transakcyjnych oraz włożonego wysiłku w dostosowanie udziału nowych akcji w portfelu.

Jeżeli chodzi o punkt pierwszy i drugi, to w przypadku wprowadzenia nowego produktu powstaje dodatkowe ryzyko, że sprzedaż będzie niewystarczająca. Z kolei przejęcie innej firmy także rodzi niepewność co do opłacalności; jeżeli jest w słabej kondycji, to potrzebna będzie restrukturyzacja, która nie musi przełożyć się na większą sprzedaż, a tylko generuje koszty. Jeżeli z kolei przejmowana firma jest w dobrej kondycji, to koszt jej nabycia może być na tyle duży, że operacja ta będzie nieopłacalna. Jej przejęcie będzie opłacalne tylko w sytuacji, gdy powstanie synergia pomiędzy firmą-matką a firmą-córką.

Na rynku doskonale konkurencyjnym jedyną szansą na opłacalność dywersyfikowania produktów jest właśnie stworzenie synergii pomiędzy starymi a nowymi segmentami. W innym wypadku koszty co najwyżej zrównają się z przychodami. I w tym miejscu powstaje kwestia warunków powstawania i wytwarzania synergii. Chodzi tu o synergie nie tylko pomiędzy różnymi segmentami, ale także całymi branżami.

Amica sprzedaje sprzęt AGD, na który składają się nie tylko meble kuchenne, ale także pralki. A skoro już poszli w łazienki, to powstaje możliwość produkowania i sprzedawania klozetu, umywalki, wanny i kabiny prysznicowej. Nie jest to typowy segment AGD, ale do niego zbliżony. Może tu więc powstać synergia: jeśli klient jest zadowolony z kupna sprzętu AGD, to może też kupić wyposażenie łazienki. Jest to więc przykład możliwej synergii w ramach zbliżonych produktów. Synergia ta oczywiście może mieć charakter przyciągania klientów promocją, np. jeśli kupisz produkt z jednego i drugiego segmentu, to dostaniesz rabat.

Bardziej skomplikowane zagadnienie powiązań stanowią różne branże w ramach jednego przedsiębiorstwa. Wyobraźmy sobie, że szykujemy się do kupna mieszkania, a deweloper proponuje nam dodatkowo zakup mebli do niego. Niby, jest to powiązane ze sobą i ma potencjał synergii, jednak ja osobiście wolałbym, żeby firma skupiała się na danej specjalizacji, jak np. budowa budynku, a nie produkcji mebli do niego. Inną sprawą jest gdy deweloper sam nie produkuje tych mebli, ale ma jakiś kontrakt z firmą meblarską. Tutaj właśnie wszystko się komplikuje.

Możemy się spotkać z jeszcze odleglejszymi branżami w jednym. Np. na stronie Marvipola czytamy:
"Grupa Kapitałowa Marvipol prowadzi działalność w dwóch obszarach biznesowych. Działalność deweloperską, podstawową dla jednostki dominującej - Marvipol S.A., oraz działalność motoryzacyjną w zakresie importu, sprzedaży, usług serwisowych i obrotu częściami zamiennymi do samochodów".

Taka dywersyfikacja produktów wydaje się dziwaczna i trudno znaleźć tu logiczne powiązania, które generowałyby konkretne synergie. Nie wiem jak inni, ale mnie to od razu zniechęca do korzystania usługi, gdy chcą być specjalistami od wszystkiego. Nic dziwnego, że ostatnio akcjonariusze MVP zdecydowali o podziale firmy właśnie na spółkę deweloperską i motoryzacyjną. Od końca września akcje wzrosły o ponad 30%, czyli inwestorzy pozytywnie przyjęli taką informację.

Powstaje pytanie jaki ogólny wpływ na wartość akcji ma dywersyfikacja produktu? I jak to zmierzyć? Dobrym pomysłem do tego testu jest porównanie tzw. q-Tobina dla różnych spółek. Tak właśnie robią Lang i Stulz [1], którzy definiują q-Tobina jako wartość obecną przyszłych przepływów pieniężnych podzieloną przez koszt odtworzenia aktywów materialnych (czyli po prostu wartość rynkowa podzielona przez księgowe aktywa materialne - wyłączenie niematerialnych aktywów wynika z tego, że ich ich wartość księgowa może być łatwo zmanipulowana i nie odzwierciedlać wartości rynkowej. q Tobina jest w przybliżeniu równe C/(rzeczowe aktywa trwałe + zapasy)). Firmy typu R&D zostały wyłączone z analizy, chodziło o sprawdzenie połączeń rzeczowych. Ich konkluzja jest jednoznacznie negatywna dla dywersyfikacji: firmy specjalizujące się w pojedynczej dziedzinie mają wyższe q Tobina, czyli są wyżej wyceniane. Im bardziej zdywersyfikowana działalność, tym gorsze wyniki. Jedną z konsekwencji badania jest to, że przejmowanie słabych firm z innego sektora/segmentu wcale nie generuje obiecywanych synergii w sensie większego q Tobina. Oczywiście wszystko to się dzieje w uśrednieniu, ale akcjonariusz powinien mocno zastanowić się nad trzymaniem takiej spółki (pamiętajmy, że badanie nie dotyczyło firm badawczych).

Ponieważ w badaniu podzielono firmy względem liczby segmentów branżowych, w jakich działają, powinniśmy najpierw zdefiniować co rozumiemy przez ten segment. Segment branżowy został zdefiniowany przez Radę Standardów Rachunkowości Finansowej [2]:
Jest to komponent przedsiębiorstwa, w ramach którego następuje dystrybucja towarów lub świadczenie usług lub grupy powiązanych towarów lub usług, głównie dla niepowiązanych klientów (tj. klientów spoza przedsiębiorstwa) w celu osiągnięcia zysku.

Firmy muszą raportować informację o segmentach, które reprezentują 10 albo więcej procent skonsolidowanej sprzedaży.

W 1984 r. średnia q Tobina dla próbki (z Compustat) wyniosła 1,11, a mediana 0,77. Średnia q-Tobina dla firm niezdywersyfikowanych przekracza średnią z próbki o prawie 40%, a mediana q-Tobina przekracza medianę z próby o ponad 30%. Poniższa tabela prezentuje wartości q-Tobina dla średniej i mediany roku 1984 w zależności od poziomu zdywersyfikowania - im większa liczba, tym większa liczba segmentów w portfolio spółki:


W pierwszym wierszu znajdują się poziomy dywersyfikacji, jako liczba segmentów w portfolio, w drugim średnie arytmetyczne q Tobina, w nawiasach okrągłych wartości środkowe (mediany), a w klamrach liczba firm w danej próbce. Widzimy, że im większa dywersyfikacja, tym niższy poziom q Tobina zarówno na poziomie średniej jak i mediany. Obliczenie zarówno średniej jak i mediany wynika z tego, aby nie zniekształcać wyników, albowiem rozkład q-Tobina był skośny. Warto dodać, że ogólne wnioski nie zmieniły się nawet wtedy, gdy zamiast q-Tobina użyto C/WK.

Następnie stworzono regresję liniową dla lat 1978-1990. Opiszę teraz krótko sposób konstrukcji tej regresji. Być może ktoś będzie chciał skonstruować podobny model fundamentalny. Estymujemy następujący model:


gdzie
q = q-Tobina
a, b(j) - parametry
D(j) - zmienna sztuczna-binarna, która przyjmuje wartość 1, jeżeli firma ma j segmentów lub więcej, w przeciwnym wypadku 0
e - składnik losowy.

Tak czysto technicznie - pytanie czy użycie w definicji D(j) "lub więcej" jest prawidłowe? Zawiera się tu informację o większej liczbie segmentów, co powoduje, że taka analiza staje się wątpliwa dla większej liczby segmentów od 2. No bo jeżeli są 3 segmenty, to b(2) zawiera już informację o tym, że są 3 segmenty, a b(3) ją powtarza.  I faktycznie dane wskazują, że o ile dla D(2) współczynnik b(2) jest zawsze istotny statystycznie (podobnie jak parametr a), o tyle już kolejne b(j) - rzadko. Moim zdaniem badacze tutaj popełnili błąd i powinni po prostu usunąć to "lub więcej". Wtedy D(2) = 0 dla 3 segmentów i wtedy zapewne dane byłyby istotne statystycznie dla b(3), b(4) i b(5).
Jeżeli badaczom zależało na uzyskaniu konkluzji, że firmy o dwóch lub większej liczbie segmentów mają niższe q, to powinni po prostu stworzyć model dla j = 2. Tak mi się przynajmniej wydaje. Dlatego poniżej pokażę tylko część tabeli dla lat 1978-1990 z parametrem a oraz b(2):


To co w tej tabeli trochę wprowadza zamieszania to wartości t-statystyki: są one podane w nawiasach okrągłych podobnie jak wcześniej mediana. Natomiast wartości w klamrach ciągle oznaczają liczbę firm dla danej liczby segmentów (a bez nawiasów to oczywiście parametry).

Przykładowo obliczmy q dla roku 1984: 1,53 - 0,62 = 0,91, czyli coś pomiędzy medianą (0,77) a średnią (1,11).

Istnieje znacznie więcej publikacji potwierdzających powyższe statystyki. Nakano et al. [3] sprawdzili wpływ dywersyfikacji produktów na wyniki firm japońskich (NIKKEI) z lat 1998-2001. Im większa koncentracja, tj. mniejsza liczba segmentów, tym wyższe okazało się ROE (6,1% dla 1 segmentu, 5,2% dla 5 i więcej), podobnie zwrot z NOPAT (4,8% vs. 2,6%). Zwrot z NOPAT to ROE bez efektu dźwigni finansowej.

Podałem wcześniej przykład potencjalnej dywersyfikacji produktowej Amiki, którą uznaję za pozytywną, ale zgodnie dotychczasowymi badaniami, wydawałoby się, że spółka powinna wstrzymać się z taką strategią. Jednak praca Nakano et al. wprowadza także to istotne jakże rozróżnienie: czy dywersyfikacja opiera się na segmentach powiązanych czy nie. Okazało się, że po takim rozróżnieniu dyskonto dotykało tylko firm, których segmenty były niepowiązane ze sobą, natomiast dywersyfikacja powiązanych segmentów nie miała negatywnego wpływu na wartość firmy lub nawet czasami przynosiła premię. Poniższa tabela przedstawia wpływ danego rodzaju dywersyfikacji na wartość firmy w poszczególnych latach (dodatni - premia, ujemny - dyskonto):


 Przykładowo w roku 2001 dywersyfikacja niepowiązana segmentami obniżała wartość firmy o 4,9%, podczas gdy powiązana segmentami dawała premię 1,8%. W obu przypadkach było to istotne statystycznie, odpowiednio na poziomie 1% i 5%.


Literatura:
 [1] Lang, L. H. P., Stulz, R. M., Tobin's q, Corporate Diversification, and Firm Performance, Dec., 1994;
 [2] Statement of Financial Accounting Standards No. 14, Financial Reporting for Segments of a Business Enterprise, December 1976;
[3] Nakano, M., Kubo, N. Yoshimura, Y., DOES DIVERSIFICATION STRATEGY CREATE OR DESTROY VALUE?, October 2004.

środa, 29 listopada 2017

Jak zakaz handlu w niedzielę przełoży się na PKB?

Wiemy, że najprawdopodobniej w 2018 r. w Polsce wejdzie w życie zakaz handlu w drugą i trzecią niedzielę miesiąca, być może z pewnymi wyjątkami przed świętami. Od 2020 zakaz ten ma być rozszerzony na prawie wszystkie niedziele w roku. Jaki przyniesie to skutek ekonomiczny? Powstało wiele raportów i prac na ten temat. Praktycznie wszystkie stawiają tę samą diagnozę: wpływ będzie negatywny, przede wszystkim wzrośnie poziom bezrobocia oraz spadnie sprzedaż. Konkluzje niektórych publikacji opiszę tutaj.

Ostatnio powstał polski raport firmy PwC [1], wg którego łączna sprzedaż handlu detalicznego może spaść o ok. 5%, czyli z 230 mld do 218 mld zł. Jest to bardzo dużo, biorąc pod uwagę, że jest to niecałe 40% wszystkich obrotów w niedzielę (bo przedstawiciele branżowi szacują, że niedziela generuje ok. 13% przychodów).

Tutaj jedna uwaga. Intuicyjnie może nam się wydawać, że spadek sprzedaży o 12 mld zł spowoduje spadek PKB o 12 mld zł. Ale, jeśli ograniczymy się do handlu wewnętrznego, to tak nie jest, bo sprzedaż towaru jest kosztem konsumentów. A ponieważ PKB = dochody ludności, to efekt jest zerowy. Natomiast jeśli weźmiemy cały handel wewnętrzny + zewnętrzny, szczególnie przygraniczny, to oczywiście powstaną realne spadki PKB, bo klient będzie mógł podjechać do sklepu za granicą, gdzie są otwarte sklepy w niedziele. O ile wiem np. na Ukrainie i Białorusi nie ma tego zakazu. Raport FOR [2] zwraca uwagę z kolei na to, że w Niemczech także w wielu miejscach występuje już dziś ten zakaz, tak że dotychczas to polskie sklepy na nim zyskiwały, skoro  przyjeżdżali do nas Niemcy. Można więc powiedzieć, że efekt spadku sprzedaży będzie podwójny: zatrzymanie zysków z Zachodu i ucieczka kapitału na Wschód.
FOR dodaje: "Żadne państwo naszego regionu nie ogranicza handlu w niedzielę. Polska, podobnie jak inne kraje Europy Środkowo-Wschodniej, jest na drodze gospodarczego pościgu za bogatszymi krajami Zachodu i nie może pozwolić sobie na rezygnację z około 50 dni pracy sektora handlu w skali roku." A jednak może.

Drugą kwestią jest wpływ zakazu handlu na poziom zatrudnienia. Zgodnie z PwC szacuje się, że w handlu detalicznym może ono zostać zredukowane o ok. 7%, co ma przekładać się na zwolnienie lub niezatrudnienie od 62 do 85,5 tys. osób.

To tyle jeśli chodzi o polskie raporty. Z kolei Burda i Weil [3] sporządzili specjalny model ekonomiczny, który wykorzystali do estymacji spadku niektórych zmiennych ekonomicznych w wyniku zakazu handlu w niedzielę w USA. Ich praca jest bardzo mało czytelna (np. słabo opisane tabele i wzory), ale z grubsza biorąc stwierdzili, że w latach 1969-93 w tych stanach gdzie zakazano handlu w niedzielę, zatrudnienie spadło między 1,9% a 10,6% logarytmicznych punktów proc. (w stosunku do logarytmicznej populacji pracowników) w zależności od sektora. Wyjątkiem była branża odzieżowa, która wydawała się nawet mieć lekką nadwyżkę. Najmocniej dostało się gastronomii (-10,62%), a najmniej branży spożywczej (-1,87%). Dla wszystkich branż było to -2,2%, przy czym handel detaliczny aż -5,5%. Są to dane istotne statystycznie.

Ostatnio dla 30 krajów Europy badania przeprowadzili Genakos i Danchev [4] . Dane objęły okres 1999-2013. Badacze opracowali dwa rodzaje modeli. Pierwszy sprawdzał prosto czy istniał wpływ deregulacji handlu w niedziele czy nie, tj. używając zmiennej zero-jedynkowej. Drugi był bardziej precyzyjny, bo każde państwo może kontrolować handel w niedziele w różnym stopniu i co więcej kontrola ta może zmieniać się w czasie; zmienna reprezentująca regulację handlu zmienia się wtedy w indeks. Pierwszy z modeli wykazał, że deregulacja w handlu detalicznym średnio rocznie zwiększa zatrudnienie o 7,3% (na poziomie logarytmów), natomiast drugi o 3,6%.

Powyższa analiza wskazuje, że wszystkie raporty się pokrywają. Jeżeli rzeczywiście zakaz handlu w niedziele przyniesie spadek zatrudnienia w zakresie 4-7%, to przyniesie to oczywiście duże reperkusje gospodarcze.

Ktoś mógłby zapytać, dlaczego PKB miałoby spaść, skoro zatrudnienie to koszt pracodawcy, czyli niewydany pieniądz, który nie ginie. Dochód rzeczywiście by się nie zmienił, gdyby ludziom było wszystko jedno kiedy zrobią zakupy. Te zakupy to nie tylko detal, ale także inwestycje, które przedsiębiorcy chcieliby ponieść na dalszy rozwój firmy. Powstaje tutaj zastój, który powstaje w wyniku braku możliwości dokonania transakcji: z jednej strony ludzie chcą teraz coś kupić (bo jest dla nich to wygodne), z drugiej strony przedsiębiorcy chcą teraz sprzedać, aby w coś zainwestować. Brak obrotu w niedziele spowalnia cały ten mechanizm. To spowolnienie to nic innego jak koszt czasu - jest to dobry przykład wyjaśnienia pojęcia kosztu alternatywnego, kosztu utraconych możliwości. Nawiasem mówiąc powstają tu także inne drobne niedogodności, jak np. dłuższe kolejki w soboty, a przecież gdyby nie było tej kolejki (tzn. była wolna niedziela), to można by było robić coś ciekawszego, może coś odkrywczego, co jakoś tam nawet może się przyczynić do zwiększenia PKB.

Jak więc zakaz handlu w niedzielę może wpłynąć na PKB? Możemy spróbować zrobić zgrubne szacunki. Należy to traktować jako eksperyment myślowy, a nie prawdziwą prognozę. Pobrałem dane ze strony multipl.com: stopy zatrudnienia USA oraz realny PKB USA od 1948 do 2016. W gretlu przekształciłem te wielkości na stopy zmian i zastosowałem model:

Stopa wzrostu realnego PKB = Stała + Stopa zmian stopy zatrudnienia + składnik losowy

Parametry regresji liniowej okazały się niestabilne w czasie.



Dlatego dla uproszczenia zmniejszyłem zakres próby do 1980 r. Uzyskane statystyki:


Czyli Realny PKB wzrasta średnio o 1,45%, gdy zatrudnienie rośnie o 1% (przypomina to nieco znane prawo Okuna).

Ten wynik jest nawet zgodny z wynikami Sawtelle [5] , która analizowała zależności między realnym PKB a zatrudnieniem, ale w odwrotnym kierunku, tj. wpływu PKB na zatrudnienie. Wzięła szeroki zakres danych dla USA dla lat 1901-2001. Uzyskany parametr = 0,66%, a zauważmy, że odwrotność 1/0,66 = 1,52, czyli wynik niemal identyczny.

W sumie dochodzimy do ciekawego rozwiązania: jeśli na podstawie powyższych raportów przyjmiemy, że zakaz handlu w niedziele doprowadzi do spadku zatrudnienia o 4%, to PKB spadnie o 4*1,45% = 5,8%. Bardziej prawdopodobne będzie to jednak wartość 2,2% (wszystkie sektory zgodnie z badaniami Burda i Weila), a wówczas dostaniemy 3,2% spadku PKB.

Jeśli więc normalnie rozwijamy się w tempie 3-4% rocznie, to w roku 2018-2019 cały wzrost może zostać zredukowany do zera albo poniżej. Nawet jeśli to tylko abstrakcja, to przecież trzeba brać pod uwagę, że niedziela to 14% roku.


Literatura:
[1] PwC, Rynek handlu detalicznego w Polsce, Potencjalne skutki wprowadzenia węgierskich rozwiązań regulacyjnych dla polskich sieci handlowych, 2015;
[2] Orczyk, M., Trzeciakowski, R., Zakaz handlu w niedzielę – szkodliwy dla konsumentów, pracowników i sektora handlu, 12/2016;
[3] Burda, M., Weil, P., Blue Laws, Oct. 2005;
[4] Genakos, C., Danchev, S., Evaluating the impact of Sunday trading deregulation, 2015;
[5] Sawtelle, B., Analyzing the Link Between Real GDP and Employment An Industry Sector Approach EMPLOYMENT RESPONSIVENESS TO LONG-TERM REAL GDP EXPANSION DIFFERS MARKEDLY ACROSS U.S. INDUSTRY SECTORS, Oct. 2007.

czwartek, 23 listopada 2017

Bańka na S&P500. Czy Amerykanie dobiją leżącego?

Ostatnie 10 lat polskiej giełdy należy zaliczyć do trudnych. Średnio biorąc nie jest to ani bessa, ani hossa - średnioroczny wzrost WIG od początku 2007 do 10.2017 wyniósł mniej więcej tyle co lokata w banku, 2-2,5%, a zarobek inwestora pasywnego to mniej niż lokata, bo tylko 1,2-1,7% po odjęciu kosztów transakcyjnych (2,5% - 2*0,0039*1,025 / 1,0039 = 1,7%, zob. Stopa zwrotu po potrąceniu prowizji). Tymczasem rynek amerykański pnie się w górę, jakby istniała tylko północ. W analogicznym okresie S&P 500 wzrósł 80%.

Różnicę pomiędzy indeksami pokazałem na poniższej grafice:


 
Jakby tego było mało, indeks USA wszedł w fazę "przewartościowania" z punktu widzenia strategii polegającej na kupnie akcji, gdy wskaźnik indeks / GDP < 0,9 i sprzedawaniu, gdy  wskaźnik ten > 1,1. Na portalu GuruFocus, aktualizowane są analizy tego wskaźnika, który obecnie daje jednoznaczny sygnał przegrzania. Wskaźnik kapitalizacja szerokiego rynku / PKB USA możemy przestudiować dwoma wykresami:



oraz:

 Źródło: https://www.gurufocus.com/stock-market-valuations.php


Wskaźnik znajduje się 38,5% powyżej równowagi z PKB (tj. 100%). Jest to silny sygnał, by przygotowywać się na wyjście.

Również z punktu widzenia wskaźnika C/Z sytuacja wygląda kiepsko, bo wynosi dziś 25.

 Źródło: http://www.multpl.com/

C/Z Shillera wygląda jeszcze gorzej = 31,5:



Z drugiej strony C/Z WIG = 14, czyli nic nadzwyczajnego. Gdyby WIG oderwał się od USA, to nie byłoby kłopotu. Są jednak dwie przesłanki, za którymi przemawia negatywny scenariusz. Pierwsza to silna korelacja. W analizowanym okresie (01.2007-10.2017) korelacja miesięcznych stóp zwrotu WIG z S&P500 wyniosła 0,73. 
Druga to efekt rządów PIS:
- duże wydatki socjalne, jak np. 500+, którego skutek konsumpcyjny zostanie już całkowicie "przetrawiony";
- podniesienie płacy minimalnej do zbyt wysokich poziomów, co doprowadzi do wzrostu bezrobocia w 2018 - zob. Rząd podnosi wynagrodzenie minimalne do 2000 zł brutto - oznacza to wzrost bezrobocia w 2018 (oraz ewentualnie do rozważenia Komentarz do meta-analizy pt. "Why Does the Minimum Wage Have No Discernible Effect on Employment?"); 
- spadek poziomu praworządności i demokratyzacji - zob. Czy PIS rozwali gospodarkę? Praworządność i demokracja vs PKB
- zakaz handlu w niedziele - zob. Jak zakaz handlu w niedzielę przełoży się na PKB?

Ogólnie prognoza giełdowa nie napawa optymizmem.

środa, 22 listopada 2017

Czy kultura wpływa na koszt kapitału własnego?

Czy kultura danego kraju może w ogóle jakoś wpływać na stopę procentową / koszt kapitału własnego? Jak zmierzyć kulturę? W ekonomii ważne jest posługiwanie się precyzyjnymi definicjami, a to pojęcie wydaje się wieloznaczne, trochę mgliste. Na przykład encyklopedia pwn podaje aż 7 definicji słowa "kultura". Jeśli odejmiemy znaczenia biologiczne, to zostają 4 definicje:
1. «materialna i umysłowa działalność społeczeństw oraz jej wytwory»
2. «społeczeństwo rozpatrywane ze względu na jego dorobek materialny i umysłowy»
3. «odpowiednio wysoki poziom rozwoju społeczeństwa w jakimś zakresie»
4. «umiejętność obcowania z ludźmi»

W  pracy Graya, Kanga i Yoo [1] znajdziemy jeszcze dwie inne. Pierwsza jest wyrafinowana i uważa "kapitał kulturowy" za coś mechanicznego:

5. "kolektywne programowanie umysłu, które odróżnia członków jednej grupy lub kategorii ludzi od innej".

Druga dostrzega aspekt historyczny:

6. "zwyczajowe przekonania i wartości, które są przekazywane dość niezmiennie z pokolenia na pokolenie przez grupy etniczne, religijne i społeczne".

Badania [1] wskazują, że kultura ma wpływ na koszt kapitału własnego. Jest on istotnie wyższy w społeczeństwach bardziej indywidualistycznych zgodnie z hipotezą, że te o wyższym poziomie indywidualizmu podejmują częściej / większe ryzyka i są bardziej niepewne. Zgodnie z opisywanym modelem kraje, które bardziej unikają niepewności wymagają większej jednolitości, co ma wpływ na decyzje biznesowe: bardziej konserwatywne podejście do strategii i mniejsze zarządzanie zyskami. Tam gdzie panuje indywidualizm, menedżerowie są bardziej elastyczni, optymistyczni i ponoszą większe ryzyko.
Analiza empiryczna autorów bazuje na próbce firm z 32 krajów między 1992 a 2006. Poniższa tabela prezentuje główne wyniki:


gdzie:
N - liczba danych
COEC - cost of equity capital - koszt kapitału własnego
UA - zmienna reprezentująca poziom "unikania niepewności"
IND - zmienna reprezentująca poziom "indywidualizmu" społeczeństwa

Pomiędzy COEC a UA występuje korelacja -0,298, pomiędzy COEC a IND 0,126, pomiędzy UA a IND -0,514. Wszystkie istotne.
Tutaj powstaje pytanie dlaczego badacze przyjęli zmienne współliniowe, tzn. skorelowane UA i IND. W takiej sytuacji nie powinno się stosować MNK, a UMNK chyba też nie bardzo. Statystycy zaproponowali wiele konkurujących metod, które mają poradzić sobie ze współliniowością, jak np. metody kary (estymacja grzbietowa, estymator Steina, estymator mostu oraz Lasso - [2]). Publikacja nie zawiera informacji, jakiej estymacji użyto.  

Średnia COEC wyniosła 10,7% z odchyleniem standardowym 4,7%. Mediana  = 10%. Widać jednak, że zmienne UA i IND mocno się odchylają (odchylenie st. 20 i 23 przy średniej 54 i 75, odpowiednio). Moim zdaniem mogą mieć na to wpływ podatki dochodowe od zysków kapitałowych i dywidendy, które procentowo różnią się w zależności od kraju. Wyniki byłyby dopiero oczyszczone z błędów, gdyby odjęto stopy PIT (zob. Wycena akcji ze wszystkimi podatkami dochodowymi). Dla Polski, przy COEC = 10%, byłoby to 8%.


Literatura:
[1] Gray, S. J., Kang, T., Yoo, Y. K., National Culture and International Differences in the Cost of Equity Capital, 2013;
[2] Fu, W. J., Penalized Estimating Equations, Mar. 2003.

niedziela, 19 listopada 2017

Prawidłowa wycena akcji bez PIT

W wielu niedawnych wpisach starałem się wykazać, że wycena akcji powinna uwzględniać podatek od zysków kapitałowych, niezależnie od tego kiedy sprzedamy akcje. Teraz pokażę, że prawidłowa wycena może całkowicie pominąć ten podatek. 

W artykule Wycena akcji ze wszystkimi podatkami dochodowymi wyprowadziłem wzór na wartość wewnętrzną akcji z PIT:

(1)


Natomiast stopę dyskontową r zapisałem w postaci:

(2)


Wówczas zastanawiałem się czym jest właściwie stopa r(a). Odpowiedź przyniósł artykuł CAPM skorygowany o PIT. Dalsza wycena Amiki  - jest to stopa obliczona za pomocą modelu rynkowego, jak np. CAPM. Możemy podstawić (2) do (1):

(3)


Pozbyliśmy się problemu z PIT. Oczywiście gdy n dąży do nieskończoności oraz g < r(a), dostajemy model Gordona:

(4)

Ale skoro dostajemy model Gordona, to po co w ogóle zaczynać z podatkami? Po pierwsze zauważmy, że (3) i (4) dostarcza ważnej informacji: jeśli stosujemy model Gordona, to musimy użyć dywidendy brutto, tzn. tej, którą wypłaca spółka, a nie tej, którą otrzymuje akcjonariusz!
Po drugie stopa r(a) to nie rzeczywista rentowność inwestora ani firmy, tylko zmiany giełdowe plus stopa dywidendy brutto - pomijam tu kwestię kosztów transakcyjnych.


P. S.

Można zadać pytanie, jeżeli wycena bez PIT jest prawidłowa, to dlaczego uznałem wyceny sporządzane przez analityków jako błędne ( Skorygowana rekomendacja dla Amiki - poprawiam wycenę analityków ), bo nie odejmują PITu? Rzecz polega na tym, że analitycy biorą złą stopę dyskontową, zaniżoną, przez co wycena jest zawyżona. Ich najczęstsza metoda to oszacowanie wartości firmy za pomocą WACC i od tej wartości odejmują poziom zobowiązań. Jest to prawidłowa metoda, jeśli oczywiście prawidłowo szacuje się poszczególne składniki. Warto spojrzeć na sposób wyceny analityków PKO BP, np. dla KGHM: https://www.bankier.pl/gielda/rekomendacje/KGHM
Opisana w miarę dokładnie wycena nie zawiera tego co najważniejsze, tzn. na jakiej podstawie przyjęta została beta = 1,4 oraz premia za ryzyko 5%. Nie muszę nawet sprawdzać, bo wiem jak to zrobili: oszacowali betę na dziennych stopach zwrotu! Jak to się ma do reszty danych, które są podawane w kategoriach rocznych? Dla rocznych stóp zwrotu KGHM w latach 1998-2016 za pomocą klasycznego CAPM, dostaniemy betę powyżej 2,7. Premia za ryzyko (różnica między średnią arytmetyczną stopą zwrotu z WIG a stopą wolną od ryzyka 3,4-4%) wyniosła ponad 8%. W ten sposób dostaniemy stopę dyskontową 25-26%.

Oprócz błędnej stopy dyskontowej, przyjęto także zbyt niskie tempo wzrostu w fazie modelu rezydualnego - zaledwie 1,5%. Czyli poniżej inflacji i poniżej rentowności obligacji skarbowych.

Dla KGHM w długim terminie można przyjąć g = stopa wolna od ryzyka z CAPM. Wtedy (4) zapisalibyśmy:

(5)

Zauważmy co by się stało, gdybyśmy podstawili dane, które obliczyłem. Załóżmy do tego, że przyszła dywidenda brutto wzrośnie o 25% z powodu lepszej koniunktury na miedzi:


Wycena ta jest błędna, dlatego, że dywidendy powinny rosnąć dużo szybciej niż w tempie 3-4%. Model ten będzie tyko poprawny na poziomie rezydualnym.

poniedziałek, 6 listopada 2017

Trend Amiki to prawdziwy Trend. Czy to przyczyna niedowartościowania?

Wg Investopedii trend to ogólny kierunek ceny aktywa w danym przedziale czasu. Inwestorzy nie zastanawiają się za bardzo czy na trend bardziej składa się autokorelacja czy niestacjonarność stóp zwrotu. Oba pojęcia są ze sobą związane, ale jednak intuicja podpowiada mi, że ważniejsza jest niestacjonarność, która implikuje np. falistość i cykliczność akcji (lub stóp zwrotu).

Są takie walory, które obiektywnie znajdują się w danym trendzie. Amica ewidentnie znajduje się w trendzie spadkowym.  Zupełnie inaczej jest z WIG, przynajmniej dziennym. Dzienne stopy WIG są auto-skorelowane, ale nie są niestacjonarne. Dla porównania zróbmy 2 testy: korelacji i stacjonarności - dla ruchu Browna, WIG oraz AMC.

Test autokorelacji: 
1) wygenerowany ruch Browna (2048 danych):


Brak autokorelacji, czyli to czego należało oczekiwać.

2) WIG (01.2010-03.11.2017):


Występuje autokorelacja 1 rzędu, być może nawet delikatna ujemna autokorelacja drugiego rzędu.

3) AMC (01.2010-03.11.2017):


Bardzo wysoka autokorelacja 1 rzędu.


Test niestacjonarności - KPSS (zob. Czy oczekiwane stopy zwrotu w ogóle się zmieniają?):

1) ten sam ruch Browna


Stopy są stacjonarne:


2) WIG (ten sam zakres):


Stopy są stacjonarne:


Struktura zmian WIG jest zupełnie inna niż błądzenia losowego, ale wynika to występowania efektu ARCH (zmian wariancji i autokorelacji wariancji).

3) AMC (ten sam zakres):


Stopy niestacjonarne na poziomie 10% istotności. Jest to słaba niestacjonarność, ale jednak występuje:


Zwracam uwagę, że na AMC - przynajmniej dla dziennych zmian - nie występuje długoterminowa pamięć. Gdyby występowała, to funkcja autokorelacji spadałaby bardzo powoli (por. Czym się różni pamięć długoterminowa od krótkoterminowej?).

W ostatnich artykułach starałem się dowieść, że AMC jest niedowartościowana (tu, tu, tu i tu). "Dowodem" ekonometrycznym na to jest właśnie niestacjonarność stóp AMC, która generuje konkretne tendencje, trendy. Gdyby akcja była dobrze wyceniona, to zmiany powinny być czysto losowe, tzn. kurs powinien kręcić się wokół wartości wewnętrznej, a zmienność wynikałaby z niezgodności co do oczekiwań przyszłych zysków lub zmian bieżących informacji fundamentalnych. Zaznaczyłem jednak słowo "dowód" w cudzysłów, bo jest to raczej argument niż dowód. Już kiedyś w artykule Teoria portfela nie implikuje efektywnego rynku pisałem:

Warunek dobrze wycenionych akcji nie musi jednak oznaczać, że gracze są w pełni racjonalni lub że rynek jest w pełni efektywny. Może wystąpić sytuacja, gdy stopy zwrotu są skorelowane, daje się przewidzieć kierunek kursu i na tym dodatkowo zarobić, a jednocześnie akcje będą nadal dobrze wycenione. Możemy wszakże spojrzeć na wartość akcji w szerszym kontekście - nie jak na liczbę lecz przedział.

Oczywiście w tym kontekście obecna cena 135 zł zakładałaby oczekiwania słabych wyników albo podwyższoną awersję do ryzyka. Jednak tylko to pierwsze można byłoby uznać za racjonalną przesłankę, dlatego że jeśli powodem cykliczności miałaby być zmienność awersji do ryzyka, to ta zmienność musiałaby mieć także charakter cykliczny. Prowadziłoby to do przewidywalności kierunku akcji i co ważniejsze - dawałoby gwarancję, że prędzej czy później nastąpi odwrócenie.
W tym miejscu ekonometria (a nawet analiza techniczna lub ekonofizyka, jeśli wolumen potraktujemy jako analogon energii) zaczyna wiązać się zarówno z analizą fundamentalną jak i portfelową.

wtorek, 31 października 2017

"Kapitał ludzki" - pojęcie do kosza

Ekonomia, która dzieli kapitał na rzeczowy i ludzki, wkrótce będzie musiała zrezygnować z tego podziału lub zmienić paradygmat z podziału poziomego na pionowy. Nie istnieje ścisła różnica pomiędzy rzeczą a żywą istotą; różnica tkwi jedynie w poziomie rozwoju i złożoności. Wszystko żyje; skoro nikt nie zaprzecza, że rośliny żyją, choć nie są "aż tak żywe" jak zwierzęta, to dlaczego nikt nie mówi, że skały i piasek są mniej żywymi - np. w stosunku do roślin - organizmami? Istnieją organizmy, tak zwane litopsy, nazywane też żywymi kamieniami, które z wyglądu  niczym się nie różnią się od podwodnej skały. Najbardziej znanym przykładem sprzeczności w terminologii organizmów są oczywiście wirusy, które uznawane są ni to za organizm żywy, ni to za materię nieożywioną. W zasadzie już samo poznanie wirusa jest dowodem na to, że podział na żywą i nieżywą materię, jest sztuczny.

I chociaż ekonomia nie zajmuje się szczegółowo biologicznymi aspektami kapitału, to jednak nie potrafi się logicznie oderwać od tych biologicznych sprzeczności. A okazuje się, że dziś pojęcie kapitału ludzkiego, czyli pochodzącego od człowieka, zupełnie traci swoje znaczenie, gdyż coraz bardziej zaawansowana technologia stopniowo zastępuje człowieka jako pracownika. W całości. Nie chodzi tu o jakiś wycinek, jak np. program komputerowy, który pozwala przyspieszyć wiele działań, bo tutaj ciągle świadoma jednostka musi mieć nad nim kontrolę. Chodzi o te zdolności, które obecnie przypisuje się jedynie człowiekowi. Aby nie wprowadzać nieporozumień, podam najpierw definicję "kapitału ludzkiego". Lucas [1] definiuje go jako

"ogólny poziom umiejętności, taki że pracownik z ludzkim kapitałem H, jest produktywnym odpowiednikiem dwóch pracowników z 0,5 H."

W modelu Lucasa główną własnością kapitału ludzkiego, która odróżnia go od kapitału rzeczowego, jest jego zdolność do uczenia się. Lucas stwierdza, że ważnym czynnikiem kreującym kapitał ludzki jest "uczenie się przez pracę" (learnig-by-doing), nazywamy to też efektem Horndala, czyli wzrost wydajności pracowników dzięki praktyce. 

Chociaż ekonomiści, jak Lucas, wyraźnie odróżniają kapitał ludzki od rzeczowego, to wkrótce te same zdolności i umiejętności będą posiadać roboty i taki podział będzie po prostu sztuczny, tak samo jak dziś sztucznie biolodzy dzielą materię na żywą i martwą. Nawiasem mówiąc, ironią losu jest, że Lucas nazwał swoją rozprawę "O mechanice ekonomicznego rozwoju", stawiając akcent na całkowitą mechaniczność procesu rozwoju.

Ostatnio głośnym echem odbiła się informacja o tym, że po raz pierwszy w historii robot otrzymał obywatelstwo Arabii Saudyjskiej:
Robot, który żartował kiedyś o zniszczeniu ludzkości, dostał właśnie obywatelstwo

Wielu oglądając filmy z humanoidem Sophią, przeżywa szok, że robot może być aż tak ludzki: nie tylko mieć ludzką twarz, ale także zmieniać jej wyraz, potrafić wyrażać rozmaite emocje, opinie, żartować, rozumieć i samemu ironizować, rzucać sarkazm, "wyczuwać" emocje rozmówcy, odpowiadać na pytania i natychmiast zadać (poprzez skojarzenia) jakieś własne pytanie. Sceptycy możliwości Sophii twierdzą, że nagrania z nią są zaimprowizowane, np. pytania jej zadane wcześniej odpowiednio opracowane. Poniższy fragment wywiadu w brytyjskiej telewizji świadczy o tym, że nie mamy tu do czynienia z żadnym nagranym scenariuszem:



Robot potrafi komunikować się z otoczeniem, wie dokładnie kiedy mówić, kiedy milczeć. W innym programie Sophia z innym robotem prowadzili ze sobą dyskusje. Sophia pokazała tam także swoje zdolności muzyczne (śpiewała piosenkę):

Two robots debate the future of humanity

Tak więc już dziś ten robot może konkurować w takich dziedzinach jak śpiew czy doradztwo w dowolnej dziedzinie.

To co jednak jest tu najważniejsze, co odróżnia go od kapitału rzeczowego, to zdolność do uczenia się zarówno rozumienia emocji ludzkich, jak i przekazywanych wiadomości w najróżniejszym kontekście. Język naturalny jest przecież tak skomplikowany, że wielu wątpiło, że robot jest w stanie w pełni zrozumieć niuanse danej sytuacji. Wiadomo, że Sophia wykorzystuje sztuczne sieci neuronowe. Umysł ludzki jest na pewno trudno odwzorować, ale wydaje się to możliwe. A skoro tak, to znaczy, że niczym się nie różnimy od robotów. Jesteśmy po prostu zaawansowanymi robotami.

Z praktycznego punktu widzenia nie jest nawet istotne czy roboty będą w stanie wszystko zrozumieć, bo ich zadania są dwa.
Pierwszym zadaniem będzie odciążenie ludzi od pracy. Drugim jest zwiększenie wydajności pracy. Nie muszę tutaj pisać o takich oczywistych sprawach jak zawód pakowacza (popatrzmy na ten filmik - Robot gets hilariously abused  - zapewne prędzej czy później pojawi się Stowarzyszenie Obrońców Robotów czy Fundacja Praw Robota). Ale weźmy przykład kasjera. Zdecydowanie wolałbym, żeby obsługiwała mnie Sophia niż znudzona, ledwie żywa ekspedientka. W dodatku nigdy się nie pomyli.
W urzędach nie będą nas obsługiwać znudzeni i niezbyt przyjemni urzędnicy, tylko zawsze chętni do pomocy doradcy, którzy jednocześnie zawsze będą perfekcyjni. Nikt nie będzie mógł już zwalić winy na urzędnika.

Podsumowując, kapitał ludzki niedługo będzie pojęciem przestarzałym i już teraz staje się mało precyzyjne. Bo idąc tokiem definicji Lucasa, dzisiejsze roboty spełniają definicję kapitału ludzkiego. Z ekonomicznego punktu widzenia są produktywnym substytutem człowieka.

Zob. też Robot ma wielkie oczy.


Literatura:
[1] Lucas, R. E., On The Mechanics of Economic Development, August 1987.

czwartek, 26 października 2017

CAPM skorygowany o PIT. Dalsza wycena Amiki

CAPM skorygowany o PIT ma postać:

gdzie:
r - oczekiwana stopa zwrotu z danego waloru (akcji), po pomniejszeniu o podatek PIT, 
r(f) - stopa wolna od ryzyka,
ρ(WIG, akcja) - współczynnik korelacji liniowej między stopą zwrotu portfela rynkowego a stopą zwrotu z wybranych akcji,
σ(.) - odchylenie standardowe stopy zwrotu danego waloru,
r(WIG) - oczekiwana stopa zwrotu WIG lub innego portfela rynkowego,
PIT - stopa PIT (pod warunkiem, że stopa podatku od dywidendy jest równa stopie od zysków kapitałowych).

Z teoretycznego punktu widzenia oszacowanie wymaganej stopy zwrotu za pomocą księgowych miar, jak ROE, jest nieprawidłowe. Największym mankamentem ROE jest to, że może zawierać zarówno zyski ponadprzeciętne, jak np. zyski monopolistyczne, jak i poniżej przeciętnej, podczas gdy inwestor giełdowy oczekuje wyników przeciętnych. Z tej perspektywy jest po prostu spełnioną lub niespełnioną realizacją wymagań inwestorów. Inną, mniej poważną przeszkodą jest fakt, że ROE stanowi pewną miarę zmian kapitału księgowego, które dotyczą tylko danego okresu inwestycyjnego, podczas gdy wymagana stopa zwrotu powinna uwzględniać oczekiwane zyski z całego życia projektu: rynkowa wartość akcji dyskontuje wszystkie oczekiwane zyski z przyszłości do teraźniejszości, a faktyczna stopa zwrotu wynika jedynie ze spełnienia lub niespełnienia tych oczekiwań. Jeśli spełniają się, to kurs się nie zmienia; jeśli wyniki są lepsze od oczekiwań, kurs wzrasta; jeśli nie spełniają się, kurs spada. Niezależnie od tego co się stanie z kursem, wymagana stopa zwrotu dotyczy zawsze przyszłości i może pozostać niezmieniona. Należy więc tu rozróżnić "oczekiwany zysk" w sensie księgowym od "wymaganego zysku" w sensie ekonomicznym: o ile oczekiwany zysk może się zmienić pod wpływem złych informacji, o tyle wymagany zysk to analogia wyniku egzaminu, gdy wymaga się określonej liczby punktów. A więc wymagana stopa zwrotu jest w dużym stopniu stabilna, podczas gdy ROE zależy od przypadku.
Dopiero znajomość księgowości pozwala nieco obronić księgowe podejście, albowiem jak wiadomo zysk nie może sobie skakać dowolnie z okresu na okres: zasady księgowości nakazują zachowanie współmierności przychodów do kosztów, a zatem przykładowo przychody muszą odpowiadać amortyzacji, która stanowi pewną okresową deprecjację aktywa i tym samym przychody także są "sztucznie" rozdzielone pomiędzy kolejne okresy. Tym samym zastosowanie średniej arytmetycznej ROE z wielu lat często okazuje się dobrym pośrednikiem oczekiwanej stopy zwrotu. Tak będzie w przypadku firm przeciętnych, ani powyżej, ani poniżej średniej, które funkcjonują od wielu lat na rynku.

W innych przypadkach księgowe podejście jest niewiarygodne. Wtedy zastosować należy model z danymi rynkowymi, taki jak CAPM (zob. CAPM - Security Market Line (SML)). Dlaczego jednak nie stosować od razu  tego modelu, skoro sprawdza się w bardziej złożonych sytuacjach? Chodzi o to, że on zawiera niemal ten sam mankament co podeście księgowe, a dokładniej mam na myśli wadę główną. ROE może znaleźć się przypadkowo powyżej lub poniżej przeciętnej i tak samo jest z CAPM, który opiera się na zmianach rynkowych. CAPM zakłada, że rynek znajduje się w równowadze lub szybko dąży do niej. Oznacza to, że odchylenia od średniej oraz korelacje z portfelem rynkowym (indeksem) są prawidłowe. O ile stabilność tych korelacji jest intuicyjnie całkiem prawdziwa, o tyle przyjęcie racjonalność odchyleń danego waloru, jest często wątpliwa, gdyż można sobie bez trudu wyobrazić, że dana spółka jest przez wiele miesięcy lub lat niedowartościowana tylko dlatego, że kapitał do niej nie dociera. A nie dociera z różnych powodów - np. małej liczby akcji, a przez to niskiej płynności, która uniemożliwia kupowanie większych pakietów. Albo sytuacja, gdy ponad 50% akcji trzyma prezes, a więc de facto akcjonariusze nie mają żadnej siły wpływu na działalność, a przez to nie chcą ryzykować dużych pieniędzy. Lub też jeśli duża część inwestorów "się obkupiła", to może trwać okres stagnacji spowodowany brakiem napływu kapitału. Przecież tylko w teorii efektywnego rynku panuje założenie, że istnieje nieskończona liczba uczestników rynku. Tak więc akcje mogą się mocno odchylić od średniej, nie będąc w równowadze i zanim do niej powrócą, może minąć minąć dużo czasu.

Ten ostatni powód prowadzi także do pewnego paradoksu. Na sam portfel rynkowy przecież składa się nic innego jak duża liczba różnych akcji, które mogą się odchylać od równowagi długookresowej, a ponieważ portfel rynkowy koreluje tylko sam ze sobą, to musi to implikować nieprawidłową średnią arytmetyczną. A zatem średnia arytmetyczna tego portfela może być nieprawidłowa. Ale jeśli nasza spółka odchyla się podobnie jak ten portfel, to oczekiwana stopa zwrotu CAPM będzie się wydawać prawidłowa. Trzeba by mieć prawdziwy benchmark, który nie odrywa się od równowagi. Dlatego bardziej precyzyjną miarą benchmarku byłby portfel złożony z płynnych aktywów zagranicznych - ale to rzecz do rozważenia na przyszłość.

Ostatnio sporządziłem wycenę Amiki, zgodnie z którą akcje powinny dziś kosztować 177 zł. I choć zaraz po moim tekście (zakładam, że przypadkowo) akcje ruszyły ze 153 do 168, to za moment zaczęły się już osuwać, tak że dzisiejsze spadki do 142 zł można nazwać małą paniką.

Zastanowiłem się więc jak wycena będzie wyglądać, gdy obliczę wymaganą stopę zwrotu klasycznym CAPM skorygowanym o podatek PIT. (Stosując metodę ROE nie korygowałem jej o podatek, ale on by nic nie zmienił. W tamtej metodzie podatek by się skrócił, dlatego że musielibyśmy zapisać ROE = Zysk(1-PIT) / [WK(1-PIT)]. Jednakże samo korygowanie zysku netto i WK jest naciągane, bo przecież z założenia są to miary księgowe dla firmy, a nie dla akcjonariusza). Wzór (12) w artykule Wycena akcji ze wszystkimi podatkami dochodowymi pokazał, że stopa zwrotu po skorygowaniu o podatek od dochodów osobistych (PIT) jest następująca:

(1)
gdzie D1 to dywidenda brutto, a P(t) to wartość wewnętrzna akcji w okresie t.

Należy zwrócić uwagę, że o ile dywidenda D1 zawiera podatek (tzn. dodajemy PIT), o tyle P(t) jest to cena, która jest skorygowana o PIT (pomniejszona o PIT). Ale jest to jednocześnie wartość wewnętrzna skorygowana o ten podatek, tzn. powstała w wyniku wyceny, która uwzględnia PIT. Oznacza to, że P(t) powinna być ceną napotkaną przez nas na rynku, czyli nie musimy jej już korygować.

Powoduje to, że możemy na początku użyć klasycznego CAPM bez korygowania cen:

(2)


gdzie r(f) - stopa wolna od ryzyka, ρ(WIG,AMC) - współczynnik korelacji liniowej między stopą zwrotu WIG a Amiką, σ(.) - odchylenie standardowe stpy zwrotu danego waloru, r(WIG) - średnia arytmetyczna stopa zwrotu WIG.

Uwaga:
Jeśli stosujemy obliczenia w starszych wersjach Excela, to powinniśmy używać tego właśnie wzoru zamiast standardowego z kowariancją i wariancją, tzn. z cov(WIG,AMC) / var(WIG) . Chodzi o to, że wzór na kowariancję jest dla populacji, a nie dla próbki. Dopiero w nowszych wersjach pojawił się wzór na kowariancję próbki (zdaje się funkcja KOWARIANCJA.PRÓBKI). Jeśli chcemy użyć mimo to kowariancji, to musimy dodatkowo ją przemnożyć przez wielkość n/(n-1), gdzie n to liczba obserwacji. Wtedy wzory będą identyczne. Różnica jest dość istotna - gdy zastosujemy poprawny wzór dla próbki, dostaniemy stopę 12,01%, natomiast dla błędnego 11,54%.

Dane dotyczą lat 1997-2016 (stooq.pl, po korekcie o dywidendy):



Po wstawieniu r(f) = 3%, r(WIG) = 10,37%, r(AMC) = 25,01%, wsp. korelacji = 0,49, odchylenia st AMC = 66,5% i odchylenia st WIG = 26,5%, dostałem r = 12,01%.

Taka wartość jest znacznie wyższa od oszacowanej poprzez ROE 9,1%. Gdyby wstawić 12% do wszystkich zastosowanych wzorów w artykule Wartość akcji dla dowolnej liczby lat przy stałej stopie wzrostu. Przykład wyceny Amiki to ostatecznie wartość AMC równałaby się zaledwie 122 zł.

Sytuacja się zmieni, gdy skorygujemy CAPM o PIT. Ktoś mógłby zarzucić, że wzór (2) już zawiera w sobie PIT. Ale nie zawiera. Skąd to wiadomo? Bo zauważmy czym jest wzór (1), gdy usuniemy PIT:

 (3)

Jak już wcześniej stwierdzono, D1 zawiera PIT, natomiast P(t) jest ceną pomniejszoną o PIT. A co zawierają obliczenia CAPM? Analizowane notowania z portalu stooq.pl są skorygowane o dywidendę brutto jakby podwójnie, a więc pozwalają uwzględnić część D(1) / P(0), czyli część stopy zwrotu związanej z dywidendą*. Natomiast ceny są wzięte bezpośrednio z notowań, które przecież nie są już sztucznie korygowane o PIT. A właśnie o to chodziło, bo sama cena powinna być pomniejszona o PIT.
Wynika z tego, że wzór (3) = (2) - to jest klasyczny CAPM.
Prawdziwa stopa zwrotu, r, musi zostać dopiero skorygowana wielkością (1-PIT). W ten sposób dostajemy wzór CAPM skorygowany o PIT:


Gdy podstawimy PIT = 19%, dostaniemy r = 9,73%. Tę wartość podstawiamy jako koszt kapitału własnego do wyceny. Pamiętajmy, że ROE = 9,1% pozostaje bez zmian. Powoduje to pewien dysonans, bo ROE < r, co jest skutkiem słabych wyników AMC w przeszłości. Zostawmy jednak na moment ten problem i podstawmy te dane do wzorów z Wartość akcji dla dowolnej liczby lat przy stałej stopie wzrostu. Przykład wyceny Amiki.

1) Pierwsze podstawienie. Uzyskana tak wartość brutto P = 196 zł, a po korekcie o PIT 158 zł.

2) Drugie podstawienie. Powyższa wartość jest pesymistyczna i w zasadzie nie powinna być już niższa. Bardziej obiektywną wyceną byłaby taka, w której ROE wróciłoby do poziomu kosztu kapitału r. Dlaczego nie odwrotnie, czyli r do ROE? Bo to ROE powinniśmy traktować jako zmienną, a r jako pewną równowagę. Jak już pisałem na początku, "ROE stanowi pewną miarę zmian kapitału księgowego, które dotyczą tylko danego okresu inwestycyjnego, podczas gdy wymagana stopa zwrotu powinna uwzględniać oczekiwane zyski z całego życia projektu". Jeżeli więc od drugiej fazy zwiększymy ROE do 9,73%, to wówczas wycena brutto Amiki to 200 zł, a wartość netto AMC = 162 zł.

3) Trzecie podstawienie. Założenie stopy wolnej od ryzyka 3% jest prawidłowe dla obligacji dwuletnich. Dla dłuższych okresów można przyjąć 4%. Podobnie jak wyżej zakładamy, że ROE dąży do r w drugiej fazie wzrostu. Wtedy r skoryg o PIT = 9,55% , a wycena netto AMC wzrasta do 166 zł.

Jeśli przyjąć to trzecie rozwiązanie, to wycena za pomocą stopy CAPM nie różni się aż tak bardzo od wyceny za pomocą stopy księgowej. Jest to różnica nieco ponad 6%.

Bez względu na sposób wyceny, nie ma większych wątpliwości, że AMC na poziomie 142 jest niedowartościowana, no chyba że ujawnią się za chwilę jakieś negatywne fundamentalne niespodzianki.


* Mechanizm odcięcia dywidendy od kursu jest w rzeczywistości niepotrzebny, jeśli odsuniemy problem kosztów transakcyjnych. Załóżmy, że kupuję akcje po 100 zł i liczę na to, że dostanę dywidendę 5 zł. Mija nieco czasu, akcje kosztują 104 zł i jednocześnie jest prawie pewne, że dostanę taką dywidendę. Mija znowu chwila i już jest pewne, że dywidenda wyniesie 5 zł. Kurs wynosi więc 105 zł. Co się dalej dzieje? Nic, po prostu wartość akcji jest powiększona o te 5 zł i nie ma związku z kursem, który prognozuje już przyszłe dywidendy, a nie te co są pewne. Innymi słowy zmienia się wartość 100 zł, a 5 zł leży dodatkowo. Logiczne więc, że w momencie gdy faktycznie dostaję dywidendę, to cena musi spaść o te 5 zł. Nie jest potrzebne żadne sztuczne odcinanie, jakie jest robione. Giełda więc wysługuje w tym inwestorów, ale przez to powoduje też niepotrzebne zamieszanie w notowaniach, gdyż np. wykresy do AT mogą zgłupieć.

Techniczne obniżenie kursu ma dwojaki sens. Pierwszy to ograniczanie niepotrzebnych kosztów prowizji dla maklerów. Drugi, pośredni, to możliwość uzyskania całkowitej stopy zwrotu, tzn. stopy dywidendy + zmiany kursu. Portale takie jak stooq.pl korygują wszystkie notowania z przeszłości o odciętą dywidendę, dzięki czemu baza, od której kurs rośnie, jest odpowiednio mniejsza, a przez to stopa zwrotu większa. Powoduje to, że ściągając dane z tego serwisu (z domyślnymi opcjami), tak naprawdę nie dostajemy samych notowań, ale notowania powiększone o dywidendy. Oznacza to, że jeśli obliczamy z tych notowań stopę zwrotu (P1-P0)/P0, to w rzeczywistości jest to całkowita stopa zwrotu, a więc D1/P0 + (P1-P0)/P0 . Dzieje się tak, bo serwis odejmuje jakby dwukrotnie dywidendę: pierwsze odjęcie to faktyczne odcięcie dywidendy od kursu, czyli następuje przesłanie dokładnie tego kursu, jaki podaje od rana giełda. Drugie odjęcie to odcięcie dywidendy od wszystkich notowań poprzedzających dzień odcięcia. To drugie "nadmierne" odcięcie pokazuje automatycznie zwrot z samej dywidendy. Usprawnia to obliczanie całkowitej stopy zwrotu.