poniedziałek, 17 grudnia 2018

Optymalna inflacja?

Często w artykułach ekonomicznych czytamy, że zbyt niska inflacja grozi spowolnieniem gospodarczym, a deflacja wręcz recesją. Z tego powodu banki centralne określają tzw. "cel inflacyjny". W gospodarkach światowych cel inflacyjny koncentruje się wokół 2% rocznie [5]. Dlaczego akurat tyle? Od początku: czy ogólny wzrost cen powinien kosztować coś gospodarkę? Wiadomo, że koszt taki nie powinien oznaczać spadku realnych wynagrodzeń/dochodów ludności, bo w końcu nawet jeśli konsumenci tracą, to producenci zyskują, wzrostowi cen towarzyszą wzrosty płac. Całkowity efekt powinien pozostać zerowy.  (Pomijam tu takie grupy społeczne jak emeryci i bezrobotni, którzy jako grupa realnie mogą tracić na inflacji. Trzeba jednak zaznaczyć, że grupy te otrzymują pieniądze od państwa, a państwo pozyskuje większe podatki dzięki inflacji, stąd ewentualny koszt wynikałby tylko ze sztywnej polityki społecznej państwa). Można więc powiedzieć, że inflacja nie wpływa na realne dochody księgowe, przynajmniej w długim terminie.

Jeżeli jednak spojrzymy na dochody szerzej, wliczając zyski i koszty społeczno-ekonomiczne, to okazuje się, że perspektywa się zmienia. Po pierwsze inflacja wywołuje tzw. koszty zmiany menu. Przedsiębiorcy muszą częściej zmieniać ceny i informować o tym kontrahentów. Tutaj też będą mieściły się większe koszty zarządzania pieniędzmi.

Po drugie powstają tzw. koszty zdartych zelówek (ang. shoe-leather costs). Chodzi tu o to, że inflacja wymaga większego ruchu, myślenia, energii. Nominalna stopa procentowa rośnie, czyli rośnie koszt alternatywny utrzymywania gotówki - ludzie starają się utrzymywać zasób gotówki na niższym poziomie, bo z jednej strony mają większą stopę oprocentowania oszczędności, z drugiej kredyty stają się droższe. Ludzie muszą więcej poświęcić czasu i energii na nowe formy inwestycyjne.

Po trzecie, jeżeli inflacja jest procesem stochastycznym, tak jak to ma miejsce w rzeczywistości, to powstaje koszt niepewności co do wzrostu cen w przyszłości. Jest to najpoważniejszy koszt ekonomiczny, bo wywołuje stałą potrzebę diagnozowania poziomu cen w gospodarce, prognozowania ich i dostosowywania się do nowych warunków, a także zwiększa niechęć do kapitałochłonnych inwestycji.

Wielu ekonomistów wskazuje jednak, że inflacja przynosi także przychody ekonomiczne. Może ona stanowić sprytne narzędzie do urealnienia wynagrodzeń. Pracownicy nie chcą, aby ich wynagrodzenie spadło, nawet jeśli sytuacja gospodarcza się pogarsza. Zjawisko to nazywane jest sztywnością płac. Inflacja sprawia, że realne wynagrodzenie spadnie, zastępując w ten sposób koszty negocjacji z pracownikami. Szczególne znaczenie będzie to miało w relacjach ze związkami zawodowymi, z którymi pracodawcy nie będą musieli wojować o obniżki płac, a nawet mogą zgodzić się na podwyżki. W ten sposób spadają koszty czasu czy zużycia energii.

Innym pozytywnym skutkiem inflacji jest to, że potrafi urealnić stopę procentową. Nominalna stopa procentowa może spaść tylko do zera, a więc gdy następuje kryzys, bank centralny nie może już więcej zdziałać, tzn. zostaje ograniczony w pobudzaniu aktywności gospodarczej. Jest to tzw. pułapka płynności. Gdy włączymy inflację, realna stopa procentowa spadnie poniżej zera:
realna stopa = (nominalna stopa - stopa inflacji) / (1 + stopa inflacji).
Jeżeli więc nominalna stopa = 0, to realna stopa = -stopa inflacji / (1+ stopa inflacji). Gdy inflacja jest mała, realna stopa procentowa będzie w przybliżeniu równa stopie inflacji ze znakiem ujemnym. Większa inflacja sprawia, że poprawia się sytuacja pożyczkobiorców, a pogarsza pożyczkodawców (zwrócone pieniądze za rok będą już mniej warte niż dziś, czyli można kupić więcej dziś niż za rok). Ludzie zwiększą więc konsumpcję i inwestycje, nakręcając tym samym gospodarkę. Stąd inflacja działa jak ujemna stopa procentowa. Opisana teoria to spojrzenie neo-keynesistowskie.

Dla przykładu, O. Coibion et al. [3] wykorzystują to spojrzenie do stworzenia modelu optymalnej inflacji, uzyskując optimum na poziomie 1,5%:

Źródło: O. Coibion et al. [3]

ZLB - Zero Lower Bound, tj. zerowa dolna granica, tj. sytuacja gdy stopa procentowa jest bardzo niska lub równa zero, powodując tzw. pułapkę płynności i ograniczając możliwości banku centralnego do pobudzania aktywności gospodarczej.

Na rysunku powyżej mamy 3 krzywe. Linia ciągła to połączenie obydwu pozostałych, tzn. zawiera zarówno koszty inflacji, jak i przychody z efektu ZLB. Model zawiera najwyższą użyteczność dla stopy inflacji 1,5%, stąd autorzy sugerują taki właśnie cel inflacyjny.

Powyżej wymienione koszty i "przychody ekonomiczne" inflacji to tylko wybrane przeze mnie przykłady z literatury, które są zrozumiałe i nie budzą większych zastrzeżeń.

W rzeczywistości jednak literatura na ten temat jest ogromna i wyniki publikacji różnią się skrajnie. Bardzo ciekawą meta-analizę zagadnienia optymalnej inflacji przeprowadził niedawno Diercks [4]. Przedstawiony przez niego wykres rezultatów poszczególnych publikacji mówi wszystko o tym jak kontrowersyjny i niejednoznaczny jest to temat:


Diercks podaje też tabelę z wartościami dla tego wykresu. Chociaż nie obliczył średniej, co byłoby na pewno sztuczne, to zrobiłem to za niego. Jeśli czegoś nie pominąłem, to średnia arytmetyczna optymalnych inflacji wyniosła -0,18%. Oczywiście spośród 100 prac znalazłyby się takie, których założenia byłyby bardziej kontrowersyjne od reszty, być może wiele trzeba by odrzucić, ale mimo wszystko dostajemy obraz zupełnie różny od tego, który współcześnie jest najczęściej kreowany przez analityków czy niektórych polityków, tj., że lepsza jest inflacja od deflacji. Można postawić tezę, że globalnym optimum jest zerowa inflacja. Dlatego w obecnych czasach cel inflacyjny powinien być bardziej debatowany publicznie i poddawany pod wątpliwość.


Literatura:
[1] Baranowski, P., Problem optymalnej stopy inflacji w modelowaniu wzrostu gospodarczego, 2008;
[2] Billi, R. M., Kahn, G. A., What Is the Optimal Inflation Rate?, 2008;
[3] Coibion, O., Gorodnichenko, Y.,Wieland, J., The Optimal Inflation Rate in New Keynesian Models: Should Central Banks Raise Their Inflation Targets in Light of the Zero Lower Bound?, October 2012;
[4] Diercks, A. M., The Reader's Guide to Optimal Monetary Policy, June 2017;
[5] Schmitt-Grohe, S., Uribe, M., The Optimal Rate Of Inflation, June 2010.

wtorek, 4 grudnia 2018

Aktualizacja analizy GTN

Ostatni raz poruszam kwestię analizy dyskryminacyjnej Getin Holding, bo niedawno pojawił się raport za 3 kwartał 2018. Trzeba więc sprawdzić czy ekstremalna przecena spółki ma rację bytu po ukazaniu się wyników. To że wyniki będą złe było oczywiste, natomiast kontrowersyjna jest skala reakcji. Stosuję tutaj ciągle model Siudka, o którym szczegółowo pisałem w tym artykule. Model jest postaci:

Z = 0,0399 X1 - 0,11592 X2 - 0,206739 X3 + 0,022422 X4 - 0,332494

gdzie:
X1 - Wskaźnik rentowności kapitałów własnych, ROE
X2 - Wskaźnik udziału majątku i inwestycji kapitałowych w aktywach netto
X3 - Wskaźnik udziału kapitału pracującego w aktywach netto
X4 - Wskaźnik udziału kredytów netto w aktywach netto

Podawane tu wartości są w tys. zł. Skumulowana strata za 9.2017 - 9.2018 wyniosła 281 302. Kapitał własny na 3 kw 2018 = 2 575 255. Możemy się też posłużyć KW tylko dla akcjonariuszy jednostki dominującej, ale to nie zmieni ostatecznego rezultatu. Stąd ROE = -11%. Skumulowany dochód całkowity za 9.2017 - 9.2018 równa się -369 822. Aby uzyskać kapitał pracujący, potrzebne sa aktywa obrotowe i zobowiązania bieżące. Aktywa obrotowe nie są jawnie podane (jedynie dla sprawozdania jednostkowego, które opisałem oddzielnie niżej), więc dodałem następujące pozycje ze sprawozdania fin:



Na żółto zaznaczone są należności od klientów, bo je podzieliłem na 2 - założyłem, że połowa z tych należności jest bieżąca.

Aby uzyskać zobowiązania bieżące (które tez nie są podane dla spr. skonsolidowanego), odjąłem od wszystkich zobowiązań połowę zobowiązań wobec klientów i zobowiązania z tytułu emisji dłużnych papierów wartościowych. Oczywiście kontrowersyjne jest założenie, że tylko połowa zobowiązań jest bieżąca, ale trzeba zachować pewną równowagę wobec należności, z którymi zrobiłem to samo. W sumie dostałem zobow bieżące = 14 018 930.

Za kredyt netto przyjąłem kredyty, pożyczki i pewne ich ekwiwalenty, jak emisja dłużnych papierów (co dało sumę 23 444 979), pomniejszone o kasę i rachunki w bankach (1,8 mln).

Ostatecznie dostałem Z-score = -0,4. Oznacza to, że sytuacja GTN nie pogorszyła się tak, aby akcje wyceniać jak bankruta, co ma obecnie miejsce (C/WK = 0,07).

Trzy uwagi. Po pierwsze może dziwić to, że pomimo straty, Z-score nie pogorszył się. W modelu Siudka ROE paradoksalnie odgrywa jednak negatywną rolę w ocenie firmy. Z jednej strony strata jest oczywiście pogorszeniem jej funkcjonowania, ale z punktu widzenia oceny prawdopodobieństwa bankructwa, ważniejszą rolę pełni wielkość kapitału własnego, który stanowi pewną "poduszkę" w sytuacjach kryzysowych. Większy kapitał w mianowniku oznacza większe zabezpieczenie przed niewypłacalnością.
Po drugie wyżej napisałem, że kontrowersyjne jest założenie, że tylko połowa zobowiązań wobec klientów jest bieżąca. Gdybyśmy na przykład przyjęli 3/4, to Z-score skoczyłby już do 0,03, a więc ryzyko bankructwa stałoby się realne. Gdyby więc nagle 3/4 klientów chciało wypłacić środki na skutek obawy, że nie dostaną z powrotem swoich pieniędzy (afera KNF mogła to zamplifikować), GTN miałby duży problem z wypłatą środków. Pracownicy banku powinni więc być przygotowani na taką panikę i wyjaśnić przestraszonym klientom, że do 100 tys. euro ich środki są gwarantowane przez BFG i nie mają się czego obawiać. 

Po trzecie dobrym pomysłem, aby uwiarygodnić analizę, jest przeprowadzenie jej dla sprawozdania jednostkowego. Tak też zrobiłem. W tym przypadku nie ma problemu z wyłuskaniem nieznanych  pozycji, bo są podane w bilansie. Okazuje się, że wynik pogorszył się tylko trochę: Z-score wyniósł -0,31. Wynika z tego, że użycie proporcji dla skonsolidowanych danych było w miarę poprawne. W ten sposób możemy mniemać, że GTN nie jest zagrożony bankructwem.

Oto link do pliku xlsx z wyliczeniami tej dzisiejszej analizy (zarówno dla skonsolidowanego jak i jednostkowego sprawozdania). Każdy może sobie sam sprawdzić obliczenia i potestować:
https://drive.google.com/file/d/1gks3RPd2njglqSDALw5upGMV-8W2E1lZ/view?usp=sharing

niedziela, 18 listopada 2018

Sprowokowany aferą KNF - model Siudka raz jeszcze

Wybuch afery KNF w ostatnim tygodniu i niewyobrażalne jeszcze do niedawna spadki spółek L. Czarneckiego na giełdzie prowokują do zastanowienia się czy rzeczywiście z Getinem jest aż tak źle. Media od lewa do prawa oraz... KNF twierdzą, że Getin ma kłopoty finansowe. Ta negatywna ocena ma swoje uzasadnienie w słabych ratingach nadanych przez kilka niezależnych agencji. Moody's, Fitch oraz EuroRating konsekwentnie obniżyły ocenę Getin Noble do B-, czyli poziomu, na którym istnieje podwyższone ryzyko kredytowe.
Jednak czy to dotyczy Getin Holdingu? Jeszcze we wrześniu mała analiza dyskryminacyjna odrzucała zagrożenie niewypłacalnością.

Mnie to sprowokowało, by powrócić do tego artykułu i dodać w nim analizę innych banków notowanych na giełdzie. Gdyby się okazało, że mają one drastycznie różny poziom Z-score od GTN, to można by zacząć doszukiwać jakiegoś punktu zaczepienia do odpowiedzi na pytanie o tak gigantyczne spadki.

Oczywiście istnieje jeszcze druga możliwość - że model Siudka, którym się posługiwałem, został niepoprawnie skonstruowany albo zwyczajnie jest niewystarczający. Powstało sporo modeli zagranicznych przewidujących bankructwa banków, którymi na pewno warto byłoby się wspomóc. Na obecną chwilę model Siudka musi wystarczyć.

Najwrażliwsza składowa modelu dotyczy zmiennej X3, która posiada wagę 21%. Przypomnę, że X3 = (Aktywa Obrotowe – Zobowiązania Bieżące) / Kapitał własny. Przykładowo dla Idei dostaliśmy (21490287 - 20674598) / 2437170 = 33,5%. Załóżmy teraz, że zobowiązania bieżące są większe o 3 mln (dane w tys. zł), a aktywa obrotowe nie zmieniają się (czyli zobowiązania bieżące poszły na długoterminowe inwestycje). Wtedy X3 spadnie do -90%. Jeśli te 3 mln to kredyty, co jest najbardziej prawdopodobne, wtedy X4 wzrośnie do 900%. W takiej sytuacji Z score stanie się dodatni (Z = 0,053 dla X1 = zysk netto/kapitał własny lub Z = 0,073 dla X1 = dochód całkowity / kapitał własny), czyli trzeba byłoby uznać, że Idea jest niewypłacalna. Czyli widzimy, że model Siudka zachowuje pewną wrażliwość na zmiany zobowiązań krótkoterminowych - to czego oczekiwalibyśmy po prawidłowym modelu.

Dalsza część została dodana do tego artykułu (którego tytuł brzmi dzisiaj trochę dziwnie - pamiętajmy, że analiza dotyczy okresu na 1 kwartał 2018).

.......................................................................................
Dla porównania tych wyników z rynkiem, sprawdziłem dodatkowo GNB, mBank, PKO BP oraz ING BŚ. Ten sam zakres na 1 kw. 2018 na danych zannualizowanych. 

Getin Noble Bank:
X1a = Wynik netto / kapitał własny = -14,4%.
X1b = Dochód całkowity / kapitał własny = -12,3%.
X2 - analogicznie jak w poprzednich przykładach, bierzemy średnią dla wypłacalnych i niewypłacalnych:
X2 = 5,21%
X3 = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = 43,86%
X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania wobec klientów + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / Kapitał własny =1400%.

Z(a) = 0,0399 *X1a - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,121.

Z(b) = 0,0399 *X1b - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,12

Analiza ta wskazuje, że GNB jest niebezpiecznie blisko 0, co rodzi pewne ryzyko niewypłacalności. Możemy pospekulować, że zejście Z do zera, będzie oznaczać rating CCC, a potem z każdym kolejnym wzrostem coraz bliżej D. Dopóki GNB nie zejdzie do samego zera, twierdzenie, że Getin Noble to bankrut, jest przesadą i na obecną chwilę bank nie ma problemów z pokryciem zobowiązań.

Mbank:
X1a = ROE = zysk netto / kapitał własny = 1287070 / 14484158 = 8,9%
X1b = Dochód całkowity / kapitał własny = 1460332 / 14484158 =10%.
X2 = 5,21%
X3 = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = (130813879 - 116289638) / 14484158 = 100,3%
X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania wobec klientów + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / Kapitał własny = (115355334-5354319) / 14484158 = 759,5%.

Z(a) = 0,0399 *X1a - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,372

Analogicznie sprawdzimy ten model dla

Z(b) = 0,0399 *X1b - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,371.

Tak więc mbank ma porównywalny wskaźnik do GTN, co potwierdzałoby, że charakteryzuje się podobnym stopniem wypłacalności.


PKO BP:
X1a = zysk netto / kapitał własny = 8,2%
X1b = dochód całkowity / kapitał własny = 9,7%.

X2 = 5,21%
X3 = 163,8%
X4 = 620,4%.

Z(a) = 0,0399 *X1a - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,535
Z(b) = 0,0399 *X1b - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,534

Widać, że PKO mocno trzyma w ryzach wskaźniki płynności i daleko mu do zagrożenia.


ING Bank Śląsk:
Dochód całkowity jest zbliżony do zysku netto i Z score jest niemal identyczny w obu wariantach, więc podaję tylko wesję Z(b):
X1 = 12,6%
X2 = 5,21%
X3 = 106,1%
X4 = 897,6%

Z = -0,352.

W przypadku ING należy zwrócić na jeden aspekt. Wysoki poziom ROE 12,6% (w wersji X1a  11,8%) przyczynia się do wysokiego poziomu C/WK, który obecnie wynosi niemal dwukrotność kapitału własnego. Natomiast z punktu widzenia wypłacalności, bank jest przeciętny. Poziom -0,35 jest podobny zarówno do GTN jak i MBK.

Biorąc pod uwagę, że MBK i PKO mają rentowności podobne do GTN, a MBK  i ING mają także Z-score podobny do GTN, trudno racjonalnie wytłumaczyć tak głębokie, niekończące się spadki Getin Holdingu, nawet biorąc pod uwagę słabsze wskaźniki Idei i powiązanego z nimi Getin Noble.

wtorek, 13 listopada 2018

Meta-analiza polskich meta-analiz dyskryminacyjnych do przewidywania bankructw

Na przestrzeni ostatnich kilku lat powstało wiele meta-analiz porównujących ze sobą skuteczność polskich modeli dyskryminacyjnych w prognozie upadłości przedsiębiorstw lub po prostu do oceny ryzyka upadłości. Okazuje się, że w zależności od badanych prób (zarówno w sensie przestrzennym jak i czasowym), wyniki badań są niejednoznaczne. Dlatego usystematyzuję niektóre z nich i wyciągnę ogólne, uśrednione wnioski (wtedy też dopiero podam postaci najlepszych modeli). Podane tutaj publikacje są tylko pewnym wyrywkiem wielkiej literatury na zadany temat, ale wydaje mi się, że pozwolą spojrzeć obiektywnie na wybór modeli dyskryminacyjnych. Warto w tym miejscu dodać, że najczęściej stosowany w serwisach finansowych wskaźnik Altmana nie jest optymalny w polskich warunkach. To właśnie stąd powstało wiele polskich modeli dyskryminacyjnych, które służą do oceny przede wszystkim przedsiębiorstw krajowych.

1. Kisielińska, J. i Waszkowski, A. [2010]: sprawdzili następujące modele:
- Model Hołdy (M_H)
- Model J. Gajdki i T. Stosa (M_GS) 
- 2 modele B. Prusaka (M_P1), (M_P2)
- 7 modeli powstałych w Instytucie Badań Ekonomicznych Polskiej Akademii Nauk (PAN), inaczej modele Mączyńskiej-Zawadzkiego: PAN-A, PAN-B, PAN-C, PAN-D, PAN-E, PAN-F, PAN-G.
- Model D. Wierzby (M_W)
- Model „poznański” (M_P)
- 4 modele logitowe Gruszczyńskiego: MLD1, MLD2, MLD3, MLD4

Autorzy przedstawili wyniki badania w formie tabeli:

Tabela 1
Źródło: Kisielińska, Waszkowski [2010]

gdzie:
W(t) - globalny procent poprawnych klasyfikacji
W(t0) - procent poprawnych identyfikacji bankrutów
W(t1) - procent poprawnych identyfikacji nie-bankrutów

Za najlepsze modele należy uznać M_GS oraz PAN-F. Oba wykryły zagrożenie upadłością w przypadku 88% bankrutów oraz poprawnie odrzucały to zagrożenie w przypadku 94% przedsiębiorstw o dobrej kondycji - to bardzo dobry wynik. Niestety wg mnie praca została niedopracowana, bo trudno znaleźć okres jaki minął od momentu prognozy do momentu ogłoszenia bankructwa, a bez tego elementu nie jesteśmy w stanie poprawnie oszacować wiarygodności wskaźnika przyszłości firmy.

2. Antonowicz, P. i Szreder, P. [2013]: badacze skupili się tylko na 2 spółkach, których upadłość w 2012 r. zaskoczyła rynek: BOMI S.A. i Rabat Service S.A. Wybór modelu został dokonany w oparciu o poprzednią publikację Antonowicza, w której także spośród wielu różnych modeli wyselekcjonowano najlepsze. Należały do nich:

- PAN-G (Z 7 INE PAN)
- PAN-F (Z 6 INE PAN)
- Model Hamrola, Czajki i Piechockiego, tj. model "poznański", M_P, (Z_HCP)
- M_P1 (Z_BP1)
- M_P2 (Z_BP2)
- M_W (Z_DW)

Jak widać wszystkie wymienione wcześniej modele powtórzyły się. Popatrzmy zatem jak poradziły sobie tym razem:

Tabela 2
Ocena zdolności prognostycznych BOMI S.A.

 Żródło: Antonowicz, P. i Szreder, P. [2013]


Tabela 3
Ocena zdolności prognostycznych Rabat Service S.A.

Żródło: Antonowicz, P. i Szreder, P. [2013]


W obydwu przypadkach najlepszą predykcją wykazały się modele Prusaka, które już 2 lata przed upadłością dawały ostrzeżenia, a nawet 3 lata wstecz wykazywały ujemną wartość. Drugi model Prusaka (Z_BP2) daje trochę lepsze wyniki niż Z_BP1. Najgorzej z tutejszej listy poradziły sobie Z_HCP i Z_DW.

Nasuwa się pytanie dlaczego modele Prusaka szybciej ostrzegały inwestorów niż inne? Jedną z możliwych odpowiedzi jest to, że są one bardziej restrykcyjne w ocenie każdego przedsiębiorstwa i np. zdrowe spółki będą zbyt szybko odrzucać. Aby to wstępnie ocenić możemy spojrzeć na Tabelę 1. Przed chwilą powiedziałem, że Z_BP2, tj. M_P2, nieco lepiej ostrzegał przed niewypłacalnością. Patrząc na tabelę 2, widzimy, że M_P2 istotnie bardzo dobrze przewidywał bankruty, ale jednocześnie błędnie oceniał aż 87% nie-bankrutów jako przyszłe bankruty. Z drugiej strony popatrzmy na MP_1 w tej samej tabeli. Tutaj model nie daje aż tak złych wyników (25% nie-bankrutów ocenia jako bankruty), a jednocześnie znakomicie sobie radzi z oceną przyszłych bankrutów (tylko 12% bankrutów ocenia błędnie jako zdrowe). W sumie można stawiać tezę, że o ile MP_2 jest istotnie zbyt restrykcyjny, o tyle MP_1 może być optymalny.

Istnieje jednak drugie wyjaśnienie skuteczności modeli Prusaka. Zauważmy, że obydwa bankruty BOMI i Rabat Service należą do branży FMCG (ang. Fast Moving Consumer Goods, tj. branży dóbr szybko zbywalnych, inaczej produktów szybko rotujących). Możliwe, że modele Prusaka po prostu lepiej oddają kondycję branży spożywczej.

Najprawdopodobniej sytuacja wygląda tak, że M_P2 jest rzeczywiście zbyt restrykcyjny, a jednocześnie MP_1 i MP_2 najlepiej sprawdzają się w branży spożywczej. Kolejna pozycja potwierdza tę hipotezę.

3. Balina, R. i Bąk, J. M. [2016]: szeroka i drobiazgowa meta-analiza zarówno modeli zagranicznych jak i polskich z podziałem na branże. Zbadano następujące modele polskich autorów:
- Pogodzińskiej i Sojak,
- Gajdki i Stosa I,
- Gajdki i Stosa II,
- Hadasik I,
- Hadasik II,
- Hadasik III,
- Hadasik IV,
- Wierzby (M_W),
- Stępnia i Strąka I,
- Stępnia i Strąka II,
- Stępnia i Strąka III,
- Stępnia i Strąka IV,
- Hołdy (M_H),
- INE PAN (Mączyńskiej i Zawadzkiego) I (PAN-A),
- INE PAN (Mączyńskiej i Zawadzkiego) II (PAN-B),
- INE PAN (Mączyńskiej i Zawadzkiego) III (PAN-C),
- INE PAN (Mączyńskiej i Zawadzkiego) IV (PAN-D),
- INE PAN (Mączyńskiej i Zawadzkiego) V (PAN-E),
- INE PAN (Mączyńskiej i Zawadzkiego) VI (PAN-F),
- INE PAN (Mączyńskiej i Zawadzkiego) VII (PAN-G),
- Appenzeller i Szarzec I,
- Appenzeller i Szarzec II,
- Poznański (M_P),
- Prusaka I (M_P1),
- Prusaka II (M_P2),
- Prusaka IV,
- Juszczyka.

Te modele, które się powtórzyły, zaznaczyłem w nawiasie. Modele Gajdki i Stosa występowały wcześniej, ale miały inną postać, więc ich nie zaznaczałem. Zbiorcze wyniki prezentuje Tabela 4:

Tabela 4
Źródło: Balina, R. i Bąk, J. M. [2016]

gdzie:
SP0 -  globalny procent poprawnych klasyfikacji,
SP1 - procent poprawnych identyfikacji bankrutów
SP2 - procent poprawnych identyfikacji nie-bankrutów

Bez podziału na branże najwyższym poziomem sprawności ogólnej (SP0 = 75,8%) charakteryzowały się trzy modele: poznański, INE PAN VII oraz Stępnia i Strąka II. Czwarte miejsce zajął model
Prusaka I z odsetkiem poprawnych wskazań na poziomie 74,2%. Z punktu widzenia oceny samych bankrutów dobrze poradziły sobie modele INE PAN.

W branży spożywczej najwyżej uplasował się model Prusaka I i model INE PAN III (oba SP0 = 82,5%). Potwierdza to wcześniej postawioną tezę, że model Prusaka lepiej się sprawdza w tym obszarze. Ciekawe jest też porównanie SP1 i SP2 obu modeli. O ile model Prusaka lepiej oceniał zdrowe firmy (odpowiednio SP1 = 75% i SP2 = 90%), o tyle INE PAN III na odwrót (SP1 = 95%, SP2 = 70%). Sugeruje to, że dobrym pomysłem jest połączenie obydwu modeli dla przedsiębiorstw branży spożywczej.

W branży budowlanej pierwsze miejsce przypadło modelowi Stępnia i Strąka II (SP0 = 80%), a drugie INE PAN VII (SP0 = 75,5%). Również w tym przypadku modele działają jakby wymiennie: Stępnia i Strąka II lepiej ocenia firmy zdrowe (SP1 = 70%, SP2 = 90%), a INE PAN VII więcej wychwytuje bankrutów (SP1 = 80%, SP2 = 75%). Czyli znów zwiększymy szanse predykcji posługując się jednocześnie dwoma modelami w budowlance.

"Faworytem" branży transportowej towarów okazał się model Hadasik IV (SP0 = 82,5%) i Hadasik III (SP0 = 80%). Generalnie Hadasik III można w tej gałęzi uznać za najlepszy, bo poprawnie wykrywał bankrutów na 80% (SP1 = 80%) i tak samo nie-bankrutów (SP2 = 80%). Nawet jednak tutaj INE PAN VII poradził sobie niewiele gorzej (SP0 = 77,5%, SP1 = 70%, SP2 = 85%).

4. Zielińska-Sitkiewicz, M. [2016]: to krótka meta-analiza wybranych przedsiębiorstw branży spożywczej. Przetestowano 3 modele:
- model "poznański" (Z_HCP lub M_P)
- model Prusaka II (Z_BP2 lub M_P2)
- INE PAN 7 (PAN-G).

Wyniki Z_HCP:
Tabela 5

Źródło: Zielińska-Sitkiewicz, M. [2016]

Wyniki Z_BP2:

Tabela 6
Źródło: Zielińska-Sitkiewicz, M. [2016]


Wyniki INE PAN 7:

Tabela 7
Źródło: Zielińska-Sitkiewicz, M. [2016]


Model Z_HCP wskazał na zagrożenie upadłością dla spółek: Duda SA (2009), Jago SA (2011) oraz Wilbo SA (2012).
Zastanawiające dane przyniósł BP_2. Chociaż wskazywał wiele zagrożeń: Makarony Polskie SA (2008), Mispol SA (2011), Pamapol SA (2008), Pepees SA (2008, 2009 i 2014) oraz Wilbo SA (2012), to nie przewidział problemów Jago, która upadła w 2012. Zarówno Z_HCP jak i INE PAN 7 sygnalizowały zagrożenia w Jago, a ten ostatni ocenił wysokie ryzyko bankructwa już w 2010.
INE PAN 7 również szybciej i bardziej konsekwentnie w kolejnych latach wychwycił kłopoty Wilbo. Z drugiej strony, jak czytamy w artykule "W 2008 r. spółka Makarony Polskie SA, zidentyfikowana przez ZBP2, miała problem z pokryciem kosztów finansowych i odnotowała stratę netto w kwocie 2,78 mln zł. (...) Ponadto Pepees SA charakteryzowały: bardzo wysokie koszty własne sprzedaży, nieefektywne gospodarowanie aktywami oraz straty z działalności finansowej, rejestrowane
w całym badanym okresie." Te mankamenty nie znalazły odzwierciedlenia w INE PAN 7.

Tak więc ponownie potwierdza się teza, że należy stosować co najmniej dwa wskaźniki, a także że INE_PAN 7 i Z_BP2 uzupełniają się i wzmacniają w ratingu spółek branży spożywczej.

5. Pawłowski, S [2018]: Dla osób inwestujących w obligacje korporacyjne, praca ta może mieć szczególne znaczenie, chociaż analizuje ona bardzo małą liczbę obserwacji. Jest to ostatnia lub jedna z ostatnich meta-analiz dyskryminacyjnych na przykładzie 5 przedsiębiorstw reprezentujących emitentów obligacji korporacyjnych, a więc notowanych na rynku Catalyst, które w ostatnich latach upadły: e-Kancelaria, GC Investment, Kopahaus, PCZ, Uboat-Line SA.  Ponownie zostały sprawdzone takie polskie modele jak: Hadasik, Mączyńskiej i Zawadzkiego, Wierzby, poznański i Prusaka I. Najwyżej spośród nich został oceniony model Prusaka I:

Tabela 8
Źródło: Pawłowski, S [2018]


Podsumowanie i wnioski: 
Patrząc całościowo na plan pierwszy wysuwają się modele:
- Mączyńskiej-Zawadzkiego, a dokładniej 2 z nich: PAN-G, czyli nr 7 oraz PAN-F, czyli nr 6,
- Prusaka.

W branży spożywczej na pierwsze miejsce wybijają się modele Prusaka, ale warto je też połączyć z PAN-G. W branży budowlanej można połączyć modele Stępnia i Strąka II z PAN-G. W branży transportowej Hadasik III i znów PAN-G.

Przedstawię teraz bliżej te modele.

A) Modele Mączyńskiej-Zawadzkiego
W artykule Analiza dyskryminacyjna. Przykład dla Getin
 podałem wszystkie 7 modeli Mączyńskiej-Zawadzkiego [4]. PAN-F ma postać:

PAN-F = 9,48*WO/A + 3,61*KW/A + 3,25*(WN+AM)/Z + 0,46*MO/ZKT + 0,8*P/A - 2,48

gdzie zmienne zostały opisane w Tabeli 9:

Tabela 9


Analogicznie PAN-G ma postać:

PAN-G = 9,5*WO/A + 3,57*KW/A + 2,9*(WN+AM)/Z + 0,45*MO/ZKT - 1,5

Czyli PAN-G jest bardzo zbliżony do PAN-F, różniąc się brakiem zmiennej P/A.

Punkt graniczny w klasyfikacji bankrutów i niebankrutów = 0.

B) Modele Prusaka:
Natomiast modele Prusaka są następujące:
Prusaka I:
M_P1 = –1,5685 + 6,5245 X1 + 0,148 X2 + 0,4061 X3 + 2,1754 X4

gdzie:
X1 - zysk operacyjny/suma bilansowa,
X2 - koszty operacyjne/zobowiązania krótkoterminowe,
X3 - aktywa obrotowe/zobowiązania krótkoterminowe,
X4 - zysk operacyjny/przychody ze sprzedaży.

Granice ratingu:
M_P1 > 0,65 , przedsiębiorstwo nie zagrożone upadłością,
M_P1 < -0,13 , przedsiębiorstwo zagrożone upadłością w perspektywie jednego
roku,
M_P1 < -0.13, 0.65 > , brak możliwości oceny kondycji przedsiębiorstwa bez pogłębionej analizy.


Prusaka II:
M_P2 = –1,8713 + 1,4383 X1 + 0,1878 X2 + 5,0229 X3

gdzie:
X1 - (zysk netto + amortyzacja)/zobowiązania ogółem,
X2 - koszty operacyjne/zobowiązania krótkoterminowe,
X3 - zysk ze sprzedaży/suma bilansowa

Granice ratingu:
M_P2 > 0,2 , przedsiębiorstwo nie zagrożone upadłością,
M_P2 < -0,7,  przedsiębiorstwo zagrożone upadłością w perspektywie dwóch lat,
M_P2 < -0.7, 0.2 > , brak możliwości oceny kondycji przedsiębiorstwa bez pogłębionej analizy


C) Dodatkowo - dla branży budowlanej można wziąć model Stępnia i Strąka II:

M_SS2 = 4,27X1 + 2,00X2 – 7,78X3 + 5,83

gdzie:
X1 = Wynik z działalności gospodarczej / Suma aktywów,
X2 = Kapitał pracujący / Suma aktywów,
X3 = Kapitał obcy / Suma aktywów

Granice ratingu:
M_SS2 > 0,5 , brak zagrożenia bankructwem,
M_SS2 <= 0,5 , wysokie prawdopodobieństwo bankructwa.

D) Dodatkowo - dla branży transportowej można wziąć model Hadasik III: 

M_H3 = -2,40435 X1 + 0,00230258 X2 – 0,0127826 X3 + 0,365425 X4 – 0,765526 X5 + 1,59079 X6
+ 2,36261

gdzie:
X1 = Zobowiązania ogółem / Suma bilansowa,
X2 = Należności*365 / Przychody ze sprzedaży,
X3 = Zapasy*365 / Przychody ze sprzedaży,
X4 = Majątek obrotowy / Zobowiązania krótkoterminowe,
X5 = (Majątek obrotowy – Zapasy) / Zobowiązania krótkoterminowe

X6 = (Majątek obrotowy – Zobowiązania krótkoterminowe) / Suma aktywów


Granice ratingu:
M_H3 > -0,374 , brak zagrożenia
M_H3 < -0,374 , istnieje zagrożenie.


Literatura:
[1] Antonowicz, P., Szreder, P., Spektakularne upadłości przedsiębiorstw FMCG w Polsce w 2012 r. na przykładzie wybranych podmiotów Grupy Kapitałowej BOMI S.A., 2013;
[2] Balina, R., Bąk, J. M., Analiza dyskryminacyjna jako metoda predykcji bankructwa przedsiębiorstwz uwzględnieniem aspektów branżowych, Waleńczów 2016;
[3] Kisielińska, J., Waszkowski, A., Polskie modele do prognozowania bankructwa przedsiębiorstw i ich weryfikacja, 2010,
[4] Mączyńska, E., Zawadzki, M., Dyskryminacyjne Modele Predykcji Bankructwa Przedsiębiorstw, 2006;
[5] Pawłowski, M., Modele dyskryminacyjne w ocenie ryzyka upadłości emitenta obligacji korporacyjnych, 2018;
[6] Zielińska-Sitkiewicz, M., Zastosowanie metod wielowymiarowej analizy dyskryminacyjnej do prognozowania upadłości wybranych spółek sektora spożywczego, 2016.

niedziela, 9 września 2018

Analiza dyskryminacyjna dla banków. Getin jednak bezpieczny?

W artykule na temat analizy dyskryminacyjnej wśród jej wad wymieniłem arbitralne ustalenie wielkości parametrów. Bo chociaż ustalamy je za pomocą regresji liniowej, to wyniki będą zależne od danych historycznych i przekrojowych. Dla rynku polskiego podałem model dyskryminacyjny Mączyńskiej-Zawadzkiego, który jednak został utworzony, a przez to też przeznaczony, dla firm produkcyjnych, usługowych i handlowych. Posłużyłem się nim do oceny Getinu, jednak ostatecznie stwierdziłem, że nie będzie prawidłowym modelem dla banków.

Model, który mógł posłużyć do analizy spółki o profilu finansowym, był za to model EM Altmana. Model ten został przystosowany do oceny zagrożenia firm na rynkach rozwijających się i jednocześnie także nieprodukcyjnych. Zastosowanie go dla Getinu wydawało się idealne, bo działa on właśnie w krajach rozwijających się (Polska, Rosja, Białoruś, Ukraina, Rumunia). Otrzymałem rating B-, co oznaczałoby, że bank znajduje się w górnym paśmie strefy zagrożenia (strefa ta znajduje się pomiędzy D a B).

Model EM Altmana jest dość trudny do zastosowania, gdy weźmiemy pod uwagę korekty, jakich należy dokonać już po uzyskaniu parametrów i ratingu. Ja w swoich obliczeniach dokonałem sporego uproszczenia dla przyspieszenia rachunków, co może prowadzić do zniekształceń prawidłowej oceny zagrożenia. Zaleta tego modelu, czyli ogólność, to także jego wada: firma może być produkcyjna i nieprodukcyjna, tj. usługowa, handlowa lub instytucja finansowa i ubezpieczeniowa.

Wśród polskich publikacji możemy znaleźć analizę dyskryminacyjną wykonaną, a więc i przeznaczoną, tylko dla banków. T. Siudek [1] przestudiował kondycję finansową 1551 banków spółdzielczych w Polsce w latach 1995-2002. Uzyskał następujący model:

 Z = 0,0399 X1 - 0,11592 X2 - 0,206739 X3 + 0,022422 X4 - 0,332494

gdzie:
X1 - Wskaźnik rentowności kapitałów własnych, ROE
X2 - Wskaźnik udziału majątku i inwestycji kapitałowych w aktywach netto
X3 - Wskaźnik udziału kapitału pracującego w aktywach netto
X4 - Wskaźnik udziału kredytów netto w aktywach netto

Wartością progową jest 0. Wartość powyżej 0 oznacza niewypłacalność banku, a poniżej 0 - wypłacalność. Autor uznał bank za niewypłacalny, jeśli wskaźnik wypłacalności był niższy od 8%. Poziom ten został dobrany właściwie, bo właśnie 8% to minimalny poziom, jakiego wymaga polskie prawo bankowe. Czyli - to trzeba podkreślić - ta analiza nie ma na celu przewidywać bankructwa, tylko zagrożenie, że wskaźnik wypłacalności będzie zbyt niski. Jest to oczywiście pośrednie badanie prawdopodobieństwa bankructwa, ale nie jest ono tożsame z szacowaniem zagrożenia bankructwem.

Trafność klasyfikacji banków do grupy wypłacalnych i niewypłacalnych za pomocą funkcji dyskryminacji przedstawia tabela:

Źródło: Siudek, T. [2005]


Aby ocenić trafność funkcji dyskryminacyjnej Siudka możemy zacząć od pytania czy model prognozuje zagrożenie czy nie, a następnie porównać ten wynik z rzeczywistością (tj. czy rzeczywiście wskaźnik wypłacalności spadł poniżej 8%). I tak:
* model prognozował poprawnie zagrożenie na 78,17% (czyli niepoprawnie na 21,83%)
* model prognozował poprawnie brak zagrożenia na 91,49% (czyli niepoprawnie na 8,51%).

Oznacza to, że model miał wysoką trafność i możemy spróbować go zastosować do oceny wypłacalności banków.

Dodatkowo możemy zobaczyć jak kształtowały się średnie wielkości zmiennych na wykonanej próbie banków wypłacalnych i niewypłacalnych:

Źródło: Siudek, T. [2005]

Zauważmy, że zmienna X2 jest bardzo zbliżona w obu grupach - zmienna ta okazała się nieistotna statystycznie.
Średnia wartość funkcji Z banków wypłacalnych wyniosła -0,28, a niewypłacalnych 2,08.


Przykład:
Grupa Kapitałowa Getin Holding S.A.
Powtórzmy test dla GTN - także na 31.03.2018, dla danych rocznych (zaanualizowanych).

X1 = ROE = 282 955 / 3 199 924 = 8,84%.

Druga zmienna X2 nie została niestety jasno zdefiniowana. Majątek to przecież aktywa, a inwestycje kapitałowe należą do aktywów. Na szczęście jak pamiętamy zmienna ta jest nieistotna. Dlatego przyjmę po prostu średnią wielkość 5,21%, co nie wpłynie na ocenę banku:
X2 = 5,21%

 X3 = kapitał pracujący / kapitał własny = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = (25 288 888 - 23 492 963)/3 199 924 = 56,1%

Zmienna X4 także nie została dobrze zdefiniowana, ponieważ nie wiem co znaczą "kredyty netto". Możemy się spotkać z określeniem dług netto. Są to zobowiązania oprocentowane - (środki pieniężne + ekwiwalenty).

Za zobowiązania oprocentowane powinienem przyjąć kredyty, pożyczki, obligacje, leasing. Rozciągam więc tu definicję kredytów do obligacji i leasingu, bo nie ma powodu, by traktować te instrumenty oddzielnie.

X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / kapitał własny = (1 445 112 - 635 874 - 348 312) / 3 199 924 = 14,4%.

Podstawiamy:

Z =  0,0399*8,84% - 0,11592*5,21% - 0,206739*56,1% + 0,022422*14,4% - 0,332494 = -0,45.

Ujemny wynik wskazywałby, że GTN nie ma żadnych problemów z wypłacalnością, nie jest zagrożony.

Zrobię teraz pewne korekty. Zwróćmy uwagę, że zobowiązania oprocentowane to także zobowiązania wobec klientów. Gdybyśmy je dodali, wtedy ostatnia zmienna drastycznie się zmieni:

X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania wobec klientów + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / kapitał własny = (1 445 112 + 20 268 951 - 635 874 - 348 312) / 3 199 924 = 647,8%.

Z =  0,0399*8,84% - 0,11592*5,21% - 0,206739*56,1% + 0,022422*647,8% - 0,332494 = -0,31.

Zatem nadal GTN pozostaje niezagrożony i co więcej trzyma się średniego poziomu Z dla grupy banków wypłacalnych.

Drugą korektą, jaką warto przeprowadzić, jest zamiana zysku netto na dochód całkowity. Banki spółdzielcze są bankami lokalnymi, które, jak sądzę, nie rozdzielają zysków od dochodów. W przypadku dużych firm prowadzących rachunkowość zgodnie z MSR to rozdzielenie staje się konieczne. O różnicach między zyskami a dochodami nie piszę, bo w internecie jest masa o tym informacji. Zasygnalizuję tylko, że w tym przypadku kapitał własny spółki nie jest wcale zwiększany o zysk netto, ale właśnie o dochód całkowity, co dowodzi, że to właśnie ten drugi jest najbardziej istotny. Dlaczego więc zysk netto nadal pozostaje ważny w analizie i jest podkreślany? Wadą dochodu całkowitego jest jego zmienność w czasie, przez co spoglądanie tylko przez jego pryzmat bywa krótkowzroczne. Zysk netto pozostaje bardziej stabilny w kolejnych latach, przez co łatwiej prognozowalny (zob. [2]). Z drugiej strony dochód całkowity szybciej poinformuje nas, gdy spółka wpadnie w kłopoty finansowe. Dlatego to krótkoterminowe spojrzenie będzie tutaj miało większe znaczenie.
Stąd pierwsza zmienna przyjmie wartość:

X1 = ROE = 208 490 / 3 199 924 = 6,5%.

Dostaniemy:

Z =  0,0399*6,5% - 0,11592*5,21% - 0,206739*56,1% + 0,022422*647,8% - 0,332494 = -0,31.

Poziom Z się nie zmienił, czyli GTN pozostaje ciągle bezpieczny.

Głębsze spojrzenie na niektóre pozycje aktywów może znów zmienić rezultat. W aktywach bieżących umieściłem bowiem należności od klientów. Trudno jednak zakładać, że wszystkie te należności są krótkookresowe: jest to wielka kwota ponad 17 mld zł. Getin w swoim sprawozdaniu niestety nie rozdziela aktywów na krótko- i długoterminowe, ale są one ułożone od najbardziej płynnych do coraz mniej płynnych. Na pewnej pozycji pojawiają się wartości niematerialne i prawne, które należy uznać za początek listy aktywów trwałych. Należności od klientów znajdują na wyższej pozycji, co sugeruje ich krótkoterminowość. Brak formalnego podziału na aktywa trwałe i obrotowe wymusza od nas pewnych uproszczeń. Dlatego pozycję należności od klientów podzielę na 2, aby uzyskać bardziej obiektywną miarę bieżących należności. Aby zachować sprawiedliwy podział, to jednocześnie podzielę na dwa zobowiązania wobec klientów. Wtedy:

X3 = kapitał pracujący / kapitał własny = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = (16 591 838,5 - 13 358 487,5) / 3 199 924 = 101%.

Otrzymamy:
Z = 0,0399*8,84% - 0,11592*5,21% - 0,206739*101% + 0,022422*647,8% - 0,332494 = -0,41.

Z tego punktu widzenia wypłacalność GTN nawet się poprawiła.

Jeśli spojrzymy na tę analizę krytycznie, to zauważymy, że posiada jedną niedoskonałość. Banki spółdzielcze w badaniu Siudka to były faktycznie banki, natomiast Getin Holding to zdecydowanie więcej niż bank: to cała instytucja finansowa, której działalność obejmują usługi bankowe, leasingowe, windykacyjne i inne finansowe. Dlatego przeprowadzę jeszcze ten sam test dla Idea Bank, który stanowi ważny element GTN.


Idea Bank SA.
Kurs akcji także potężnie spadł i znajduje na skrajnie niskich poziomach (C/WK = 0,12 !!!), co może wywołać przeświadczenie, że spółkę czeka bankructwo. Wartości w tys zł. Podobnie jak dla GTN dane pochodzą z bilansu na 31.03.2018, a rachunek wyników zaanualizowałem ze sprawozdań (1kw 2018 - 1kw 2017 + cały rok 2017). Tym razem jednak od razu ujmę dochody całkowite, a nie zysk netto.

Całkowite dochody = 14 193 - 64 343 + 281 261 = 231 111
Kapitał własny = 2 437 170

X1 = ROE = 231 111 / 2 437 170 = 9,5%

Zmienna X2 była, jak już wiemy, nieistotna statystycznie, więc przyjmuję na poziomie średniej:
X2 = 5,21%

Aktywa Obrotowe = 21 490 287
Zobowiązania Bieżące = 20 674 598

X3 = kapitał pracujący / kapitał własny = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = (21490287 - 20674598) / 2437170 = 33,5%

X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania wobec klientów + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / kapitał własny = (907 406 + 17 986 283 + 521 679 - 221 818 - 151 362) / 2 437 170 = 781,3%.

Podstawiamy:
 Z = 0,0399*9,5% - 0,11592*5,21% - 0,206739*33,5% + 0,022422*781,3% - 0,332494 = -0,23.

Powyższa analiza wskazywałaby, że Idea Bank nie ma problemów z wypłacalnością.

Zróbmy jeszcze dla Idei tę samą ostatnią korektę co dla GTN, czyli uwzględnimy tylko połowę należności wobec klientów oraz połowę zobowiązań wobec klientów. Wtedy trzecia zmienna równa się:

X3 = kapitał pracujący / kapitał własny = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = (13 297 127 - 11 681 456,5) / 2437170 = 66,3%

Podstawiamy:
Z = 0,0399*9,5% - 0,11592*5,21% - 0,206739*66,3% + 0,022422*781,3% - 0,332494 = -0,3.
W sumie wskaźnik poprawił się tak samo jak dla holdingu.

Dla porównania tych wyników z rynkiem, sprawdziłem dodatkowo GNB, mBank, PKO BP oraz ING BŚ. Ten sam zakres na 1 kw. 2018 na danych zannualizowanych. 

Getin Noble Bank:
X1a = Wynik netto / kapitał własny = -14,4%.
X1b = Dochód całkowity / kapitał własny = -12,3%.
X2 - analogicznie jak w poprzednich przykładach, bierzemy średnią dla wypłacalnych i niewypłacalnych:
X2 = 5,21%
X3 = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = 43,86%
X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania wobec klientów + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / Kapitał własny =1400%.

Z(a) = 0,0399 *X1a - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,121.

Z(b) = 0,0399 *X1b - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,12.

Analiza ta wskazuje, że GNB jest niebezpiecznie blisko 0, co rodzi pewne ryzyko niewypłacalności. Możemy pospekulować, że zejście Z do zera, będzie oznaczać rating CCC, a potem z każdym kolejnym wzrostem coraz bliżej D. Dopóki GNB nie zejdzie do samego zera, twierdzenie, że Getin Noble to bankrut, jest przesadą i na obecną chwilę bank nie ma problemów z pokryciem zobowiązań.

Mbank:
X1a = ROE = zysk netto / kapitał własny = 1287070 / 14484158 = 8,9%
X2 - analogicznie jak w poprzednich przykładach, bierzemy średnią dla wypłacalnych i niewypłacalnych:
X2 = 5,21%
X3 = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = (130813879 - 116289638) / 14484158 = 100,3%
X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania wobec klientów + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / Kapitał własny = (115355334-5354319) / 14484158 = 759,5%.

Z(a) = 0,0399 *X1a - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,372

Analogicznie sprawdzimy ten model dla
X1b = Dochód całkowity / kapitał własny = 1460332 / 14484158 =10%.

Z(b) = 0,0399 *X1b - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,371.

Tak więc mbank ma porównywalny Z-score do GTN, co sugeruje, że charakteryzuje się podobnym stopniem wypłacalności.


PKO BP:
X1a = zysk netto / kapitał własny = 8,2%
X1b = dochód całkowity / kapitał własny = 9,7%.

X2 = 5,21%
X3 = 163,8%
X4 = 620,4%.

Z(a) = 0,0399 *X1a - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,535
Z(b) = 0,0399 *X1b - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,534

Widać, że PKO mocno trzyma w ryzach wskaźniki płynności i daleko mu do zagrożenia. Prawdopodobnie wynika to z bardziej konserwatywnej strategii rozwoju tego banku.


ING Bank Śląsk:
Dochód całkowity jest zbliżony do zysku netto i Z-score jest niemal identyczny w obu wariantach, stąd podaję tylko wersję Z(b):
X1 = 12,6%
X2 = 5,21%
X3 = 106,1%
X4 = 897,6%

Z = -0,352.

W przypadku ING należy zwrócić na jeden aspekt. Wysoki poziom ROE 12,6% (w wersji X1a  11,8%) przyczynia się do wysokiego poziomu C/WK, który obecnie wynosi niemal dwukrotność kapitału własnego. Natomiast z punktu widzenia wypłacalności, bank jest przeciętny. Poziom -0,35 jest podobny zarówno do GTN jak i MBK.

Biorąc pod uwagę, że MBK i PKO mają rentowności podobne do GTN, a MBK  i ING mają także Z-score podobny do GTN, trudno racjonalnie wytłumaczyć tak głębokie, niekończące się spadki Getin Holdingu, nawet biorąc pod uwagę słabsze wskaźniki Idei i powiązanego z nimi Getin Noble.

Podsumowując, dokładniejsza analiza dyskryminacji wydaje się odrzucać ryzyko niewypłacalności Getinu. Na pewno jest to optymistyczna wiadomość dla posiadaczy akcji GTN i Idea Bank. Pamiętać trzeba jednak, że nie jest to pełna analiza zagrożenia upadłością. Nie jest też to jedyna metoda służąca do oceny tego zagrożenia.


Literatura:
[1] Siudek, T., Prognozowanie Upadłości Banków Spółdzielczych w Polsce przy Użyciu Analizy Dyskryminacyjnej, 2005;
[2] Sajnóg, A., Analiza komparatywna wartości dochodu całkowitego i zysku netto w perspektywie corporate governance, 2014.

niedziela, 2 września 2018

Analiza dyskryminacyjna. Przykład dla Getin

W czasach, gdy giełda zachowuje się słabo, a stopy oprocentowania lokat są bardzo niskie, popularnym sposobem na inwestowanie stają się obligacje korporacyjne, które oferują często 5-6% rentowności. Również w czasach hossy metoda ta stanowi dobre rozwiązanie w celu dywersyfikacji portfela. Niemniej inwestor, który nie zamierza handlować tymi papierami na rynku, a jedynie czeka na zwrot kapitału z odsetkami, musi wyjątkowo się liczyć z ryzykiem utraty wszystkich albo większości włożonych pieniędzy. Musi brać w rachubę ryzyko upadłości czy bankructwa spółki. W przypadku akcji sytuacja jest trochę inna. W długim terminie oczywiście występuje to samo ryzyko, ale akcjonariusz jest wystawiony dużo bardziej na straty. Spółka przecież do niczego się nie zobowiązuje wobec niego, może więc wykazywać ciągle zyski, ale coraz mniejsze, a nawet straty i normalnie funkcjonować - jednak w takich okolicznościach dodatni zwrot z kapitału jest mało prawdopodobny.  Poza tym spółka może utrzymywać stabilną pozycję finansową, a i tak na skutek czynników makroekonomicznych czy politycznych, niska wycena będzie dominować na długie lata, tak że nie uda się odzyskać kapitału, nie mówiąc o zysku. Jeżeli chcemy wyeliminować te dodatkowe ryzyka, powinniśmy wybrać obligacje.

Aby zminimalizować ryzyko utraty kapitału, powinniśmy ocenić prawdopodobieństwo upadku firmy albo po prostu ocenić zagrożenie upadłości. Do tego najczęściej używa się analizy wskaźnikowej oraz analizy dyskryminacyjnej. Analiza wskaźnikowa jest najprostsza i chyba najczęściej stosowana przez inwestorów indywidualnych. Jej wadą jest m.in. niejednoznaczność, bo jeden wskaźnik może zaprzeczać drugiemu. Bardziej profesjonalną metodą jest analiza dyskryminacyjna, która stanowi źródło ratingów (tzw. Z-Score). Niewątpliwie zaletą tej analizy jest prostota. Jej modeli prawie nie trzeba tłumaczyć komuś kto zna pojęcie regresji liniowej. Wadą są z kolei:
1) arbitralne ustalenie wielkości parametrów (na podstawie testów na innych próbach z przeszłości),
2) arbitralne ustalenie punktu granicznego, po przekroczeniu którego firmę należy uznać za zagrożoną upadłością (także na podstawie empirycznych porównań innych prób z przeszłości).


Pierwszy model Altmana

Pierwszym modelem dyskryminacyjnym, który szybko znalazł zastosowanie w praktyce finansów (bo w innych dziedzinach już był wcześniej podobny stosowany) był model Altmana [1] o postaci:

Z = 1,2*X1 + 1,4*X2 + 3,3*X3+ 0,6*X4 + 0,99*X5

gdzie:
Z - wskaźnik zagrożenia upadłością (Z-score)
X1 = kapitał obrotowy / aktywa,
X2 = zyski zatrzymane / aktywa,
X3 = wynik finansowy przed odsetkami i podatkiem / aktywa
X4 = wartość rynkowa kapitału własnego / wartość księgowa zobowiązań
X5 = przychody ze sprzedaży / aktywa

Dla Z = 1,81 lub mniej zagrożenie upadłością jest bardzo wysokie, a gdy Z = 2,99 lub więcej - zagrożenie jest minimalne. Wartości pomiędzy nimi dają wynik neutralny. Gdyby obrazowo to opisać, powiedziałbym, że:
* poniżej 1,8 to kolor czerwony -> zagrożenie
* 1,8-3 to kolor żółty -> neutralny, ale ostrzeżenie
* powyżej 3 to kolor zielony - brak zagrożenia.

3 uwagi. Po pierwsze model Altmana został opracowany dla rynku amerykańskiego, stąd nie musi on automatycznie przekładać się na rynek np. polski. Po drugie został przetestowany tylko dla spółek produkcyjnych, nie-finansowych. Po trzecie dotyczył tylko spółek giełdowych.


Model Altmana dla rynków rozwijających się

Altman po latach skonstruował także model przeznaczony dla rynków rozwijających się (Emerging Markets, EM), który także można zastosować dla firm nieprodukcyjnych [2]. Elementem wspólnym wszystkich firm wziętych pod uwagę była emisja przez nie obligacji. Są tu dwie części:
1) Pierwsza część modelu ma postać:

EM Score = 6,56*X1 + 3,26*X2 + 6,72*X3 +1,05*X4 + 3,25

gdzie:
X1 = kapitał obrotowy / aktywa,
X2 - zyski zatrzymane / aktywa,
X3 - zysk operacyjny / aktywa,
X4 - wartość księgowa / zobowiązania.

Zwróćmy uwagę, że w tym modelu pojawia się dodatkowo stała (3,25).

Poniższa tabela przedstawia różne przedziały poziomów bezpieczeństwa w zależności od EM Score

Źródło: Altman, E. I., [Sep 2005]

2) Drugi etap to dostosowanie EM Score do interakcji firmy z makro-otoczeniem. Wzięto pod uwagę 5 zmiennych:
a) wrażliwości przychodów firmy na zmiany kursu walutowego. Przy dużej wrażliwości odejmujemy nawet 3 stopnie, np. z BB+ na B+. Przy średniej wrażliwości odejmujemy 1 stopień, np. BB+ na BB.
b) wrażliwość na zmiany w przemyśle. Jeśli nasz rating z pierwszego etapu wynosi BBB, a rating całego przemysłu BBB-, BB+ albo BB, wtedy od ratingu otrzymanego w (2a) odejmujemy jeden stopień (tj. na BBB-). Przy większych różnicach między ratingiem firmy a przemysłem odejmujemy jeszcze więcej
c) dostosowanie ze względu na pozycję konkurencyjną firmy. W tym przypadku rating możemy podnieść lub obniżyć w zależności od wielkości firmy, wpływów politycznych, jakości zarządzania. Możemy też nic nie zmieniać, jeśli jest to pozycja neutralna
d) podano także dodatkowe zmienne takie jak zapewnienie pewnej formy gwarancji zwrotu, np. bona fide, tj. oferty w dobrej wierze (formalnej, co w kontekście skandalu z Getback ma znaczenie), a także poziom na obligacjach (im mniejszy tym większe zaufanie inwestorów).

Czyli po uzyskaniu ratingu z punktu 1, powinniśmy go teraz odpowiednio skorygować.


Model Mączyńskiej-Zawadzkiego

Powstały także różne wersje analizy dyskryminacji dla rynku polskiego. Przykładem często stosowanym jest model Mączyńskiej i Zawadzkiego (M-Z). Z wielu różnych wskaźników wyselekcjonowali oni pod kątem istotności (stąd "dyskryminacja" pozostałych) następujące [3] :


Ostatecznie ekonomiści przedstawili aż 7 modeli: w pierwszym, oznaczonym PAN-A (skrót od Polska Akademia Nauk) wykorzystano wszystkie 12 wskaźników, w kolejnym 11, w PAN-C - 9. Stopniowo zmniejszano liczbę wskaźników do 4.




Ujemne wartości oznaczają zagrożenie, a dodatnie - bezpieczeństwo.
Wg autorów zastosowanie tych modeli umożliwiłoby identyfikację zagrożeń w działalności gospodarczej - z wyprzedzeniem 3-4 letnim.

Który z tych siedmiu jest najlepszy? M-Z uznali, że wszystkie są równorzędne, bo wszystkie miały wysoką trafność. "Wszystkie analizowane warianty modelu dyskryminacyjnego dokonywały klasyfikacji przedsiębiorstw nie zagrożonych upadłością z trafnością powyżej 95%. Każdy z modeli wykazywał co najmniej 75%-owa trafność klasyfikacji przedsiębiorstw upadłych". Inwestorom, którzy chcą mieć konkretne rozwiązania, to nie pomaga. Sięgnąłem jednak do pracy Kisielińskiej i Waszkowskiego [4], którzy wyszukiwali najlepsze modele dyskryminacyjne różnych polskich autorów. Okazało się, że PAN-F poradził sobie najlepiej ze wszystkich (jeden jeszcze model innego autora miał taką samą trafność). Może być zaskoczeniem, że modele, które uwzględniają zmiany przychodu, nie dostarczają dodatkowej informacji.


Przykład:  
Grupa Kapitałowa Getin Holding S.A.:
Kurs GTN ostatnimi czasy zachowuje się tak jakby spółce groziło bankructwo. Zweryfikujmy tę tezę za pomocą modelu EM i M-Z. Ten pierwszy model wydaje się tu idealny, bo GTN działa właśnie w krajach rozwijających się (Polska, Rosja, Białoruś, Ukraina, Rumunia). Do wzoru podstawiałem najnowsze dane z bilansu za 1 kwartał 2018, natomiast wyniki finansowe annualizowałem (1 kw 2018 minus 1 kw 2017 plus cały rok 2017). Dane są w tys zł.

A) EM Score

EM Score = 6,56*X1 + 3,26*X2 + 6,72*X3 +1,05*X4 + 3,25

X1 = kapitał obrotowy/aktywa = (Aktywa Obrotowe – Zobowiązania Bieżące)/Aktywa
X1 = (25 288 888 - 23 492 963)/28 093 866 = 6,4%

Przy X2 na chwilę się zatrzymam. X2 to zyski zatrzymane / aktywa. Dlaczego nie po prostu zysk? Po angielsku "earnings" zapisuje się jakby w liczbie mnogiej, chociaż na polski tłumaczy się po prostu jako "zysk". Ale gdybyśmy chcieli zapisać "zyski" po ang. to nie napisalibyśmy przecież "earningses", tylko znowu "earnings". Może to prowadzić do nieporozumień. Altman [1] definiuje "zyski zatrzymane" jako całkowitą wielkość reinwestowanych zysków lub strat  firmy w przeciągu całego jej (dotychczasowego) życia. W sprawozdaniu finansowym GTN nie znajdziemy pozycji "zyski z lat ubiegłych" jaką znamy z bilansu. Ale w punkcie SKONSOLIDOWANE ZESTAWIENIE ZMIAN W KAPITALE WŁASNYM znajdziemy pozycję "Kapitał zapasowy i zyski zatrzymane". Jest to dokładnie to czego szukamy.

X2 = zyski zatrzymane/aktywa = 1 692 055/28 093 866 = 6%

Zatrzymam się też na moment przy X3. Jak pamiętamy po uzyskaniu pierwotnego ratingu poiwinniśmy dokonać odpowiednich korekt, m.in. wrażliwości na zmiany kursu walutowego. Aby uprościć tę korektę, mój pomysł jest następujący. Jeśli dochód całkowity jest niższy od zysku netto na skutek rewaluacji kursu walutowego, to za zysk operacyjny bierzemy stosunek dochodu całkowitego do zysku netto pomnożony przez zysk operacyjny. Jeśli natomiast dochód całkowity przekracza zysk netto na skutek rewaluacji, to bierzemy zwykły zysk operacyjny.

Jeśli założymy, że różnica pomiędzy dochodem całkowitym a zyskiem netto powstaje w wyniku wszystkich korekt opisanych w punktach 2a-d, wtedy uzyskamy uproszczoną wersję korekt wymaganą przez Altmana. Czyli dostaniemy prostą formułę:
- gdy dochód < zysk, wtedy zysk operacyjny skorygowany = dochód / zysk * zysk operacyjny,
- gdy dochód > zysk, wtedy zysk operacyjny skorygowany = zysk operacyjny.


W przypadku GTN dochód całkowity < zysk netto. Przekształćmy więc teraz X3:

X3 = zysk operacyjny/aktywa = (dochód całk / zysk netto * zysk operacyjny) / aktywa = (208 490 / 282 955 * 389 415) / 28 093 866 = 1,02%

X4 = wartość księgowa/zobowiązania = 3 199 924/24 893 942 = 12,85%.

W sumie dostaniemy:

EM Score = 6,56*6,4% + 3,26*6% + 6,72*1,02% +1,05*12,85% + 3,25 = 4,07.

Zatem GTN znajduje się w górnej strefie zagrożenia.

B) M-Z score:
Zgodnie z sugestią [4] budujemy model PAN-F:

M-Z score = 9,48*WO/A + 3,61*KW/A + 3,25*(WN+AM)/Z + 0,46*MO/ZKT + 0,8*P/A - 2,48.

WO/A = 389 415 / 28 093 866 = 1,39%.
Zwracam uwagę, że tutaj za zysk operacyjny podstawiam faktyczny zysk operacyjny.

KW/A = 3 199 924/28 093 866 = 11,39%.
(WN+AM)/Z = (282 955 + 57 628) / 24 893 942 = 1,37%.
MO/ZKT = 25 288 888 / 23 492 963 = 107,64%.
P/A = 2 030 137 / 28 093 866 = 7,23%.
Za przychody ze sprzedaży przyjąłem sumę przychodów z tytułu odsetek i przychodów z tytułu prowizji i opłat.

M-Z score = 9,48*1,39% + 3,61*11,39% + 3,25*1,37% + 0,46*107,64% + 0,8*7,23% - 2,48 = -1,34.

Wskaźnik jest ujemny, więc z tej perspektywy GTN po raz kolejny okazuje się rzeczywiście zagrożony upadłością... Drastyczny spadek akcji miałby wtedy swoje uzasadnienie. Z drugiej strony M-Z został sporządzony dla spółek produkcyjnych, usługowych i handlowych. Główny element - WO/A - będzie zazwyczaj bardzo niski w sektorze bankowym. Prawdopodobnie dla banków należy zmienić niektóre parametry, bo podejrzewam, że większość banków (jeśli nie wszystkie) zostałaby uznana za zagrożone.  Niemniej pamiętajmy, że EM score został skonstruowany dla różnych typów działalności, w tym nieprodukcyjnej. Ten wskaźnik rzucił "pomarańczowe światło" na GTN i jest bardziej obiektywny. Temat na pewno nie jest zamknięty.

Literatura:
[1] Altman, E. I., Financial Ratios, Discriminant Analysis and the Prediction of Corporate Bankruptcy, Sep., 1968;
[2] Altman, E. I., An emerging market credit scoring system for corporate bonds, Sep 2005;
[3] Mączyńska, E., Zawadzki, M., Dyskryminacyjne Modele Predykcji Bankructwa Przedsiębiorstw, Ekonomista, 2006;
[5] Kisielińska, J., Waszkowski, A., Polskie modele do prognozowania bankructwa przedsiębiorstw i ich weryfikacja, 2010.

niedziela, 1 lipca 2018

Ujemna autokorelacja podnosi długookresową oczekiwaną stopę zwrotu, dodatnia obniża

Jak dotąd rozważałem problem długookresowej stopy zwrotu z akcji w sytuacji, gdy nie mamy do czynienia z autokorelacjami. Wiadomo jednak, że autokorelacje często występują, zarówno dodatnie (o częstotliwości miesięcznej) jak i ujemne (kilkuletniej, gdy odwraca się trend). Wtedy stosowanie znanych estymatorów obciążone jest błędem.
Gdy nie znamy rzeczywistej oczekiwanej stopy zwrotu oraz stopy zwrotu posiadają rozkład zbliżony do normalnego, ale bez autokorelacji, wtedy możemy zastosować formułę Blume'a:

(1)


gdzie:
M^N - skumulowana długookresowa oczekiwana stopa zwrotu
T - okres przeszłości dla danych historycznych
N - okres przyszłości (horyzont inwestycyjny)
A - średnia arytmetyczna stopa brutto (liczona dla danych z okresu T)
G - średnia geometryczna stopa brutto (liczona dla danych z okresu T)

Jeżeli jednak stopy zwrotu posiadają rozkład log-normalny i także nie zawierają autokorelacji, wtedy powinniśmy użyć formuły Jacqiuera-Kane'a-Marcusa (JKM):

(2)
Podniesienie do potęgi N ma znaczenie, ponieważ w ten sposób jednoznacznie wskazujemy, że chodzi o skumulowaną oczekiwaną stopę zwrotu. Wyciągnięcie pierwiastka N-tego stopnia może sugerować, że dostaniemy zwykłą średnią arytmetyczną, która przecież stanowi oczekiwaną stopę zwrotu, gdy N = 1 (dla formuły Blume'a dokładnie, a dla JKM bardzo zbliżoną). Dla uproszczenia zapiszemy (2) bez potęgowania, pamiętając, że przez M rozumiemy prawdziwą oczekiwaną stopę zwrotu w dowolnym pod-okresie.

(3)

JKM podali także wzór w sytuacji, gdy dodatkowo występują autokorelacje [1]. Ponieważ w tej analizie mamy podział na dwa okresy: przeszłości (T) oraz przyszłości (N), to także autokorelacja formalnie powinna zostać podzielona na takie części. Ponadto jest jeszcze jedna kwestia komplikująca analizę: autokorelację zazwyczaj rozumiemy jako autokorelację pierwszego rzędu, ale ogólnie może być też drugiego, trzeciego itd. Powoduje to, że autokorelacja staje się wektorem a w zapisie macierzowym - macierzą. Taką notację na macierzach stosują JKM.

Macierz autokorelacji 1-go rzędu wygląda następująco:

(4)

gdzie a(1) to współczynnik autokorelacji 1-go rzędu.

Macierz autokorelacji T-go rzędu wygląda więc następująco:

(5)

gdzie a(T) to współczynnik autokorelacji T-tego rzędu.

Jedynki na głównej przekątnej są oczywiście wynikiem tego, że niektóre wiersze i kolumny mają ten sam numer, więc stopa zwrotu koreluje sama ze sobą.

Macierz C(T) przekształci się w liczbę, gdy przemnożymy ją z lewej strony przez wektor jednostkowy transponowany (oznaczony I "prim"), a z prawej przez wektor jednostkowy:

(6)

Gdy wszystkie współczynniki autokorelacji są równe 0, liczba z (6) będzie równa T.

Analogicznie sytuacja będzie wyglądać dla autokorelacji w przyszłości, czyli dla N: literka T zostaje zamieniona na N we wzorach (4)-(6).

JKM stosują następujący wzór:

(7)



który można zapisać w skrócie:

(8)

gdzie:

F(T) = I(T)' C(T) I(T) / T
F(N) = I(N)' C(N) I(N) / N


Zróbmy teraz 4 teoretyczne przykłady. We wszystkich T = 4 i N = 3.
1) Dla C(T) współczynnik autokorelacji 1-rzędu wynosi -0.4, a pozostałe 0. Oznacza to, że stopa zwrotu 0-wego rzędu będzie korelować ze stopą zwrotu 1-go rzędu tak samo jak 2-go rzędu z 1-m rzędem oraz 3-go z 2-m rzędem. Stąd: 



Dla C(N) współczynnik autokorelacji 1-rzędu nie zmieni się. Dostaniemy:


Teraz obliczmy F(T) i F(N):
F(T) = 1,6 / 4 = 0,4
F(N) = 1,4 / 3 = 0,47

Uzyskujemy F(T)/F(N) = 0.86.

2) Dla C(T) współczynnik autokorelacji 1-rzędu wynosi -0.6. Otrzymamy:



Dla C(N) współczynnik autokorelacji 1-rzędu nie zmieni się. Dostaniemy:


Obliczmy F(T) i F(N):
F(T) = 0,4 / 4 = 0,1
F(N) = 0,6 / 3 = 0,2

Uzyskujemy F(T)/F(N) = 0.5.


3) Dla C(T) współczynnik autokorelacji 1-rzędu wynosi 0.4. Otrzymamy:



Dla C(N) współczynnik autokorelacji 1-rzędu nie zmieni się. Dostaniemy:


Ponownie obliczmy F(T) i F(N):
F(T) = 6,4 / 4 = 1,6
F(N) = 4,6 / 3 = 1,53

Uzyskujemy F(T)/F(N) = 1,04.


4) Dla C(T) współczynnik autokorelacji 1-rzędu wynosi 0.6. Otrzymamy:



 Dla C(N) współczynnik autokorelacji 1-rzędu nie zmieni się. Dostaniemy:


Tak jak poprzednio obliczamy F(T) i F(N):
F(T) = 7,6 / 4 = 1,9
F(N) = 4,6 / 3 = 1,8

Uzyskujemy F(T)/F(N) = 1,06.


Wniosek: Z dodatnią autokorelacją stosunek F(T) / F(N) > 1, natomiast w ujemną autokorelacją F(T) / F(N) < 1.


W artykule Jak prawidłowo obliczać procenty składane dla niepewnych aktywów? twierdziłem, że raczej nie powinniśmy używać N > T, bo prowadzi to nadmiernego obniżania oczekiwanej długookresowej stopy zwrotu. Jeżeli N < T, wówczas formuła (8) będzie prowadzić do ważnej konkluzji. Tej konkluzji jednak jeszcze nie widać z następującego powodu. Chociaż zazwyczaj średnia arytmetyczna jest większa niż geometryczna, to ze wzoru (2) i (7) tak nie wynika. W praktyce może się zdarzyć, że G > A. Jednak wzór (2) powstał jak pamiętamy z założenia, że rozkład stóp zwrotu jest log-normalny. W rozkładzie log-normalnym G zawsze jest mniejsza od A. W artykule W poszukiwaniu nieznanej wartości oczekiwanej - część 2 są podane następujące dwa wzory (oznaczone tam odpowiednio numerami 4 i 7):


gdzie
g - średnia geometryczna stopa kapitalizacji ciągłej w rozkładzie lognormalnym, wyznaczona z okresu od 1 do T,
σ^2 - wariancja logarytmicznej stopy (z okresu od 1 do T),

co jednoznacznie wskazuje, że G < A. 


W ten sposób ujawnia się następująca konkluzja. Dopóki N < T:
- jeśli autokorelacja jest dodatnia, to obniża ona (długookresową) oczekiwaną stopę zwrotu (stosunek F(T) / F(N) > 1, zatem G będzie mieć wyższy udział, natomiast A niższy, a G jest mniejsza od A);
- jeśli autokorelacja jest ujemna, to podwyższa ona (długookresową) oczekiwaną stopę zwrotu (stosunek F(T) / F(N) < 1, zatem G będzie mieć niższy udział, natomiast A wyższy, a G jest mniejsza od A) .


Przykład nr 1. Miesięczne stopy zwrotu sWIG80 luty 2007 - czerwiec 2018 (T = 137).



Korelogram stóp zwrotu ujawnia bardzo wysoką dodatnią autokorelację rzędu 1 (0,38), a wg PACF także delikatnie ujemną rzędu 12-tego (tj. rok do roku, -0,23):


Należy zwrócić uwagę, że to PACF jest ważniejsze w analizie autokorelacji konkretnych rzędów. ACF pokazuje siłę i kierunek całej drogi od 12-tego rzędu do 0-wego rzędu, a PACF siłę i kierunek samego 12-tego rzędu w stosunku do 0-wego rzędu. W naszym przypadku ACF pokazuje, że pomiędzy dzisiejszą zmianą a zmianą 12-tego rzędu jest linia płaska, brak zależności. Natomiast PACF pokazuje, że dzisiejsza zmiana korelowała ujemnie ze zmianą 12-tego rzędu. Dlatego ACF lepiej nadaje się do badania niestacjonarności niż autokorelacji.

Z drugiej strony JKM stosują jedynie ACF i nie wspominają o PACF. Dlatego użyjemy tej samej co oni metody. Stąd, aby uzyskać wartości teoretyczne, zastąpiłem wszystkie współczynniki autokorelacji, za wyjątkiem rzędu 1, zerami.

Średnia geometryczna netto, g = -0,09% oraz brutto, G = 0,9991. Średnia arytmetyczna netto, a = +0,09% oraz brutto, A = 1,0009. Gdyby autokorelacje nie występowały, wtedy użylibyśmy wzoru (1) lub (2). Zakładamy lognormalność, czyli wybieramy (2). Dostalibyśmy wtedy dla:
* 1 roku naprzód, tj. N = 12, M^12 = 1,0089, czyli netto 0,89%,
* 2 lata naprzód, tj. N = 24, M^24 = 1,0141, czyli netto 1,41%,
* 3 lata naprzód, tj. N = 36, M^36 = 1,0155, czyli netto 1,55%,
* 4 lata naprzód, tj. N = 48, M^48 = 1,013, czyli netto 1,3%,
* 5 lat naprzód, tj. N = 60, M^60 = 1,0067, czyli netto 0,67%,
* 6 lat naprzód, tj. N = 72, M^72 = 0,9967, czyli netto -0,33%.

Dane te przeniosłem na wykres:



Zatem 3-letnia inwestycja przynosi najwyższy oczekiwany profit. Dzieje się tak dlatego, że na początku ujawnia się mechanizm kapitalizacji, czyli procentu składanego - zyski się kumulują. Jednak ta kumulacja staje się coraz wolniejsza na skutek niepewności, która daje o sobie znać tym silniej, im dłużej aktywa są wystawiane na ryzyko. W pewnym momencie skumulowana oczekiwana stopa zwrotu "nie wytrzymuje presji niepewności" i zaczyna spadać. Należy tu jednak dodać, że nie dzieje się tak zawsze. Istotna jest wielkość G. Im jest ona mniejsza w stosunku do A, tym szybciej nastąpi maksimum. 

Teraz uwzględnimy autokorelację, czyli podstawiamy dane do (8). Obliczamy więc najpierw F(T) i F(N). Wiemy, że T = 137, więc:
F(137) = I(137)'*C(137)*I(137) / 137 = 1,73.

Następnie obliczamy to samo, ale dla kolejnych N:
* 1 roku naprzód, tj. N = 12, F(12) = 1,67. Zatem F(137) / F(12) = 1,033. M^12 = 1,0089, czyli netto 0,89%,
* 2 lata naprzód, tj. N = 24, F(24) = 1,706. Zatem F(137) / F(24) = 1,0148. M^24 = 1,014, czyli netto 1,4%,
* 3 lata naprzód, tj. N = 36, F(137) / F(36) = 1,009. M^36 = 1,0153, czyli netto 1,53%,
* 4 lata naprzód, tj. N = 48, F(137) / F(48) = 1,006. M^48 = 1,013, czyli netto 1,3%,
* 5 lat naprzód, tj. N = 60, F(137) / F(60) = 1,004. M^60 = 1,0065, czyli netto 0,65%.
* 6 lat naprzód, tj. N = 72, F(137) / F(72) = 1,003. M^60 = 0,9964, czyli netto -0,36%.

Autokorelacja minimalnie obniżyła oczekiwaną stopę zwrotu. Jest to różnica nieistotna, więc wykres dla autokorelacji będzie identyczny z tym bez autokorelacji. Nadal 3 lata inwestycji pozostaje optymalnym horyzontem inwestycyjnym.


Przykład nr 2. Roczne stopy zwrotu S&P 500, 1981-2017 (T = 37).



Korelogram stóp zwrotu ujawnia istotną ujemną autokorelację rzędu 5-tego, C = -0,42:




Pozostałe parametry to A = 1,094 (a = 9,4%) i G = 1,082 (g = 8,2%). Zakładając lognormalność stóp i brak autokorelacji, użylibyśmy wzoru (2) i dostalibyśmy dla:
* 1 roku naprzód, tj. N = 1, M^1 = 1,094, czyli netto 9,4%,
* 5 lat naprzód, tj. N = 5, M^5 = 1,555, czyli netto 55,5%,
* N = 6, M^6 = 1,7, czyli netto 70%,
* N = 10, M^10 = 2,38, czyli netto 138%,
* N = 15, M^15 = 3,6, czyli netto 260%,
* N = 20, M^20 = 5,35, czyli netto 435%,
* N = 25, M^25 = 7,84, czyli netto 684%,
* N = 30, M^30 = 11,32, czyli netto 1032%,
* N = 35, M^35 = 16,11, czyli netto 1511%.

Przypomnijmy, że T = 37, więc nie powinniśmy już zwiększać N.

W przeciwieństwie do poprzedniego przykładu, M^N nie osiąga tym razem maksimum. Średnia geometryczna okazuje się zbyt bliska arytmetycznej , aby tak się stało. Z tej perspektywy nie istnieje optymalny horyzont inwestycyjny.

Następnie uwzględnimy autokorelację, czyli podstawmy dane do (8). Aby uzyskać wartości teoretyczne w macierzy autokorelacji, zastąpiłem wszystkie współczynniki autokorelacji zerami - za wyjątkiem rzędu 5-tego.
Poszukujemy najpierw F(T), a potem F(N). Ponieważ T = 37, to uzyskałem:
F(37) = I(37)'*C(37)*I(37) / 37 = 0,27.

Dostaniemy wtedy dla:
* 1 roku naprzód, tj. N = 1, F(1) = 0,27. Zatem F(37) / F(1) = 1. M^1 = 1,094, czyli netto 9,4%,
* N = 5, F(5) = 0,27. Zatem F(37) / F(5) = 1. M^5 = 1,555, czyli netto 55,5%,
* N = 6, F(6) = 0,86. Zatem F(37) / F(6) = 0,313. M^6= 1,71, czyli netto 71%,
* N = 10, F(10) = 0,58. Zatem F(37) / F(10) = 0,465. M^10= 2,42, czyli netto 142%,
* N = 15, F(37) / F(15) = 0,62. M^15= 3,69, czyli netto 269%,
* N = 20, F(37) / F(20) = 0,734. M^20 = 5,53, czyli netto 453%,
* N = 25, F(37) / F(25) = 0,83. M^25 = 8,1, czyli netto 710%,
* N = 30, F(37) / F(30) = 0,91. M^30 = 11,6, czyli netto 1061%,
* N = 35, F(37) / F(35) = 0,98. M^35 = 16,23, czyli netto 1523%, 


W tym przypadku autokorelacje nieco zwiększyły oczekiwane zyski, a największą różnicę dostajemy dla 30 lat (ok. 30 pkt proc.). Zauważalna różnica pojawia się dopiero dla 10-letniej inwestycji, dla której nadwyżka zwrotu wynosi 4 pkty proc. Z długiej perspektywy obydwie formuły dają podobny obraz, a przebieg obu scenariuszy ilustrują poniższe wykresy:



Teraz pewna dygresja. W poprzednim artykule zasugerowałem sposób na optymalizację horyzontu inwestycyjnego, wykorzystując CAPM i formułę Blume'a. Tymczasem w Przykładzie nr 1 z sWIG80 znów pokazałem, że istnieje optymalny horyzont inwestycyjny, ale bez użycia CAPM. Z kolei Przykład nr 2 zaprzecza tej metodzie. Czytelnik może poczuć się zagubiony w tej teoretycznej plątaninie. Wyjaśnienie jest proste. Pierwszy przykład rzeczywiście umożliwił znalezienie optymalnego horyzontu, ale stało się to możliwe tylko dzięki temu, że historyczne średnie z ostatnich lat były niskie, a geometryczna średnia nawet ujemna. Gdybyśmy wzięli znacznie dłuższy okres niż od 2007, to sytuacja zmieniłaby się i zbliżyła do tego co zaobserwowaliśmy na indeksie USA. Przedstawiony przykład z swig80 jest po prostu szczególnym przypadkiem wskazującym na możliwość dywersyfikacji czasowej.

Uzyskany poprzednio "optymalny" horyzont inwestycyjny za pomocą CAPM (4 lata), nie powinien być w takiej sytuacji w ogóle brany pod uwagę, bo formalnie odpowiadał on na pytanie jaki musi być minimalny udział aktywów ryzykownych w portfelu przy danym horyzoncie inwestycyjnym. Zakłada się więc wtedy, że minimum udziału to jakby optimum udziału, a więc że towarzyszący mu horyzont także jest optymalny.
Pozostaje w takim razie pytanie dlaczego uzyskane "optymalne" horyzonty inwestycyjne (3-4 lata) są tak bardzo zbliżone do siebie w obydwu podejściach, chociaż obydwa są niezależne od siebie? Być może to przypadek, jednak trzeba przyznać, że w pewnym sensie zgodny rezultat staje się bardziej wiarygodny, a dwie różne metody wzmacniają się nawzajem. Czy to oznacza, że powinniśmy naprawdę trzymać akcje najwyżej 4 lata? Oczywiście że nie, przedstawiona analiza jest tylko pewną symulacją opartą na ostatnich 10 latach giełdy. Możemy traktować to jako punkt zaczepienia, gdy z góry chcemy ustalić okres inwestycji.

Wnioski końcowe:
Okazuje się, że jeśli inwestujemy długoterminowo, to lepiej szukać aktywów, które posiadają ujemną autokorelację stóp zwrotu. Jednak zauważalna różnica pojawia się dopiero dla długich horyzontów, np. ok. 10-letniej inwestycji (w przypadku S&P 500 dostaliśmy +4 pkty proc.). Dla 15-letniej nadwyżka to już ok. 10 pktów proc.
Odwrotnych efektów możemy się spodziewać dla walorów o dodatniej autokorelacji. Można by więc powiedzieć, że lepiej unikać takich walorów na długi okres. Jednakże jeśli inwestujemy w takie walory do 5 lat, to nie odczujemy negatywnych skutków, gdyż ujemny wpływ będzie zaniedbywalny.
Z tej perspektywy dobrym pomysłem jest ustalanie horyzontów inwestycyjnych. Jeśli nasze akcje zachowują się tak jak sWIG80, czyli posiadają dużą pozytywną autokorelację, to wydaje się dobrym pomysłem trzymanie ich nie dłużej niż 4-5 lat, bo po pierwsze ostatnia historia wskazuje, że to optimum, a po drugie później zaczynają coraz silniej oddziaływać ujemne efekty dodatniej autokorelacji. Jeśli z kolei nasze walory zachowują się tak jak S&P 500, czyli posiadają ujemną autokorelację któregoś rzędu, to 10 lat może okazać się minimum, aby otrzymać "nagrodę za cierpliwość".


Literatura:
[1] E. Jacqiuer, A. Kane, A. Marcus, Optimal Forecasts of Long-Term Returns and Asset Allocation: Geometric, Arithmetic, or Other Means?, October 31, 2002.