czwartek, 14 lutego 2019

Dwie uwagi na temat filtru Butterwortha

Używając filtru Butterwortha (FB) powinniśmy mieć na uwadze dwa aspekty.

1) Kierunek, nie wartość. 
Chociaż w pracy Gómeza [1] czytamy, że FB może zostać przedstawiony jako najlepszy liniowy estymator z punktu widzenia średniokwadratowego błędu odchyleń, to jednak nie będzie tak w każdym przypadku. Sprawdziłem jak się zachowa FB dla funkcji sinus z nałożonym błądzeniem przypadkowym (300 danych). Analiza spektralna jednoznacznie wskazuje jedną powtarzającą się częstotliwość (o maksymalnym spektrum), która w stopniach wyniosła 12:



Po wstawieniu częstości odcięcia, x_c = 12, dostałem dość spodziewany efekt w postaci regularnej sinusoidy:


Jednak, jak się przyjrzeć dokładniej, nie jest to filtr, który minimalizuje błędy odchyleń. Np. jeśli wstawimy x_c = 20, otrzymamy lepsze dopasowanie:


Czyli FB (w powiązaniu z analizą spektralną) służy głównie do prognozowania kierunku, a mniej samej wartości.


2) Częstość odcięcia stopniowo tłumi wyższe od niej częstości.
Dlaczego gdy x_c = 20, nie pojawiają się jeszcze szumy na powyższym rysunku, skoro max spektrum zostaje osiągnięte dla x_c = 12?
Wiadomo, że przy dużo wyższych wartościach x_c, szumy się uwydatniają. Wstawmy x_c = 70:


A teraz x_c = 6. Tym razem filtr staje się płaski:


Zauważmy, że dla tego ostatniego częstości cyklu nie zostały usunięte, a przecież z periodogramu wynikałoby, że powinny. Ale okazuje się, że to już jest granica, bo dla x_c = 5, dostaniemy:


Dla x_c = 4, będzie to już prawie linia płaska.

Przeanalizujmy jeszcze przykład z nakładającymi się funkcjami sinus o różnej częstości i zmianami losowymi:


Spektrum:

3 piki o x_c = 2, 17 i 172 stopni.
Dla x_c = 2:


Dla x_c = 17:


Dla x_c = 172:


Łatwo się domyślić co będzie dla wartości pomiędzy 2 a 17, np. 9:


Tak więc - po raz kolejny - nie dostajemy filtru wynikającego z prostej sumy częstości od zera do x_c. Dlaczego? FB to przykład tzw. filtra dolnoprzepustowego (low-pass filter). Częstość odcięcia w tym przypadku wskazuje, najprościej mówiąc, na graniczną częstotliwość, powyżej której uważamy, że zaczynają pojawiać się szumy psujące sygnał. Tak więc x_c nie sprawia, że FB usuwa wszystkie częstości poza x_c (jak by mogło się wydawać  skoro ustawiamy wartość na podstawie spektrum), ale tłumi te powyżej tej wartości. Dla zobrazowania tej kwestii spójrzmy na poniższy rysunek:

Źródło: Pollock, D. S. G. [3]

Oś pozioma to częstości x. Oś pionowa - wartości tzw. wzmocnienia filtru (gain of filter; filter gain). Rysunek przedstawia funkcję wzmocnienia filtra Butterwortha, G(x). Z matematycznego punktu widzenia wzmocnienie to po prostu współczynnik regresji, której zmienną niezależną jest np. sinus + szum, a zmienną zależną sam sinus, tj. filtr. Ten współczynnik nie jest jednak stałą, ale funkcją zależną od częstości x. Podobnie zmienna niezależna jest funkcją częstości x. Możemy w skrócie zapisać:
sygnał wyjściowy(x) = G(x) * sygnał wejściowy(x).

FB charakteryzuje się tym, że dla częstości x_c wzmocnienie zawsze wyniesie 0,5. Pokazano to na rysunku, gdzie za x_c podstawiono (pi/2 + pi/4) / 2. Czyli dla tej wartości G(x) = 0,5 czy po prostu G(x_c) = 0,5. Możemy więc w skrócie napisać:
FB(x_c) = 0,5 * sygnał wejściowy(x_c).

Czyli FB nie ucina natychmiast wszystkich częstości powyżej x_c, ale je stopniowo tłumi. Patrząc na rysunek widać, że x_c wyznacza środek procesu tego tłumienia (wyżej opisane G(x) = 0,5), jednakże nie wpływa na samą szybkość tłumienia. O tej szybkości decyduje drugi parametr FB, n. W zależności od jego ustawienia wykres G(x) staje się mniej lub bardziej nachylony i to właśnie wokół x_c (czyli ogólnie wzmocnienie zależy od dwóch parametrów i można byłoby zapisać G(x, n)). To dlatego jeden wykres jest zakreskowany i bardziej nachylony, a drugi (ciągły) bardziej prosty. Im bardziej prosty, tym częstości powyżej x_c zostaną szybciej stłumione. 

Ten drugi parametr, o którym mowa, ustawialiśmy zawsze na poziomie n=2, aby uzyskać wersję filtru Hodricka-Prescotta. Co się stanie, gdy dla ostatniego przykładu podniesiemy go do 8, a x_c zachowamy na poziomie 9? Oto wynik:

  
A więc rzeczywiście częstości powyżej x_c = 9, zostały natychmiast stłumione, tak że te częstości drugiego rzędu zniknęły. Żeby się pojawiły, musielibyśmy zwiększyć x_c do 15.

Czyli żeby tłumienie zostało maksymalnie przyspieszone, musielibyśmy zmaksymalizować parametr n, tj. odejść od filtru Hodricka Prescotta. Jednak z punktu widzenia prognostyka jest to nie tylko niepotrzebne, ale i błędne rozwiązanie. Stopniowe tłumienie jest całkowicie wystarczające, a podwyższanie n prowadzi często do nieprawidłowych estymacji w przypadku rzeczywistych danych statystycznych.


Dodatek matematyczny:

Mamy sygnał wejściowy o losowym charakterze:
gdzie:
A - stała,
x - losowa częstość z przedziału (0, 2*pi),
t - czas.

Filtr jako odpowiedź na sygnał będzie funkcją:





gdzie:
G(x) - wzmocnienie albo tłumienie filtra,
P(x) - przesunięcie fazy.

Przesunięcie fazy, P(x), nie ma dla nas praktycznego znaczenia, bo dotyczy ono opisu fizycznych zjawisk, jak np. echo, które stanowi opóźnioną odpowiedź na sygnał wejściowy. Wobec tego dla nas P(x) = 0:

Tak więc wzmocnienie, o którym była mowa w artykule, stanowi współczynnik regresji.
Można pokazać [2], że:

gdzie:
g_F - gęstość spektralna dla F (funkcja gęstości spektralnej dla F),
g_S - gęstość spektralna dla S (funkcja gęstości spektralnej dla S).

Gęstość spektralna ma zbliżoną interpretację do prawdopodobieństwa występowania sygnału o danej częstotliwości, jednak bierze bardziej pod uwagę autokorelację pomiędzy obserwacjami o tej samej częstotliwości niż dokładnie powtarzającą się wartość.

Ogólnie wzór na gęstość spektralną jest postaci:

gdzie ACF_k oznacza autokorelację pomiędzy kolejnymi k-tymi (tj. w kolejnych k-tych jednostkach czasu) sygnałami o częstości x.

Dla wybranych częstotliwości (x) gęstości spektralne S i F będą się oczywiście nakładać. W tych miejscach g_F(x) = g_S(x), a wtedy:

Dla tych punktów G(x)^2 to po prostu współczynnik determinacji, a więc G(x) okazuje się także współczynnikiem korelacji między sygnałem wejściowym a filtrem.



Literatura:
[1] Gómez, V., The Use of Butterworth Filters for Trend and Cycle Estimation in Economic Time Series, Jul., 2001;
[2] Jenkins, G. M., General Considerations in the Analysis of Spectra, May, 1961;
[3] Pollock, D. S. G., Statistical Signal Extraction and Filtering: A partial survey, Aug. 2009.

niedziela, 27 stycznia 2019

Filtr Butterwortha - filtr Hodricka-Prescotta i analiza spektralna w jednym

Jakiś czas temu pisałem o filtrze Hodricka-Prescotta (HP). Oczywiście powstało wiele innych filtrów, którymi warto się zainteresować; jednym z nich jest filtr Butterwortha. Co ciekawe, filtr ten można rozumieć jako ogólniejszą wersję filtru HP, pozwala też wykorzystać analizę spektralną (zob. Jakie opóźnienie stosować w KPSS i ADF-GLS?). Sprawia to, że staje się on dużo bardziej elastycznym narzędziem prognozy.

Użycie filtru HP wymagało podanie jednego parametru - lambdy. Parametru tego używają inne filtry, w tym Butterwortha. Dla tego ostatniego Gómez [1] podaje wzór:

(1)

gdzie:
x_c - częstość cyklu podawana w radianach
n = 1, 2, 3, ... , gdzie większa wartość n generuje ostrzejszy filtr.

Gómez pokazuje, że dla n = 2,

 (2)

filtr Butterwortha staje się filtrem HP.

Jak pamiętamy, Hodrick i Prescott sugerowali stosować lambdę równą 1600 dla danych kwartalnych. Rozwiązaniem równania (2) dla lambdy równej 1600, będzie x_c = 0,1583. Dla celów praktycznych musimy tę wartość przekształcić w stopnie. Maksymalną wartością x_c będzie zawsze pi, czyli 3,14, która oczywiście stanowi 180 stopni. Aby uzyskać 0,1583, należy podzielić 3,14 przez ok. 21. To znaczy, że 0,1583 w stopniach wynosi 180 / 21 = 8,6 stopni.

Zróbmy następujące ćwiczenie. W programie Gretl przeanalizujmy kwartalne zmiany PKB w cenach stałych (realny PKB), od 1 kw. 2003 do 3 kw. 2018 (częstość kwartalna). Najpierw tworzymy filtr HP, wybierając lambda = 1600. Dostajemy coś takiego:



Następnie wybieramy filtr Butterwortha (Zmienna -> filtracja -> Filtr Butterwortha). Za n wstawiamy 2, a za częstość odcięcia (w stopniach) 9. Wartość 9 wynika z zaokrąglenia 8,6, którą przed chwilą obliczyliśmy. Dostajemy wykres:


Identyczne, co dowodzi, że rzeczywiście dla tak ustalonych parametrów oba filtry się zazębiają. Jest to dobry punkt wyjścia do precyzyjniejszych prognoz.

Częstość x_c możemy oszacować na podstawie analizy spektralnej. Zanim to zrobimy, musimy sprawdzić czy szereg jest stacjonarny - jeśli nie, musimy go do takiego sprowadzić. W Gretlu są dostępne co najmniej 4 metody sprawdzania stacjonarności (resztę można pobrać w dodatkach). Zarówno KPSS jak i ADF jednoznacznie odrzucają niestacjonarność. Jednak, o dziwo, ADF-GLS i testy ułamkowego rzędu integracji nie pozwalają odrzucić hipotezy niestacjonarności. Spoglądając na wykres funkcji autokorelacji można dojść do wniosku, że winę za to odpowiada bardzo silna autokorelacja pierwszego rzędu (0,81) oraz silne autokorelacje drugiego (0,63) i trzeciego rzędu (0,42). Dalsze nie występują. Pamiętać należy jednak, że próbka zawiera zaledwie 63 obserwacje.

Zastosowanie analizy spektralnej do danych niestacjonarnych nawet graficznie nie pozwoli znaleźć długości cyklu, a zatem samą analizę spektralną możemy także wykorzystać do testowania stacjonarności. Otrzymałem taki periodogram:


Powstały obraz jest charakterystyczny dla szeregów niestacjonarnych. Dlatego wezmę pierwsze różnice zmian PKB, aby uzyskać stacjonarność. Wykres tych różnic to:



I wówczas periodogram tychże przedstawia się następująco:


Występują tutaj 3 piki sugerujące: cykl 16-kwartałowy (4 lata), 8-kwartałowy (2 lata) i 3-kwartałowy. Zajmiemy się tym pierwszym, najbardziej przekonującym.



Wielkość omega to nasz x_c, podana w radianach. Dla wybranego cyklu 16 kwartałów, będzie to 0,3989. Zatem, aby uzyskać wielkość w stopniach, najpierw podzielimy 2pi / 0,3989 = 16, a następnie 360 podzielimy przez uzyskaną wartość: 360 / 16 = 22,5. Jeśli jeszcze do końca nie rozumiemy tych obliczeń, to wyjaśniam: 0,4 to pewna wielkość w radianach, będąca częstością występowania cyklu. Maksymalna częstość wynosi 2pi (czyli 360 stopni), a więc aby uzyskać 0,4, musimy 2pi przez coś podzielić. Mamy więc równanie 0,4 = 2pi / x. Stąd x = 2pi / 0,4 = 16. Czyli 2pi / 16 = 0,4. Teraz przechodząc na stopnie, wiedząc, że pi to 180 stopni, mamy 360 / 16 = 22,5 stopni.

To samo możemy uzyskać dużo szybciej, zmieniając po prostu w opcjach jednostki radianów na stopnie. Wchodzimy w Zmienna -> Periodogram - spektrum, i zmieniamy jednostki osi częstości z data-based na degrees:



Mając wiedzę o długości cyklu, skorzystamy z filtru Butterwortha, przy czym trzeba się zastanowić czy stosować go na oryginalnych zmianach PKB czy ich różnicach. Zróbmy zatem obydwoma sposobami. Najpierw na oryginalnych danych:


Dla danych niestacjonarnych istotnym elementem jest składnik cykliczny. W porównaniu do poprzedniego filtrowania, tym razem otrzymaliśmy informację, że cykl gospodarczy wszedł w fazę stagnacji (wartości składnika cyklicznego < 0).

Następnie zastosujmy filtr na danych stacjonarnych:


W tym przypadku nie zaznaczałem już składnika cyklicznego, bo jest on tu mniej przydatny - same dane są tu traktowane bardziej jako składnik cykliczny niż trend. Widzimy, że układa się dość równomierna sinusoida i obecnie faktycznie wchodzimy w fazę spadkową, co potwierdza analizę na trendzie. Całkiem rozsądne jest uznać, że użycie tych parametrów do filtru daje lepsze rezultaty dla danych de-trendowanych, stacjonarnych. W przypadku oryginalnego wykresu, prognoza będzie dużo mniej pewna, prowadzić będzie często do pozornych trendów i cykli.

W tym miejscu musi paść pytanie, dlaczego właściwie użyliśmy n = 2, czyli filtru HP, skoro właśnie chcemy dostać coś lepszego od HP? Przecież to jest ten sam filtr, tylko  zgodnie ze wzorem (2) lambda wyniesie wtedy 43 (a nie 1600). 

Możemy więc poeksperymentować. Skoro wiemy, że optimum x_c = 23, to możemy dostosować właściwe n. Tutaj za kryterium możemy przyjąć najmniejsze odchylenie standardowe składnika cyklicznego - a więc dla testów składnik cykliczny dla różnic okaże się jednak przydatny (bo traktujemy go nie jako składnik cykliczności, tylko jako błąd, odchylenie od tego składnika). W opcjach filtru Butterwortha zaznaczamy opcję "Zapisz składnik cykliczny jako" i kalibrujemy poziomem n, i przy każdej zmianie zmieniamy nazwę, np. dodając końcówkę 2, 3 itd. Dla n = 2, dostałem odch. standardowe = 0,87. Dla n = 3, wyniosło 0,88, a wykres samego składnika trendu wygląda tak:


Dla n = 4, wyniosło 0,9, a wykres "trendu":


Od n = 4 do n = 6, zmienia się postrzeganie bieżącej fazy cyklu - jest to faza wzrostowa. Jednak odchylenie standardowe ciągle rośnie. Dla n = 7 obecna faza znów staje się spadkowa, a odchylenie wzrasta do 0,98:


Skoro odchylenie ciągle rośnie, niezależnie od n, to optymalnym rozwiązaniem powinno być n = 2. A co z n = 1? Jest to niedopuszczalne rozwiązanie, co samemu łatwo sprawdzić.

Przykłady do giełdy:

Mając już pewną wiedzę na temat filtru Butterwortha, spróbujemy sporządzić prognozy dla WIG, sWIG80, AMC oraz GTN.

1) WIG: 1 kw 2003 - 4 kw 2018 (częstość kwartalna)
Periodogram dla stóp zwrotu:

Uzyskaliśmy bardzo wyraźną długość cyklu 13 kwartałów, tj. dokładnie 3 lata i 1 kwartał. Odpowiada to 27,7 stopni. W filtrze Butterwortha ustawimy n = 2 i x_c = 28. Wykres:


 Filtr sugeruje, że jesteśmy niemal dokładnie w dołku filtra. Nie oznacza to zakończenia spadków, ale zakończenie dużych spadków (stopy zwrotu będą dążyć do zera).


2) sWIG80: 1 kw 2003 - 4 kw 2018 (częstość kwartalna)
Periodogram dla stóp zwrotu:



Dla mniejszego brata WIG-u uzyskaliśmy praktycznie to samo. Może dodatkowo uwidacznia się mniej wyraźny cykl 2,5 kwartałów (na wykresie odpowiada ok. 140 stopni).

W filtrze Butterwortha ustawimy n = 2 i x_c = 28. Wykres:


W tym przypadku faza bessy jest dużo bardziej drapieżna, co się da łatwo zauważyć na samych wykresach indeksów. Filtr wcale nie pozwala sądzić, że zbliżamy się do dołka. "Maluchy" łatwego życia nie mają (w ciągu ostatnich 5 lat sWIG80 spadł o 22%, WIG wzrósł o 20%). Należy jednak zaznaczyć, że ta słabość rynku małych spółek potwierdza tezę efektywności rynku, a zaprzecza tzw. efektowi małych spółek. Z drugiej strony to na sWIG80 występują najsilniejsze autokorelacje, które można będzie wykorzystać w odpowiednim czasie.

Przy okazji, gdy już jesteśmy przy autokorelacjach warto spojrzeć na tablice autokorelacji kwartalnych stóp zwrotu dla obu indeksów. Dla WIG:



Dla sWIG80:


Oprócz pierwszych dodatnich autokorelacji zwraca uwagę ujemna korelacja dla 7-go opóźnienia na ACF. To ona właśnie jest wykazywana jako faza odwrócenia w cyklu 2,5-kwartalnym. Prawdopodobnie ma to związek z efektami kalendarzowymi, gdy indeks lepiej zachowuje się np. od października do kwietnia i gorzej od maja do września.

Ponieważ już styczeń praktycznie minął, to dalej będę pracował na miesięcznych stopach zwrotu.


3) AMC: koniec grudnia 2002 - styczeń 2018 (częstość miesięczna):



Uwidacznia się na Amice cykl 39-miesięczny, tj. znów 3 lata i 1 kwartał. W filtrze Butterwortha ustawiamy n = 2 i x_c = 9. Rezultat poniżej:


Filtr wskazuje, że AMC wchodzi właśnie w fazę wzrostu. Jest więc szansa, że AMC wróci do sugerowanej przeze mnie wyceny 160-166 zł (CAPM skorygowany o PIT. Dalsza wycena Amiki). Tamta wycena opierała się na zbyt optymistycznych prognozach zysku operacyjnego w stosunku do rzeczywistości (nie tylko nie wzrósł, ale spadł o 7%), jednak niższa obecnie baza przyczyni się do łatwiejszego powrotu do średniego wzrostu.

4) GTN: koniec grudnia 2002 - styczeń 2018 (częstość miesięczna):

 


Filtr Butterwortha (n = 2, x_c = 9):


Wygląda na to, że GTN nadal znajduje się w głębokiej depresji, chociaż końcówka sugeruje, że dołek coraz bliżej. Pewną nadzieją jest fakt, że stopy GTN są silnie skorelowane ze stopami WIG (wsp. kor. = 0,56), a WIG jest coraz bliżej dołka. Mimo to obecnie bardziej opłacalne wydaje się zainwestowanie w AMC, której korelacja w WIG jest trochę słabsza (0,48), a filtr daje właściwie sygnał kupna.

 .........................................................................................................................

AKTUALIZACJA GTN:
Końcówka stycznia 2019 okazała się dla GTN wyjątkowo spektakularna. Kurs w ciągu zaledwie 4 dni, od 28.01.2019 do 31.01.2019, wzrósł o 46%. Spowodowało to, że charakter filtra zmienił się diametralnie w tym okresie:



 .........................................................................................................................

W kontekście korelacji można zapytać czy skoro gospodarka wchodzi w fazę stagnacji, to warto inwestować w akcje? Tutaj przypomnę, że to WIG wyprzedza i prognozuje polskie PKB rok naprzód (zob. WIG dyskontuje prędzej Zagranicę niż Polskę), natomiast bieżące zmiany PKB mają słaby, możliwe, że nieistotny wpływ (korelacja roczna niecałe 0,17). PKB jednak się przyda, gdy będziemy przewidywać kolejny rok, bo indeks zareaguje w tym samym kierunku w roku bieżącym. Jeśli spojrzymy na obecne poziomy C/Z i C/WK WIG-u, które wynoszą na chwilę obecną odpowiednio 10,2 i 1, to stwierdzimy, że potencjał spadku jest jeszcze spory. Jeżeli już decydujemy się na akcje, to powinniśmy wybrać te, które wcześniej już drastycznie spadły, kiedy WIG jeszcze rósł.

W następnym artykule opiszę dokładniej co oznacza częstość odcięcia, dzięki czemu będziemy sprawniej używać filtra.

Literatura:
[1] Gómez, V., The Use of Butterworth Filters for Trend and Cycle Estimation in Economic Time Series, Jul., 2001.

poniedziałek, 17 grudnia 2018

Optymalna inflacja?

Często w artykułach ekonomicznych czytamy, że zbyt niska inflacja grozi spowolnieniem gospodarczym, a deflacja wręcz recesją. Z tego powodu banki centralne określają tzw. "cel inflacyjny". W gospodarkach światowych cel inflacyjny koncentruje się wokół 2% rocznie [5]. Dlaczego akurat tyle? Od początku: czy ogólny wzrost cen powinien kosztować coś gospodarkę? Wiadomo, że koszt taki nie powinien oznaczać spadku realnych wynagrodzeń/dochodów ludności, bo w końcu nawet jeśli konsumenci tracą, to producenci zyskują, wzrostowi cen towarzyszą wzrosty płac. Całkowity efekt powinien pozostać zerowy.  (Pomijam tu takie grupy społeczne jak emeryci i bezrobotni, którzy jako grupa realnie mogą tracić na inflacji. Trzeba jednak zaznaczyć, że grupy te otrzymują pieniądze od państwa, a państwo pozyskuje większe podatki dzięki inflacji, stąd ewentualny koszt wynikałby tylko ze sztywnej polityki społecznej państwa). Można więc powiedzieć, że inflacja nie wpływa na realne dochody księgowe, przynajmniej w długim terminie.

Jeżeli jednak spojrzymy na dochody szerzej, wliczając zyski i koszty społeczno-ekonomiczne, to okazuje się, że perspektywa się zmienia. Po pierwsze inflacja wywołuje tzw. koszty zmiany menu. Przedsiębiorcy muszą częściej zmieniać ceny i informować o tym kontrahentów. Tutaj też będą mieściły się większe koszty zarządzania pieniędzmi.

Po drugie powstają tzw. koszty zdartych zelówek (ang. shoe-leather costs). Chodzi tu o to, że inflacja wymaga większego ruchu, myślenia, energii. Nominalna stopa procentowa rośnie, czyli rośnie koszt alternatywny utrzymywania gotówki - ludzie starają się utrzymywać zasób gotówki na niższym poziomie, bo z jednej strony mają większą stopę oprocentowania oszczędności, z drugiej kredyty stają się droższe. Ludzie muszą więcej poświęcić czasu i energii na nowe formy inwestycyjne.

Po trzecie, jeżeli inflacja jest procesem stochastycznym, tak jak to ma miejsce w rzeczywistości, to powstaje koszt niepewności co do wzrostu cen w przyszłości. Jest to najpoważniejszy koszt ekonomiczny, bo wywołuje stałą potrzebę diagnozowania poziomu cen w gospodarce, prognozowania ich i dostosowywania się do nowych warunków, a także zwiększa niechęć do kapitałochłonnych inwestycji.

Wielu ekonomistów wskazuje jednak, że inflacja przynosi także przychody ekonomiczne. Może ona stanowić sprytne narzędzie do urealnienia wynagrodzeń. Pracownicy nie chcą, aby ich wynagrodzenie spadło, nawet jeśli sytuacja gospodarcza się pogarsza. Zjawisko to nazywane jest sztywnością płac. Inflacja sprawia, że realne wynagrodzenie spadnie, zastępując w ten sposób koszty negocjacji z pracownikami. Szczególne znaczenie będzie to miało w relacjach ze związkami zawodowymi, z którymi pracodawcy nie będą musieli wojować o obniżki płac, a nawet mogą zgodzić się na podwyżki. W ten sposób spadają koszty czasu czy zużycia energii.

Innym pozytywnym skutkiem inflacji jest to, że potrafi urealnić stopę procentową. Nominalna stopa procentowa może spaść tylko do zera, a więc gdy następuje kryzys, bank centralny nie może już więcej zdziałać, tzn. zostaje ograniczony w pobudzaniu aktywności gospodarczej. Jest to tzw. pułapka płynności. Gdy włączymy inflację, realna stopa procentowa spadnie poniżej zera:
realna stopa = (nominalna stopa - stopa inflacji) / (1 + stopa inflacji).
Jeżeli więc nominalna stopa = 0, to realna stopa = -stopa inflacji / (1+ stopa inflacji). Gdy inflacja jest mała, realna stopa procentowa będzie w przybliżeniu równa stopie inflacji ze znakiem ujemnym. Większa inflacja sprawia, że poprawia się sytuacja pożyczkobiorców, a pogarsza pożyczkodawców (zwrócone pieniądze za rok będą już mniej warte niż dziś, czyli można kupić więcej dziś niż za rok). Ludzie zwiększą więc konsumpcję i inwestycje, nakręcając tym samym gospodarkę. Stąd inflacja działa jak ujemna stopa procentowa. Opisana teoria to spojrzenie neo-keynesistowskie.

Dla przykładu, O. Coibion et al. [3] wykorzystują to spojrzenie do stworzenia modelu optymalnej inflacji, uzyskując optimum na poziomie 1,5%:

Źródło: O. Coibion et al. [3]

ZLB - Zero Lower Bound, tj. zerowa dolna granica, tj. sytuacja gdy stopa procentowa jest bardzo niska lub równa zero, powodując tzw. pułapkę płynności i ograniczając możliwości banku centralnego do pobudzania aktywności gospodarczej.

Na rysunku powyżej mamy 3 krzywe. Linia ciągła to połączenie obydwu pozostałych, tzn. zawiera zarówno koszty inflacji, jak i przychody z efektu ZLB. Model zawiera najwyższą użyteczność dla stopy inflacji 1,5%, stąd autorzy sugerują taki właśnie cel inflacyjny.

Powyżej wymienione koszty i "przychody ekonomiczne" inflacji to tylko wybrane przeze mnie przykłady z literatury, które są zrozumiałe i nie budzą większych zastrzeżeń.

W rzeczywistości jednak literatura na ten temat jest ogromna i wyniki publikacji różnią się skrajnie. Bardzo ciekawą meta-analizę zagadnienia optymalnej inflacji przeprowadził niedawno Diercks [4]. Przedstawiony przez niego wykres rezultatów poszczególnych publikacji mówi wszystko o tym jak kontrowersyjny i niejednoznaczny jest to temat:


Diercks podaje też tabelę z wartościami dla tego wykresu. Chociaż nie obliczył średniej, co byłoby na pewno sztuczne, to zrobiłem to za niego. Jeśli czegoś nie pominąłem, to średnia arytmetyczna optymalnych inflacji wyniosła -0,18%. Oczywiście spośród 100 prac znalazłyby się takie, których założenia byłyby bardziej kontrowersyjne od reszty, być może wiele trzeba by odrzucić, ale mimo wszystko dostajemy obraz zupełnie różny od tego, który współcześnie jest najczęściej kreowany przez analityków czy niektórych polityków, tj., że lepsza jest inflacja od deflacji. Można postawić tezę, że globalnym optimum jest zerowa inflacja. Dlatego w obecnych czasach cel inflacyjny powinien być bardziej debatowany publicznie i poddawany pod wątpliwość.


Literatura:
[1] Baranowski, P., Problem optymalnej stopy inflacji w modelowaniu wzrostu gospodarczego, 2008;
[2] Billi, R. M., Kahn, G. A., What Is the Optimal Inflation Rate?, 2008;
[3] Coibion, O., Gorodnichenko, Y.,Wieland, J., The Optimal Inflation Rate in New Keynesian Models: Should Central Banks Raise Their Inflation Targets in Light of the Zero Lower Bound?, October 2012;
[4] Diercks, A. M., The Reader's Guide to Optimal Monetary Policy, June 2017;
[5] Schmitt-Grohe, S., Uribe, M., The Optimal Rate Of Inflation, June 2010.

wtorek, 4 grudnia 2018

Aktualizacja analizy GTN

Ostatni raz poruszam kwestię analizy dyskryminacyjnej Getin Holding, bo niedawno pojawił się raport za 3 kwartał 2018. Trzeba więc sprawdzić czy ekstremalna przecena spółki ma rację bytu po ukazaniu się wyników. To że wyniki będą złe było oczywiste, natomiast kontrowersyjna jest skala reakcji. Stosuję tutaj ciągle model Siudka, o którym szczegółowo pisałem w tym artykule. Model jest postaci:

Z = 0,0399 X1 - 0,11592 X2 - 0,206739 X3 + 0,022422 X4 - 0,332494

gdzie:
X1 - Wskaźnik rentowności kapitałów własnych, ROE
X2 - Wskaźnik udziału majątku i inwestycji kapitałowych w aktywach netto
X3 - Wskaźnik udziału kapitału pracującego w aktywach netto
X4 - Wskaźnik udziału kredytów netto w aktywach netto

Podawane tu wartości są w tys. zł. Skumulowana strata za 9.2017 - 9.2018 wyniosła 281 302. Kapitał własny na 3 kw 2018 = 2 575 255. Możemy się też posłużyć KW tylko dla akcjonariuszy jednostki dominującej, ale to nie zmieni ostatecznego rezultatu. Stąd ROE = -11%. Skumulowany dochód całkowity za 9.2017 - 9.2018 równa się -369 822. Aby uzyskać kapitał pracujący, potrzebne sa aktywa obrotowe i zobowiązania bieżące. Aktywa obrotowe nie są jawnie podane (jedynie dla sprawozdania jednostkowego, które opisałem oddzielnie niżej), więc dodałem następujące pozycje ze sprawozdania fin:



Na żółto zaznaczone są należności od klientów, bo je podzieliłem na 2 - założyłem, że połowa z tych należności jest bieżąca.

Aby uzyskać zobowiązania bieżące (które tez nie są podane dla spr. skonsolidowanego), odjąłem od wszystkich zobowiązań połowę zobowiązań wobec klientów i zobowiązania z tytułu emisji dłużnych papierów wartościowych. Oczywiście kontrowersyjne jest założenie, że tylko połowa zobowiązań jest bieżąca, ale trzeba zachować pewną równowagę wobec należności, z którymi zrobiłem to samo. W sumie dostałem zobow bieżące = 14 018 930.

Za kredyt netto przyjąłem kredyty, pożyczki i pewne ich ekwiwalenty, jak emisja dłużnych papierów (co dało sumę 23 444 979), pomniejszone o kasę i rachunki w bankach (1,8 mln).

Ostatecznie dostałem Z-score = -0,4. Oznacza to, że sytuacja GTN nie pogorszyła się tak, aby akcje wyceniać jak bankruta, co ma obecnie miejsce (C/WK = 0,07).

Trzy uwagi. Po pierwsze może dziwić to, że pomimo straty, Z-score nie pogorszył się. W modelu Siudka ROE paradoksalnie odgrywa jednak negatywną rolę w ocenie firmy. Z jednej strony strata jest oczywiście pogorszeniem jej funkcjonowania, ale z punktu widzenia oceny prawdopodobieństwa bankructwa, ważniejszą rolę pełni wielkość kapitału własnego, który stanowi pewną "poduszkę" w sytuacjach kryzysowych. Większy kapitał w mianowniku oznacza większe zabezpieczenie przed niewypłacalnością.
Po drugie wyżej napisałem, że kontrowersyjne jest założenie, że tylko połowa zobowiązań wobec klientów jest bieżąca. Gdybyśmy na przykład przyjęli 3/4, to Z-score skoczyłby już do 0,03, a więc ryzyko bankructwa stałoby się realne. Gdyby więc nagle 3/4 klientów chciało wypłacić środki na skutek obawy, że nie dostaną z powrotem swoich pieniędzy (afera KNF mogła to zamplifikować), GTN miałby duży problem z wypłatą środków. Pracownicy banku powinni więc być przygotowani na taką panikę i wyjaśnić przestraszonym klientom, że do 100 tys. euro ich środki są gwarantowane przez BFG i nie mają się czego obawiać. 

Po trzecie dobrym pomysłem, aby uwiarygodnić analizę, jest przeprowadzenie jej dla sprawozdania jednostkowego. Tak też zrobiłem. W tym przypadku nie ma problemu z wyłuskaniem nieznanych  pozycji, bo są podane w bilansie. Okazuje się, że wynik pogorszył się tylko trochę: Z-score wyniósł -0,31. Wynika z tego, że użycie proporcji dla skonsolidowanych danych było w miarę poprawne. W ten sposób możemy mniemać, że GTN nie jest zagrożony bankructwem.

Oto link do pliku xlsx z wyliczeniami tej dzisiejszej analizy (zarówno dla skonsolidowanego jak i jednostkowego sprawozdania). Każdy może sobie sam sprawdzić obliczenia i potestować:
https://drive.google.com/file/d/1gks3RPd2njglqSDALw5upGMV-8W2E1lZ/view?usp=sharing

niedziela, 18 listopada 2018

Sprowokowany aferą KNF - model Siudka raz jeszcze

Wybuch afery KNF w ostatnim tygodniu i niewyobrażalne jeszcze do niedawna spadki spółek L. Czarneckiego na giełdzie prowokują do zastanowienia się czy rzeczywiście z Getinem jest aż tak źle. Media od lewa do prawa oraz... KNF twierdzą, że Getin ma kłopoty finansowe. Ta negatywna ocena ma swoje uzasadnienie w słabych ratingach nadanych przez kilka niezależnych agencji. Moody's, Fitch oraz EuroRating konsekwentnie obniżyły ocenę Getin Noble do B-, czyli poziomu, na którym istnieje podwyższone ryzyko kredytowe.
Jednak czy to dotyczy Getin Holdingu? Jeszcze we wrześniu mała analiza dyskryminacyjna odrzucała zagrożenie niewypłacalnością.

Mnie to sprowokowało, by powrócić do tego artykułu i dodać w nim analizę innych banków notowanych na giełdzie. Gdyby się okazało, że mają one drastycznie różny poziom Z-score od GTN, to można by zacząć doszukiwać jakiegoś punktu zaczepienia do odpowiedzi na pytanie o tak gigantyczne spadki.

Oczywiście istnieje jeszcze druga możliwość - że model Siudka, którym się posługiwałem, został niepoprawnie skonstruowany albo zwyczajnie jest niewystarczający. Powstało sporo modeli zagranicznych przewidujących bankructwa banków, którymi na pewno warto byłoby się wspomóc. Na obecną chwilę model Siudka musi wystarczyć.

Najwrażliwsza składowa modelu dotyczy zmiennej X3, która posiada wagę 21%. Przypomnę, że X3 = (Aktywa Obrotowe – Zobowiązania Bieżące) / Kapitał własny. Przykładowo dla Idei dostaliśmy (21490287 - 20674598) / 2437170 = 33,5%. Załóżmy teraz, że zobowiązania bieżące są większe o 3 mln (dane w tys. zł), a aktywa obrotowe nie zmieniają się (czyli zobowiązania bieżące poszły na długoterminowe inwestycje). Wtedy X3 spadnie do -90%. Jeśli te 3 mln to kredyty, co jest najbardziej prawdopodobne, wtedy X4 wzrośnie do 900%. W takiej sytuacji Z score stanie się dodatni (Z = 0,053 dla X1 = zysk netto/kapitał własny lub Z = 0,073 dla X1 = dochód całkowity / kapitał własny), czyli trzeba byłoby uznać, że Idea jest niewypłacalna. Czyli widzimy, że model Siudka zachowuje pewną wrażliwość na zmiany zobowiązań krótkoterminowych - to czego oczekiwalibyśmy po prawidłowym modelu.

Dalsza część została dodana do tego artykułu (którego tytuł brzmi dzisiaj trochę dziwnie - pamiętajmy, że analiza dotyczy okresu na 1 kwartał 2018).

.......................................................................................
Dla porównania tych wyników z rynkiem, sprawdziłem dodatkowo GNB, mBank, PKO BP oraz ING BŚ. Ten sam zakres na 1 kw. 2018 na danych zannualizowanych. 

Getin Noble Bank:
X1a = Wynik netto / kapitał własny = -14,4%.
X1b = Dochód całkowity / kapitał własny = -12,3%.
X2 - analogicznie jak w poprzednich przykładach, bierzemy średnią dla wypłacalnych i niewypłacalnych:
X2 = 5,21%
X3 = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = 43,86%
X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania wobec klientów + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / Kapitał własny =1400%.

Z(a) = 0,0399 *X1a - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,121.

Z(b) = 0,0399 *X1b - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,12

Analiza ta wskazuje, że GNB jest niebezpiecznie blisko 0, co rodzi pewne ryzyko niewypłacalności. Możemy pospekulować, że zejście Z do zera, będzie oznaczać rating CCC, a potem z każdym kolejnym wzrostem coraz bliżej D. Dopóki GNB nie zejdzie do samego zera, twierdzenie, że Getin Noble to bankrut, jest przesadą i na obecną chwilę bank nie ma problemów z pokryciem zobowiązań.

Mbank:
X1a = ROE = zysk netto / kapitał własny = 1287070 / 14484158 = 8,9%
X1b = Dochód całkowity / kapitał własny = 1460332 / 14484158 =10%.
X2 = 5,21%
X3 = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = (130813879 - 116289638) / 14484158 = 100,3%
X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania wobec klientów + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / Kapitał własny = (115355334-5354319) / 14484158 = 759,5%.

Z(a) = 0,0399 *X1a - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,372

Analogicznie sprawdzimy ten model dla

Z(b) = 0,0399 *X1b - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,371.

Tak więc mbank ma porównywalny wskaźnik do GTN, co potwierdzałoby, że charakteryzuje się podobnym stopniem wypłacalności.


PKO BP:
X1a = zysk netto / kapitał własny = 8,2%
X1b = dochód całkowity / kapitał własny = 9,7%.

X2 = 5,21%
X3 = 163,8%
X4 = 620,4%.

Z(a) = 0,0399 *X1a - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,535
Z(b) = 0,0399 *X1b - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,534

Widać, że PKO mocno trzyma w ryzach wskaźniki płynności i daleko mu do zagrożenia.


ING Bank Śląsk:
Dochód całkowity jest zbliżony do zysku netto i Z score jest niemal identyczny w obu wariantach, więc podaję tylko wesję Z(b):
X1 = 12,6%
X2 = 5,21%
X3 = 106,1%
X4 = 897,6%

Z = -0,352.

W przypadku ING należy zwrócić na jeden aspekt. Wysoki poziom ROE 12,6% (w wersji X1a  11,8%) przyczynia się do wysokiego poziomu C/WK, który obecnie wynosi niemal dwukrotność kapitału własnego. Natomiast z punktu widzenia wypłacalności, bank jest przeciętny. Poziom -0,35 jest podobny zarówno do GTN jak i MBK.

Biorąc pod uwagę, że MBK i PKO mają rentowności podobne do GTN, a MBK  i ING mają także Z-score podobny do GTN, trudno racjonalnie wytłumaczyć tak głębokie, niekończące się spadki Getin Holdingu, nawet biorąc pod uwagę słabsze wskaźniki Idei i powiązanego z nimi Getin Noble.

wtorek, 13 listopada 2018

Meta-analiza polskich meta-analiz dyskryminacyjnych do przewidywania bankructw

Na przestrzeni ostatnich kilku lat powstało wiele meta-analiz porównujących ze sobą skuteczność polskich modeli dyskryminacyjnych w prognozie upadłości przedsiębiorstw lub po prostu do oceny ryzyka upadłości. Okazuje się, że w zależności od badanych prób (zarówno w sensie przestrzennym jak i czasowym), wyniki badań są niejednoznaczne. Dlatego usystematyzuję niektóre z nich i wyciągnę ogólne, uśrednione wnioski (wtedy też dopiero podam postaci najlepszych modeli). Podane tutaj publikacje są tylko pewnym wyrywkiem wielkiej literatury na zadany temat, ale wydaje mi się, że pozwolą spojrzeć obiektywnie na wybór modeli dyskryminacyjnych. Warto w tym miejscu dodać, że najczęściej stosowany w serwisach finansowych wskaźnik Altmana nie jest optymalny w polskich warunkach. To właśnie stąd powstało wiele polskich modeli dyskryminacyjnych, które służą do oceny przede wszystkim przedsiębiorstw krajowych.

1. Kisielińska, J. i Waszkowski, A. [2010]: sprawdzili następujące modele:
- Model Hołdy (M_H)
- Model J. Gajdki i T. Stosa (M_GS) 
- 2 modele B. Prusaka (M_P1), (M_P2)
- 7 modeli powstałych w Instytucie Badań Ekonomicznych Polskiej Akademii Nauk (PAN), inaczej modele Mączyńskiej-Zawadzkiego: PAN-A, PAN-B, PAN-C, PAN-D, PAN-E, PAN-F, PAN-G.
- Model D. Wierzby (M_W)
- Model „poznański” (M_P)
- 4 modele logitowe Gruszczyńskiego: MLD1, MLD2, MLD3, MLD4

Autorzy przedstawili wyniki badania w formie tabeli:

Tabela 1
Źródło: Kisielińska, Waszkowski [2010]

gdzie:
W(t) - globalny procent poprawnych klasyfikacji
W(t0) - procent poprawnych identyfikacji bankrutów
W(t1) - procent poprawnych identyfikacji nie-bankrutów

Za najlepsze modele należy uznać M_GS oraz PAN-F. Oba wykryły zagrożenie upadłością w przypadku 88% bankrutów oraz poprawnie odrzucały to zagrożenie w przypadku 94% przedsiębiorstw o dobrej kondycji - to bardzo dobry wynik. Niestety wg mnie praca została niedopracowana, bo trudno znaleźć okres jaki minął od momentu prognozy do momentu ogłoszenia bankructwa, a bez tego elementu nie jesteśmy w stanie poprawnie oszacować wiarygodności wskaźnika przyszłości firmy.

2. Antonowicz, P. i Szreder, P. [2013]: badacze skupili się tylko na 2 spółkach, których upadłość w 2012 r. zaskoczyła rynek: BOMI S.A. i Rabat Service S.A. Wybór modelu został dokonany w oparciu o poprzednią publikację Antonowicza, w której także spośród wielu różnych modeli wyselekcjonowano najlepsze. Należały do nich:

- PAN-G (Z 7 INE PAN)
- PAN-F (Z 6 INE PAN)
- Model Hamrola, Czajki i Piechockiego, tj. model "poznański", M_P, (Z_HCP)
- M_P1 (Z_BP1)
- M_P2 (Z_BP2)
- M_W (Z_DW)

Jak widać wszystkie wymienione wcześniej modele powtórzyły się. Popatrzmy zatem jak poradziły sobie tym razem:

Tabela 2
Ocena zdolności prognostycznych BOMI S.A.

 Żródło: Antonowicz, P. i Szreder, P. [2013]


Tabela 3
Ocena zdolności prognostycznych Rabat Service S.A.

Żródło: Antonowicz, P. i Szreder, P. [2013]


W obydwu przypadkach najlepszą predykcją wykazały się modele Prusaka, które już 2 lata przed upadłością dawały ostrzeżenia, a nawet 3 lata wstecz wykazywały ujemną wartość. Drugi model Prusaka (Z_BP2) daje trochę lepsze wyniki niż Z_BP1. Najgorzej z tutejszej listy poradziły sobie Z_HCP i Z_DW.

Nasuwa się pytanie dlaczego modele Prusaka szybciej ostrzegały inwestorów niż inne? Jedną z możliwych odpowiedzi jest to, że są one bardziej restrykcyjne w ocenie każdego przedsiębiorstwa i np. zdrowe spółki będą zbyt szybko odrzucać. Aby to wstępnie ocenić możemy spojrzeć na Tabelę 1. Przed chwilą powiedziałem, że Z_BP2, tj. M_P2, nieco lepiej ostrzegał przed niewypłacalnością. Patrząc na tabelę 2, widzimy, że M_P2 istotnie bardzo dobrze przewidywał bankruty, ale jednocześnie błędnie oceniał aż 87% nie-bankrutów jako przyszłe bankruty. Z drugiej strony popatrzmy na MP_1 w tej samej tabeli. Tutaj model nie daje aż tak złych wyników (25% nie-bankrutów ocenia jako bankruty), a jednocześnie znakomicie sobie radzi z oceną przyszłych bankrutów (tylko 12% bankrutów ocenia błędnie jako zdrowe). W sumie można stawiać tezę, że o ile MP_2 jest istotnie zbyt restrykcyjny, o tyle MP_1 może być optymalny.

Istnieje jednak drugie wyjaśnienie skuteczności modeli Prusaka. Zauważmy, że obydwa bankruty BOMI i Rabat Service należą do branży FMCG (ang. Fast Moving Consumer Goods, tj. branży dóbr szybko zbywalnych, inaczej produktów szybko rotujących). Możliwe, że modele Prusaka po prostu lepiej oddają kondycję branży spożywczej.

Najprawdopodobniej sytuacja wygląda tak, że M_P2 jest rzeczywiście zbyt restrykcyjny, a jednocześnie MP_1 i MP_2 najlepiej sprawdzają się w branży spożywczej. Kolejna pozycja potwierdza tę hipotezę.

3. Balina, R. i Bąk, J. M. [2016]: szeroka i drobiazgowa meta-analiza zarówno modeli zagranicznych jak i polskich z podziałem na branże. Zbadano następujące modele polskich autorów:
- Pogodzińskiej i Sojak,
- Gajdki i Stosa I,
- Gajdki i Stosa II,
- Hadasik I,
- Hadasik II,
- Hadasik III,
- Hadasik IV,
- Wierzby (M_W),
- Stępnia i Strąka I,
- Stępnia i Strąka II,
- Stępnia i Strąka III,
- Stępnia i Strąka IV,
- Hołdy (M_H),
- INE PAN (Mączyńskiej i Zawadzkiego) I (PAN-A),
- INE PAN (Mączyńskiej i Zawadzkiego) II (PAN-B),
- INE PAN (Mączyńskiej i Zawadzkiego) III (PAN-C),
- INE PAN (Mączyńskiej i Zawadzkiego) IV (PAN-D),
- INE PAN (Mączyńskiej i Zawadzkiego) V (PAN-E),
- INE PAN (Mączyńskiej i Zawadzkiego) VI (PAN-F),
- INE PAN (Mączyńskiej i Zawadzkiego) VII (PAN-G),
- Appenzeller i Szarzec I,
- Appenzeller i Szarzec II,
- Poznański (M_P),
- Prusaka I (M_P1),
- Prusaka II (M_P2),
- Prusaka IV,
- Juszczyka.

Te modele, które się powtórzyły, zaznaczyłem w nawiasie. Modele Gajdki i Stosa występowały wcześniej, ale miały inną postać, więc ich nie zaznaczałem. Zbiorcze wyniki prezentuje Tabela 4:

Tabela 4
Źródło: Balina, R. i Bąk, J. M. [2016]

gdzie:
SP0 -  globalny procent poprawnych klasyfikacji,
SP1 - procent poprawnych identyfikacji bankrutów
SP2 - procent poprawnych identyfikacji nie-bankrutów

Bez podziału na branże najwyższym poziomem sprawności ogólnej (SP0 = 75,8%) charakteryzowały się trzy modele: poznański, INE PAN VII oraz Stępnia i Strąka II. Czwarte miejsce zajął model
Prusaka I z odsetkiem poprawnych wskazań na poziomie 74,2%. Z punktu widzenia oceny samych bankrutów dobrze poradziły sobie modele INE PAN.

W branży spożywczej najwyżej uplasował się model Prusaka I i model INE PAN III (oba SP0 = 82,5%). Potwierdza to wcześniej postawioną tezę, że model Prusaka lepiej się sprawdza w tym obszarze. Ciekawe jest też porównanie SP1 i SP2 obu modeli. O ile model Prusaka lepiej oceniał zdrowe firmy (odpowiednio SP1 = 75% i SP2 = 90%), o tyle INE PAN III na odwrót (SP1 = 95%, SP2 = 70%). Sugeruje to, że dobrym pomysłem jest połączenie obydwu modeli dla przedsiębiorstw branży spożywczej.

W branży budowlanej pierwsze miejsce przypadło modelowi Stępnia i Strąka II (SP0 = 80%), a drugie INE PAN VII (SP0 = 75,5%). Również w tym przypadku modele działają jakby wymiennie: Stępnia i Strąka II lepiej ocenia firmy zdrowe (SP1 = 70%, SP2 = 90%), a INE PAN VII więcej wychwytuje bankrutów (SP1 = 80%, SP2 = 75%). Czyli znów zwiększymy szanse predykcji posługując się jednocześnie dwoma modelami w budowlance.

"Faworytem" branży transportowej towarów okazał się model Hadasik IV (SP0 = 82,5%) i Hadasik III (SP0 = 80%). Generalnie Hadasik III można w tej gałęzi uznać za najlepszy, bo poprawnie wykrywał bankrutów na 80% (SP1 = 80%) i tak samo nie-bankrutów (SP2 = 80%). Nawet jednak tutaj INE PAN VII poradził sobie niewiele gorzej (SP0 = 77,5%, SP1 = 70%, SP2 = 85%).

4. Zielińska-Sitkiewicz, M. [2016]: to krótka meta-analiza wybranych przedsiębiorstw branży spożywczej. Przetestowano 3 modele:
- model "poznański" (Z_HCP lub M_P)
- model Prusaka II (Z_BP2 lub M_P2)
- INE PAN 7 (PAN-G).

Wyniki Z_HCP:
Tabela 5

Źródło: Zielińska-Sitkiewicz, M. [2016]

Wyniki Z_BP2:

Tabela 6
Źródło: Zielińska-Sitkiewicz, M. [2016]


Wyniki INE PAN 7:

Tabela 7
Źródło: Zielińska-Sitkiewicz, M. [2016]


Model Z_HCP wskazał na zagrożenie upadłością dla spółek: Duda SA (2009), Jago SA (2011) oraz Wilbo SA (2012).
Zastanawiające dane przyniósł BP_2. Chociaż wskazywał wiele zagrożeń: Makarony Polskie SA (2008), Mispol SA (2011), Pamapol SA (2008), Pepees SA (2008, 2009 i 2014) oraz Wilbo SA (2012), to nie przewidział problemów Jago, która upadła w 2012. Zarówno Z_HCP jak i INE PAN 7 sygnalizowały zagrożenia w Jago, a ten ostatni ocenił wysokie ryzyko bankructwa już w 2010.
INE PAN 7 również szybciej i bardziej konsekwentnie w kolejnych latach wychwycił kłopoty Wilbo. Z drugiej strony, jak czytamy w artykule "W 2008 r. spółka Makarony Polskie SA, zidentyfikowana przez ZBP2, miała problem z pokryciem kosztów finansowych i odnotowała stratę netto w kwocie 2,78 mln zł. (...) Ponadto Pepees SA charakteryzowały: bardzo wysokie koszty własne sprzedaży, nieefektywne gospodarowanie aktywami oraz straty z działalności finansowej, rejestrowane
w całym badanym okresie." Te mankamenty nie znalazły odzwierciedlenia w INE PAN 7.

Tak więc ponownie potwierdza się teza, że należy stosować co najmniej dwa wskaźniki, a także że INE_PAN 7 i Z_BP2 uzupełniają się i wzmacniają w ratingu spółek branży spożywczej.

5. Pawłowski, S [2018]: Dla osób inwestujących w obligacje korporacyjne, praca ta może mieć szczególne znaczenie, chociaż analizuje ona bardzo małą liczbę obserwacji. Jest to ostatnia lub jedna z ostatnich meta-analiz dyskryminacyjnych na przykładzie 5 przedsiębiorstw reprezentujących emitentów obligacji korporacyjnych, a więc notowanych na rynku Catalyst, które w ostatnich latach upadły: e-Kancelaria, GC Investment, Kopahaus, PCZ, Uboat-Line SA.  Ponownie zostały sprawdzone takie polskie modele jak: Hadasik, Mączyńskiej i Zawadzkiego, Wierzby, poznański i Prusaka I. Najwyżej spośród nich został oceniony model Prusaka I:

Tabela 8
Źródło: Pawłowski, S [2018]


Podsumowanie i wnioski: 
Patrząc całościowo na plan pierwszy wysuwają się modele:
- Mączyńskiej-Zawadzkiego, a dokładniej 2 z nich: PAN-G, czyli nr 7 oraz PAN-F, czyli nr 6,
- Prusaka.

W branży spożywczej na pierwsze miejsce wybijają się modele Prusaka, ale warto je też połączyć z PAN-G. W branży budowlanej można połączyć modele Stępnia i Strąka II z PAN-G. W branży transportowej Hadasik III i znów PAN-G.

Przedstawię teraz bliżej te modele.

A) Modele Mączyńskiej-Zawadzkiego
W artykule Analiza dyskryminacyjna. Przykład dla Getin
 podałem wszystkie 7 modeli Mączyńskiej-Zawadzkiego [4]. PAN-F ma postać:

PAN-F = 9,48*WO/A + 3,61*KW/A + 3,25*(WN+AM)/Z + 0,46*MO/ZKT + 0,8*P/A - 2,48

gdzie zmienne zostały opisane w Tabeli 9:

Tabela 9


Analogicznie PAN-G ma postać:

PAN-G = 9,5*WO/A + 3,57*KW/A + 2,9*(WN+AM)/Z + 0,45*MO/ZKT - 1,5

Czyli PAN-G jest bardzo zbliżony do PAN-F, różniąc się brakiem zmiennej P/A.

Punkt graniczny w klasyfikacji bankrutów i niebankrutów = 0.

B) Modele Prusaka:
Natomiast modele Prusaka są następujące:
Prusaka I:
M_P1 = –1,5685 + 6,5245 X1 + 0,148 X2 + 0,4061 X3 + 2,1754 X4

gdzie:
X1 - zysk operacyjny/suma bilansowa,
X2 - koszty operacyjne/zobowiązania krótkoterminowe,
X3 - aktywa obrotowe/zobowiązania krótkoterminowe,
X4 - zysk operacyjny/przychody ze sprzedaży.

Granice ratingu:
M_P1 > 0,65 , przedsiębiorstwo nie zagrożone upadłością,
M_P1 < -0,13 , przedsiębiorstwo zagrożone upadłością w perspektywie jednego
roku,
M_P1 < -0.13, 0.65 > , brak możliwości oceny kondycji przedsiębiorstwa bez pogłębionej analizy.


Prusaka II:
M_P2 = –1,8713 + 1,4383 X1 + 0,1878 X2 + 5,0229 X3

gdzie:
X1 - (zysk netto + amortyzacja)/zobowiązania ogółem,
X2 - koszty operacyjne/zobowiązania krótkoterminowe,
X3 - zysk ze sprzedaży/suma bilansowa

Granice ratingu:
M_P2 > 0,2 , przedsiębiorstwo nie zagrożone upadłością,
M_P2 < -0,7,  przedsiębiorstwo zagrożone upadłością w perspektywie dwóch lat,
M_P2 < -0.7, 0.2 > , brak możliwości oceny kondycji przedsiębiorstwa bez pogłębionej analizy


C) Dodatkowo - dla branży budowlanej można wziąć model Stępnia i Strąka II:

M_SS2 = 4,27X1 + 2,00X2 – 7,78X3 + 5,83

gdzie:
X1 = Wynik z działalności gospodarczej / Suma aktywów,
X2 = Kapitał pracujący / Suma aktywów,
X3 = Kapitał obcy / Suma aktywów

Granice ratingu:
M_SS2 > 0,5 , brak zagrożenia bankructwem,
M_SS2 <= 0,5 , wysokie prawdopodobieństwo bankructwa.

D) Dodatkowo - dla branży transportowej można wziąć model Hadasik III: 

M_H3 = -2,40435 X1 + 0,00230258 X2 – 0,0127826 X3 + 0,365425 X4 – 0,765526 X5 + 1,59079 X6
+ 2,36261

gdzie:
X1 = Zobowiązania ogółem / Suma bilansowa,
X2 = Należności*365 / Przychody ze sprzedaży,
X3 = Zapasy*365 / Przychody ze sprzedaży,
X4 = Majątek obrotowy / Zobowiązania krótkoterminowe,
X5 = (Majątek obrotowy – Zapasy) / Zobowiązania krótkoterminowe

X6 = (Majątek obrotowy – Zobowiązania krótkoterminowe) / Suma aktywów


Granice ratingu:
M_H3 > -0,374 , brak zagrożenia
M_H3 < -0,374 , istnieje zagrożenie.


Literatura:
[1] Antonowicz, P., Szreder, P., Spektakularne upadłości przedsiębiorstw FMCG w Polsce w 2012 r. na przykładzie wybranych podmiotów Grupy Kapitałowej BOMI S.A., 2013;
[2] Balina, R., Bąk, J. M., Analiza dyskryminacyjna jako metoda predykcji bankructwa przedsiębiorstwz uwzględnieniem aspektów branżowych, Waleńczów 2016;
[3] Kisielińska, J., Waszkowski, A., Polskie modele do prognozowania bankructwa przedsiębiorstw i ich weryfikacja, 2010,
[4] Mączyńska, E., Zawadzki, M., Dyskryminacyjne Modele Predykcji Bankructwa Przedsiębiorstw, 2006;
[5] Pawłowski, M., Modele dyskryminacyjne w ocenie ryzyka upadłości emitenta obligacji korporacyjnych, 2018;
[6] Zielińska-Sitkiewicz, M., Zastosowanie metod wielowymiarowej analizy dyskryminacyjnej do prognozowania upadłości wybranych spółek sektora spożywczego, 2016.

niedziela, 9 września 2018

Analiza dyskryminacyjna dla banków. Getin jednak bezpieczny?

W artykule na temat analizy dyskryminacyjnej wśród jej wad wymieniłem arbitralne ustalenie wielkości parametrów. Bo chociaż ustalamy je za pomocą regresji liniowej, to wyniki będą zależne od danych historycznych i przekrojowych. Dla rynku polskiego podałem model dyskryminacyjny Mączyńskiej-Zawadzkiego, który jednak został utworzony, a przez to też przeznaczony, dla firm produkcyjnych, usługowych i handlowych. Posłużyłem się nim do oceny Getinu, jednak ostatecznie stwierdziłem, że nie będzie prawidłowym modelem dla banków.

Model, który mógł posłużyć do analizy spółki o profilu finansowym, był za to model EM Altmana. Model ten został przystosowany do oceny zagrożenia firm na rynkach rozwijających się i jednocześnie także nieprodukcyjnych. Zastosowanie go dla Getinu wydawało się idealne, bo działa on właśnie w krajach rozwijających się (Polska, Rosja, Białoruś, Ukraina, Rumunia). Otrzymałem rating B-, co oznaczałoby, że bank znajduje się w górnym paśmie strefy zagrożenia (strefa ta znajduje się pomiędzy D a B).

Model EM Altmana jest dość trudny do zastosowania, gdy weźmiemy pod uwagę korekty, jakich należy dokonać już po uzyskaniu parametrów i ratingu. Ja w swoich obliczeniach dokonałem sporego uproszczenia dla przyspieszenia rachunków, co może prowadzić do zniekształceń prawidłowej oceny zagrożenia. Zaleta tego modelu, czyli ogólność, to także jego wada: firma może być produkcyjna i nieprodukcyjna, tj. usługowa, handlowa lub instytucja finansowa i ubezpieczeniowa.

Wśród polskich publikacji możemy znaleźć analizę dyskryminacyjną wykonaną, a więc i przeznaczoną, tylko dla banków. T. Siudek [1] przestudiował kondycję finansową 1551 banków spółdzielczych w Polsce w latach 1995-2002. Uzyskał następujący model:

 Z = 0,0399 X1 - 0,11592 X2 - 0,206739 X3 + 0,022422 X4 - 0,332494

gdzie:
X1 - Wskaźnik rentowności kapitałów własnych, ROE
X2 - Wskaźnik udziału majątku i inwestycji kapitałowych w aktywach netto
X3 - Wskaźnik udziału kapitału pracującego w aktywach netto
X4 - Wskaźnik udziału kredytów netto w aktywach netto

Wartością progową jest 0. Wartość powyżej 0 oznacza niewypłacalność banku, a poniżej 0 - wypłacalność. Autor uznał bank za niewypłacalny, jeśli wskaźnik wypłacalności był niższy od 8%. Poziom ten został dobrany właściwie, bo właśnie 8% to minimalny poziom, jakiego wymaga polskie prawo bankowe. Czyli - to trzeba podkreślić - ta analiza nie ma na celu przewidywać bankructwa, tylko zagrożenie, że wskaźnik wypłacalności będzie zbyt niski. Jest to oczywiście pośrednie badanie prawdopodobieństwa bankructwa, ale nie jest ono tożsame z szacowaniem zagrożenia bankructwem.

Trafność klasyfikacji banków do grupy wypłacalnych i niewypłacalnych za pomocą funkcji dyskryminacji przedstawia tabela:

Źródło: Siudek, T. [2005]


Aby ocenić trafność funkcji dyskryminacyjnej Siudka możemy zacząć od pytania czy model prognozuje zagrożenie czy nie, a następnie porównać ten wynik z rzeczywistością (tj. czy rzeczywiście wskaźnik wypłacalności spadł poniżej 8%). I tak:
* model prognozował poprawnie zagrożenie na 78,17% (czyli niepoprawnie na 21,83%)
* model prognozował poprawnie brak zagrożenia na 91,49% (czyli niepoprawnie na 8,51%).

Oznacza to, że model miał wysoką trafność i możemy spróbować go zastosować do oceny wypłacalności banków.

Dodatkowo możemy zobaczyć jak kształtowały się średnie wielkości zmiennych na wykonanej próbie banków wypłacalnych i niewypłacalnych:

Źródło: Siudek, T. [2005]

Zauważmy, że zmienna X2 jest bardzo zbliżona w obu grupach - zmienna ta okazała się nieistotna statystycznie.
Średnia wartość funkcji Z banków wypłacalnych wyniosła -0,28, a niewypłacalnych 2,08.


Przykład:
Grupa Kapitałowa Getin Holding S.A.
Powtórzmy test dla GTN - także na 31.03.2018, dla danych rocznych (zaanualizowanych).

X1 = ROE = 282 955 / 3 199 924 = 8,84%.

Druga zmienna X2 nie została niestety jasno zdefiniowana. Majątek to przecież aktywa, a inwestycje kapitałowe należą do aktywów. Na szczęście jak pamiętamy zmienna ta jest nieistotna. Dlatego przyjmę po prostu średnią wielkość 5,21%, co nie wpłynie na ocenę banku:
X2 = 5,21%

 X3 = kapitał pracujący / kapitał własny = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = (25 288 888 - 23 492 963)/3 199 924 = 56,1%

Zmienna X4 także nie została dobrze zdefiniowana, ponieważ nie wiem co znaczą "kredyty netto". Możemy się spotkać z określeniem dług netto. Są to zobowiązania oprocentowane - (środki pieniężne + ekwiwalenty).

Za zobowiązania oprocentowane powinienem przyjąć kredyty, pożyczki, obligacje, leasing. Rozciągam więc tu definicję kredytów do obligacji i leasingu, bo nie ma powodu, by traktować te instrumenty oddzielnie.

X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / kapitał własny = (1 445 112 - 635 874 - 348 312) / 3 199 924 = 14,4%.

Podstawiamy:

Z =  0,0399*8,84% - 0,11592*5,21% - 0,206739*56,1% + 0,022422*14,4% - 0,332494 = -0,45.

Ujemny wynik wskazywałby, że GTN nie ma żadnych problemów z wypłacalnością, nie jest zagrożony.

Zrobię teraz pewne korekty. Zwróćmy uwagę, że zobowiązania oprocentowane to także zobowiązania wobec klientów. Gdybyśmy je dodali, wtedy ostatnia zmienna drastycznie się zmieni:

X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania wobec klientów + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / kapitał własny = (1 445 112 + 20 268 951 - 635 874 - 348 312) / 3 199 924 = 647,8%.

Z =  0,0399*8,84% - 0,11592*5,21% - 0,206739*56,1% + 0,022422*647,8% - 0,332494 = -0,31.

Zatem nadal GTN pozostaje niezagrożony i co więcej trzyma się średniego poziomu Z dla grupy banków wypłacalnych.

Drugą korektą, jaką warto przeprowadzić, jest zamiana zysku netto na dochód całkowity. Banki spółdzielcze są bankami lokalnymi, które, jak sądzę, nie rozdzielają zysków od dochodów. W przypadku dużych firm prowadzących rachunkowość zgodnie z MSR to rozdzielenie staje się konieczne. O różnicach między zyskami a dochodami nie piszę, bo w internecie jest masa o tym informacji. Zasygnalizuję tylko, że w tym przypadku kapitał własny spółki nie jest wcale zwiększany o zysk netto, ale właśnie o dochód całkowity, co dowodzi, że to właśnie ten drugi jest najbardziej istotny. Dlaczego więc zysk netto nadal pozostaje ważny w analizie i jest podkreślany? Wadą dochodu całkowitego jest jego zmienność w czasie, przez co spoglądanie tylko przez jego pryzmat bywa krótkowzroczne. Zysk netto pozostaje bardziej stabilny w kolejnych latach, przez co łatwiej prognozowalny (zob. [2]). Z drugiej strony dochód całkowity szybciej poinformuje nas, gdy spółka wpadnie w kłopoty finansowe. Dlatego to krótkoterminowe spojrzenie będzie tutaj miało większe znaczenie.
Stąd pierwsza zmienna przyjmie wartość:

X1 = ROE = 208 490 / 3 199 924 = 6,5%.

Dostaniemy:

Z =  0,0399*6,5% - 0,11592*5,21% - 0,206739*56,1% + 0,022422*647,8% - 0,332494 = -0,31.

Poziom Z się nie zmienił, czyli GTN pozostaje ciągle bezpieczny.

Głębsze spojrzenie na niektóre pozycje aktywów może znów zmienić rezultat. W aktywach bieżących umieściłem bowiem należności od klientów. Trudno jednak zakładać, że wszystkie te należności są krótkookresowe: jest to wielka kwota ponad 17 mld zł. Getin w swoim sprawozdaniu niestety nie rozdziela aktywów na krótko- i długoterminowe, ale są one ułożone od najbardziej płynnych do coraz mniej płynnych. Na pewnej pozycji pojawiają się wartości niematerialne i prawne, które należy uznać za początek listy aktywów trwałych. Należności od klientów znajdują na wyższej pozycji, co sugeruje ich krótkoterminowość. Brak formalnego podziału na aktywa trwałe i obrotowe wymusza od nas pewnych uproszczeń. Dlatego pozycję należności od klientów podzielę na 2, aby uzyskać bardziej obiektywną miarę bieżących należności. Aby zachować sprawiedliwy podział, to jednocześnie podzielę na dwa zobowiązania wobec klientów. Wtedy:

X3 = kapitał pracujący / kapitał własny = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = (16 591 838,5 - 13 358 487,5) / 3 199 924 = 101%.

Otrzymamy:
Z = 0,0399*8,84% - 0,11592*5,21% - 0,206739*101% + 0,022422*647,8% - 0,332494 = -0,41.

Z tego punktu widzenia wypłacalność GTN nawet się poprawiła.

Jeśli spojrzymy na tę analizę krytycznie, to zauważymy, że posiada jedną niedoskonałość. Banki spółdzielcze w badaniu Siudka to były faktycznie banki, natomiast Getin Holding to zdecydowanie więcej niż bank: to cała instytucja finansowa, której działalność obejmują usługi bankowe, leasingowe, windykacyjne i inne finansowe. Dlatego przeprowadzę jeszcze ten sam test dla Idea Bank, który stanowi ważny element GTN.


Idea Bank SA.
Kurs akcji także potężnie spadł i znajduje na skrajnie niskich poziomach (C/WK = 0,12 !!!), co może wywołać przeświadczenie, że spółkę czeka bankructwo. Wartości w tys zł. Podobnie jak dla GTN dane pochodzą z bilansu na 31.03.2018, a rachunek wyników zaanualizowałem ze sprawozdań (1kw 2018 - 1kw 2017 + cały rok 2017). Tym razem jednak od razu ujmę dochody całkowite, a nie zysk netto.

Całkowite dochody = 14 193 - 64 343 + 281 261 = 231 111
Kapitał własny = 2 437 170

X1 = ROE = 231 111 / 2 437 170 = 9,5%

Zmienna X2 była, jak już wiemy, nieistotna statystycznie, więc przyjmuję na poziomie średniej:
X2 = 5,21%

Aktywa Obrotowe = 21 490 287
Zobowiązania Bieżące = 20 674 598

X3 = kapitał pracujący / kapitał własny = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = (21490287 - 20674598) / 2437170 = 33,5%

X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania wobec klientów + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / kapitał własny = (907 406 + 17 986 283 + 521 679 - 221 818 - 151 362) / 2 437 170 = 781,3%.

Podstawiamy:
 Z = 0,0399*9,5% - 0,11592*5,21% - 0,206739*33,5% + 0,022422*781,3% - 0,332494 = -0,23.

Powyższa analiza wskazywałaby, że Idea Bank nie ma problemów z wypłacalnością.

Zróbmy jeszcze dla Idei tę samą ostatnią korektę co dla GTN, czyli uwzględnimy tylko połowę należności wobec klientów oraz połowę zobowiązań wobec klientów. Wtedy trzecia zmienna równa się:

X3 = kapitał pracujący / kapitał własny = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = (13 297 127 - 11 681 456,5) / 2437170 = 66,3%

Podstawiamy:
Z = 0,0399*9,5% - 0,11592*5,21% - 0,206739*66,3% + 0,022422*781,3% - 0,332494 = -0,3.
W sumie wskaźnik poprawił się tak samo jak dla holdingu.

Dla porównania tych wyników z rynkiem, sprawdziłem dodatkowo GNB, mBank, PKO BP oraz ING BŚ. Ten sam zakres na 1 kw. 2018 na danych zannualizowanych. 

Getin Noble Bank:
X1a = Wynik netto / kapitał własny = -14,4%.
X1b = Dochód całkowity / kapitał własny = -12,3%.
X2 - analogicznie jak w poprzednich przykładach, bierzemy średnią dla wypłacalnych i niewypłacalnych:
X2 = 5,21%
X3 = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = 43,86%
X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania wobec klientów + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / Kapitał własny =1400%.

Z(a) = 0,0399 *X1a - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,121.

Z(b) = 0,0399 *X1b - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,12.

Analiza ta wskazuje, że GNB jest niebezpiecznie blisko 0, co rodzi pewne ryzyko niewypłacalności. Możemy pospekulować, że zejście Z do zera, będzie oznaczać rating CCC, a potem z każdym kolejnym wzrostem coraz bliżej D. Dopóki GNB nie zejdzie do samego zera, twierdzenie, że Getin Noble to bankrut, jest przesadą i na obecną chwilę bank nie ma problemów z pokryciem zobowiązań.

Mbank:
X1a = ROE = zysk netto / kapitał własny = 1287070 / 14484158 = 8,9%
X2 - analogicznie jak w poprzednich przykładach, bierzemy średnią dla wypłacalnych i niewypłacalnych:
X2 = 5,21%
X3 = (Aktywa Obrotowe – Zobowiązania Bieżące)/kapitał własny = (130813879 - 116289638) / 14484158 = 100,3%
X4 = (Zobowiązania wobec innych banków i instytucji finansowych + Zobowiązania wobec klientów + Zobowiązania z tytułu emisji dłużnych papierów wartościowych - Kasa, środki w Banku Centralnym - Należności od banków i instytucji finansowych) / Kapitał własny = (115355334-5354319) / 14484158 = 759,5%.

Z(a) = 0,0399 *X1a - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,372

Analogicznie sprawdzimy ten model dla
X1b = Dochód całkowity / kapitał własny = 1460332 / 14484158 =10%.

Z(b) = 0,0399 *X1b - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,371.

Tak więc mbank ma porównywalny Z-score do GTN, co sugeruje, że charakteryzuje się podobnym stopniem wypłacalności.


PKO BP:
X1a = zysk netto / kapitał własny = 8,2%
X1b = dochód całkowity / kapitał własny = 9,7%.

X2 = 5,21%
X3 = 163,8%
X4 = 620,4%.

Z(a) = 0,0399 *X1a - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,535
Z(b) = 0,0399 *X1b - 0,11592 *X2 - 0,206739 *X3 + 0,022422*X4 - 0,332494 = -0,534

Widać, że PKO mocno trzyma w ryzach wskaźniki płynności i daleko mu do zagrożenia. Prawdopodobnie wynika to z bardziej konserwatywnej strategii rozwoju tego banku.


ING Bank Śląsk:
Dochód całkowity jest zbliżony do zysku netto i Z-score jest niemal identyczny w obu wariantach, stąd podaję tylko wersję Z(b):
X1 = 12,6%
X2 = 5,21%
X3 = 106,1%
X4 = 897,6%

Z = -0,352.

W przypadku ING należy zwrócić na jeden aspekt. Wysoki poziom ROE 12,6% (w wersji X1a  11,8%) przyczynia się do wysokiego poziomu C/WK, który obecnie wynosi niemal dwukrotność kapitału własnego. Natomiast z punktu widzenia wypłacalności, bank jest przeciętny. Poziom -0,35 jest podobny zarówno do GTN jak i MBK.

Biorąc pod uwagę, że MBK i PKO mają rentowności podobne do GTN, a MBK  i ING mają także Z-score podobny do GTN, trudno racjonalnie wytłumaczyć tak głębokie, niekończące się spadki Getin Holdingu, nawet biorąc pod uwagę słabsze wskaźniki Idei i powiązanego z nimi Getin Noble.

Podsumowując, dokładniejsza analiza dyskryminacji wydaje się odrzucać ryzyko niewypłacalności Getinu. Na pewno jest to optymistyczna wiadomość dla posiadaczy akcji GTN i Idea Bank. Pamiętać trzeba jednak, że nie jest to pełna analiza zagrożenia upadłością. Nie jest też to jedyna metoda służąca do oceny tego zagrożenia.


Literatura:
[1] Siudek, T., Prognozowanie Upadłości Banków Spółdzielczych w Polsce przy Użyciu Analizy Dyskryminacyjnej, 2005;
[2] Sajnóg, A., Analiza komparatywna wartości dochodu całkowitego i zysku netto w perspektywie corporate governance, 2014.