niedziela, 15 grudnia 2019

Inwestor czy frajer?

"Giełda to pasożytniczy cyrk i zakrojone na ogromną skalę dojenie naiwnych. Zarabia tu finansjera i korporacje, a tracą indywidualni gracze." - tak się zaczyna artykuł Jacka Chołoniewskiego, zatytułowany Grasz na giełdzie? Oto, dlaczego jesteś frajerem . Można się zgodzić z tezami autora bądź  nie, ale osobom, które zasmakowały giełdy, trudno pozostać obojętnym wobec tekstu. Znajdziemy w nim sporo mocnych sformułowań, ale mnie jedno zdanie szczególnie uderzyło:
„Inwestowanie” na giełdzie z realnym inwestowaniem nie ma jednak nic wspólnego.

Autor podaje przykład "prawdziwego" inwestowania, jak kupno roweru, aby rozwozić pizzę. I to właśnie w tym miejscu staje się jasne, że Chołoniewski nie jest ekspertem od finansów (jest zresztą doktorem fizyki), a jego wiedza jest czysto dziennikarska, pobieżna. Myli on bowiem inwestowanie w aktywa niefinansowe (materialne, niematerialne) z inwestowaniem w instrumenty finansowe. Pierwszy rodzaj inwestowania zależy od nas samych - jak wykorzystamy dane aktywo do osiągnięcia przychodu. Natomiast inwestowanie w papiery wartościowe nawet po najlepszej dywersyfikacji zawsze będzie wiązało się z ryzykiem i niepewnością, gdyż nie mamy wpływu czy wiedzy na temat wykorzystania aktywów do osiągnięcia zaplanowanego przychodu. Nawet jeśli mowa o dużym akcjonariuszu, który może swobodnie zmieniać zarząd i posiada sporą wiedzę o funkcjonowaniu firmy, nie będzie w stanie kontrolować wszystkiego w przedsiębiorstwie. Przykład z rowerem to tak jakby analizować czy jedna śrubka w maszynie jest dobrze przykręcona. Inwestowanie w akcje oznacza, że trzeba by kontrolować całą maszynę. To jest podstawowa różnica, której Chołoniewski nie zauważa.

Ktoś mógłby zwrócić uwagę, że biznes z dostarczaniem pizzy również wiąże się z ryzykiem. Oczywiście, ale należy odróżnić czynniki wewnętrzne (użytkowanie roweru, wybór rodzaju pizzy, rozwożenie na czas itp.), które my sami kontrolujemy od zewnętrznych (otoczenie). W przypadku inwestowania w akcje występują tylko albo głównie czynniki zewnętrzne.

Tak na marginesie: moją nieufność do autora wzbudziła także schematyczna fraza, jakiego używa często prawica, w celu rozbudzenia negatywnych emocji, a mianowicie zwrot działanie na szkodę Polek i Polaków, jakby nie można było powiedzieć krótko Polaków. Nikt nie mówi o Amerykanach i Amerykankach albo Francuzach i Francuzkach. 

Pisząc ten artykuł wcale nie miałem na celu krytykować artykuł prawicowego przecież portalu, dlatego poprzestanę na tym co wyżej (inną krytykę można znaleźć tutaj). Miał on być tylko punktem wyjścia do głębszego spojrzenia na różnicę między inwestorem a spekulantem. Chociaż inwestor najczęściej kojarzony jest z analizą fundamentalną i wyceną, to jednak - po dłuższym przemyśleniu - doszedłem do wniosku, że rzeczywistość powinna zmuszać inwestora do zadania sobie pytania podstawowego: po co firma emituje akcje? Normalnie naturalnym sposobem na zdobycie kapitału jest dług. Firma płaci od niego odsetki (czy okresowo, czy po latach), powstaje dochód brutto i od niego płaci podatek dochodowy. Jeżeli jest to spółka osobowa (np. komandytowa), to jest to jednocześnie dochód osobisty, a zatem właściciel już nie płaci od niego podatku; jest tylko raz opodatkowany. Gdyby to była spółka kapitałowa, to jako akcjonariusz byłby podwójnie opodatkowany: raz dochód brutto, a następnie dywidenda. Można powiedzieć, że nagrodą za większą odpowiedzialność za zobowiązania spółki, staje się brak podatku.

Spójrzmy dalej. Wierzyciele, którzy otrzymali też zysk kapitałowy w postaci odsetek płacą PIT. Ich dochód także jest opodatkowany jednorazowo. Gdyby jednak wierzycieli zastąpić akcjonariuszami (obligacje lub kredyty akcjami), to zysk w postaci dywidend byłby niższy od zysku wierzycieli, dlatego że jest on podwójnie opodatkowany, tzn. jest przemnożony przez czynnik (1-CIT)*(1-PIT).

Ktoś mógłby powiedzieć, że spółka po prostu powinna nie płacić dywidend, tylko utworzyć coś w rodzaju funduszu dywidendowego, który będzie je lokował np. w bezpieczne obligacje czy lokaty. W ten sposób wartość akcji będzie ciągle rosła. Niestety to nie jest żadne rozwiązanie, bo inwestor kiedyś sprzeda akcje, a od zysku kapitałowego już zapłaci PIT (powiększony o wszelkie narosłe korzyści). Zyski zatrzymane są zatem tak samo opodatkowane jak dywidendy.

Wydaje się więc, ze przedsiębiorstwu, które poważnie traktuje swoją misję, nie opłaca się emitować akcji, nie opłaca się być spółką kapitałową, a jedynie osobową, a jedynym kapitałem powinny być zobowiązania.

Z tego punktu widzenia krytycy inwestowania na giełdzie mają rację - to szulernia mająca na celu dojenie frajerów. Bo skoro spółka nie wybiera korzystniejszego rozwiązania w postaci kredytu czy nawet obligacji, to coś jest na rzeczy.

Czy w takim razie nie ma sensu inwestować na rynku akcji? Otóż sens jest tylko wtedy, jeśli na rynku finansowym nie istnieją instrumenty, które pozwalałyby nie spłacać kapitału w ciągu np. 4-5 lat. Zazwyczaj inwestor akcyjny wymaga właśnie, aby po 4-5 latach inwestycja zaczęła mu się stopniowo zwracać. Z jednej strony zaletą akcjonariuszy jest ich elastyczność, tzn. umożliwiają przesunięcie wypłat dywidend lub ich zmniejszenie. Z drugiej strony ciągłe opóźnianie i przesuwanie terminów zmieni ową elastyczność w realizację ryzyka (negatywnego scenariusza).

Istotny aspekt, na który zwróciłbym uwagę to wiek firmy. Jeśli firma jest młoda, a więc jej przyszłość niejasna, to będzie jej trudniej zdobyć kapitał dłużny. Natomiast jeśli by odpowiednio zdyskontowała wartość rynkową kapitału własnego, to mogłaby mieć większe szanse dostać się na rynek akcji - i wydaje się to całkiem sensowne. Przede wszystkim zarząd powinien przedstawić potencjalnym inwestorom swój biznesplan i plan rozpoczęcia wypłat dywidend.

W sumie emisja akcji powinna być ostatecznością. Inwestor powinien tak właśnie patrzeć na akcje - jak na ostateczność. I wręcz szukać dziury w całym. I nie chodzi tu tylko o samą emisję, ale też utrzymywanie ich na parkiecie, jeśli dana inwestycja została zrealizowana. Brak odpowiedzialności, brak jakiejkolwiek pewności co do wypłaty dywidend czy rosnących zysków, podwójne opodatkowanie - to wszystko razem sprawia, że krytyka giełdy jest bardzo potrzebna, nawet jeśli przybiera karykaturalne kształty jak tekst Chołoniewskiego. W przeciwnym wypadku to co nazywamy "inwestycją" faktycznie będzie stanowić jedynie spekulację.

wtorek, 12 listopada 2019

Ostatnia fala Elliotta a filtr Butterwortha

Przypominam możliwy układ fal na WIG-u wg teorii Elliotta:


(zob. ten wpis). Od tamtego czasu rysunek niewiele się zmienił.

Połączmy to z jeszcze wcześniejszym tematem filtru Butterwortha - tutaj link. Od tego czasu można wykonać nową analizę. Stosując te same operacje, dla kwartalnej stopy zwrotu głównego indeksu od 1998 do września 2019, otrzymamy:


Trzy ostatnie fale pokrywają się z falami Elliotta. Ostatni dołek odbył się w lutym 2015. Średnia długość cyklu to nieco ponad 3 lata, zatem spodziewalibyśmy się, że filtr osiąga lub osiągnie wkrótce dołek. Nie oznacza to absolutnie dołka na samym WIG-u. Jeżeli jednak wierzymy Elliottowi, to powinniśmy nastawić się na długoterminowy trend spadkowy (kolejne dwie fale powinny być spadkowe). Z drugiej strony, jeśli spadki będą tak słabe jak wzrosty w ostatnich latach, to można wykorzystać okresy poprawy.

Co więcej, miesięczne stopy zwrotu z tego samego okresu sugerują wręcz wejście w fazę wzrostu. Dla częstości odcięcia 10 miesięcy (która nie odpowiada idealnie maksymalnej gęstości spektralnej, bo nie jest to konieczne, co zostało wyjaśnione w tym artykule) dostaniemy taki filtr:


Rysunek sugeruje, że listopad-styczeń standardowo nie będą złymi miesiącami.

niedziela, 3 listopada 2019

O ile poprawa rentowności podnosi wartość akcji?

Gdy porównujemy C/WK i C/Z polskich indeksów z amerykańskim S&P 500 możemy zauważyć, że dla tych pierwszych są one średnio sporo niższe. Obecnie różnica ta jest wyjątkowo duża: C/WK WIGu wynosi niecałe 1, WIG20 1,3, a S&P 500 3,5. Natomiast C/Z WIGu = 10,3, WIG20 14,3, a S&P 500 22,8. Przyczyną tej dysproporcji jest przede wszystkim znacznie wyższa rentowność spółek amerykańskich. Dzieląc C/WK przez C/Z otrzymamy ROE; dla USA wynosi 15,4%, a WIG 9,4% i WIG20 9,3%. Oczywiście wskaźniki amerykańskie prędzej czy później spadną, ale i tak będą systematycznie wyższe od naszych dopóki rentowność USA będzie wyższa.

Oto jak zachowywał się C/WK naszych 3 indeksów na przestrzeni lat:


Średnia geometryczna dla WIG20 = 1,4, WIG = 1,2, sWIG80 = 1,3. Dlaczego WIG ma niższe C/WK od reszty? Odpowiedź leży znów w ROE, który tak się kształtował w kolejnych latach:



Średnie ROE WIG20 = 10,6%, WIG = 8,5%, sWIG80 = 9,3%.

Nasuwa się oczywiście pytanie dlaczego WIG ma niższe ROE od reszty, a nie gdzieś po środku? Tego nie wiem. Problem ten zostawiam.

Możemy sprawdzić zależność pomiędzy ROE a C/WK. Najpierw przekształcam C/WK w logarytm. Badam korelację między ROE i ln(C/WK), a następnie wyznaczam regresję liniową:

ln(C/WK) = a + b*ROE + składnik losowy.

Analiza przeprowadzona została w gretlu.

1) WIG:

Korelacja 0,33. Regresja liniowa KMNK:


Mimo sporej korelacji model wskazuje na nieistotność stat. Prawdopodobnie wynika to z niestabilności modelu w czasie (CUSUM odrzuca stabilność). Słabą zależność ln(C/WK) względem ROE ilustruje rysunek:


Widać, że większa masa danych skupia się na braku zależności, dlatego odrzucamy model.

2) WIG20:

Korelacja = 0,41. Tutaj sytuacja jest o wiele lepsza.




Także CUSUMQ wskazuje na ogólną stabilność parametrów, chociaż występowały okresy niestabilności:




W ostatnich okresach parametry powróciły "na swoje miejsce". Możemy się pokusić o uproszczoną interpretację.

Interpretacja modelu: wzrost ROE o 1 pkt proc. podnosi średnio biorąc C/WK WIG20 o niecałe 4%. Wyjaśnienie: Dostaliśmy model empiryczny:

ln(C/WK) = -0,036 + 3,78*ROE.

Pochodna tego równania po ROE i w konsekwencji równanie różniczkowe daje postać:

d ln(C/WK) = 3,78*d ROE.

Jednostką ROE jest 1 pkt proc., więc zapisujemy:

d ln(C/WK) = 3,78*1% = 3,78%.

Zmiana ln(WK) stanowi logarytmiczną stopę zwrotu. Zwykłą stopę zwrotu otrzymamy jako e^0,0378 - 1 = 3,85%.

Niestety współczynnik determinacji to ledwo 16,1%.

3) sWIG80:

Korelacja = 0,36. KMNK:




Test stabilności CUSUMQ:

Podobnie jak przy WIG20 parametry zachowują się ostatnio stabilnie.

Interpretacja modelu: wzrost ROE o 1 pkt proc. podnosi średnio biorąc C/WK sWIG80 o niecałe 6%.

Trzeba oczywiście pamiętać, że ta interpretacja to bardzo duże uproszczenie. Chyba najlepszym dowodem na to jest skorygowany R-kwadrat, który wynosi tylko 12,2%.

niedziela, 27 października 2019

Średnia geometryczna i harmoniczna w analizie wskaźnikowej

Jedną z trudności analizy wskaźnikowej (w analizie fundamentalnej) jest to, że nie wiadomo jakiej użyć średniej do porównań. Jeśli w sektorze znajdują się obserwacje odstające, to średnia arytmetyczna (A) będzie zaniżać lub zawyżać porównawczy wskaźnik. Najbardziej znanym sposobem radzenia sobie z tym to zastosowanie mediany (M). Jednak wydaje się, że jest to błędna metoda. Mediana pokazuje jedynie środek przedziału, a nie to co chcielibyśmy uznać za punkt odniesienia. Powiedzmy, że mamy 5 spółek o takich wskaźnikach cena/zysk: 20, 20, 3, 3, 3. Mediana wynosi 3, a więc w ogóle nie uwzględnia występowania spółek o P/E = 20. Teraz odwróćmy sytuację: 20, 20, 20, 3, 3. Mediana nagle skacze do 20 tylko dlatego, że jedna spółka zmieniła wartość. W obu przypadkach lepszym rozwiązaniem byłoby użycie średniej arytmetycznej, która w pierwszym przykładzie daje 9,8, a w drugim 13,2. Gdyby jednak zaczęły występować wartości nietypowe, to znów M byłaby lepsza. Na przykład jeżeli w sektorze jest 11 spółek, a jednej z nich zdarzyło się jednorazowe wydarzenie, które sprawiło, że zysk na akcję = 0,01, to, ponieważ wiadomo, że nie ma to wpływu na przyszłe wyniki, rynkowa wycena akcji wynosi 100 zł. Wtedy (chwilowe) P/E = 10000. Pozostałych 10 spółek ma P/E na poziomie ok. 3. Wtedy M = 3, A = 911. Oczywiste, że zwykła średnia kompletnie nie nadaje się do analizy. 

Ani mediana, ani średnia arytmetyczna nie są dobrym rozwiązaniem.

Zamiast tych dwóch miar lepszym sposobem jest zastosowanie średniej geometrycznej (G). Dla pierwszego przykładu dałaby ona 6,4, a dla drugiego 9,4. Dla trzeciego przykładu z jedną obserwacją odstającą dostaniemy G = 6,27. Czyli średnia ta rzeczywiście pokonuje zarówno A jak i M.

Występują jednak sytuacje, gdy G staje się także wątpliwa. Przykład, w którym jedna spółka ma P/E 10 000 to rzadka sytuacja, ale już gdyby P/E równało się 100, nie byłoby w tym nic nadzwyczajnego. Weźmy więc taki przykład listy P/E: 100, 5, 5, 5, 4, 4, 4, 3, 3, 3. Tutaj G = 5,4, podczas gdy M = 4. Ponieważ 100 to wartość odstająca, to właściwa średnia powinna jak najmocniej usunąć jej wpływ. I choć geometryczna radzi sobie nie najgorzej, to mediana okazuje się tu lepsza. Jeżeli badamy spółkę o P/E = 5 z tego sektora, to analiza wskaźnikowa oparta o G powie, że spółka mieści się w dozwolonym obszarze, a oparta o M prawidłowo uzna, że spółka wykracza poza dozwolony obszar do inwestycji.

Wśród inwestorów mało znanym narzędziem jest średnia harmoniczna (H). To ona może okazać się rozwiązaniem w takich dylematach. H jest wrażliwsza od M, ale mniej wrażliwa od A i G - ta zaleta daje często przewagę nad pozostałymi. Dla wyżej podanego przykładu H = 4,24, czyli trochę więcej niż M. W podanym przykładzie nie ma to większego znaczenia, ale gdybyśmy dodali do listy jeszcze jedną spółkę o P/E = 100, to prawdopodobnie oczekiwalibyśmy, że sprawiedliwa miara delikatnie uwzględni wystąpienie tych skrajności, które się powtarzają. I wówczas H = 4,6, podczas gdy M nadal 4.

Niestety H nie jest złotym środkiem na wszystkie przypadki. Dla pierwszego przykładu wynosi ona 4,55, a dla drugiego 6,12. Oznacza to, że mniejsze wartości więcej ważą w tej średniej. Może być to atutem dla inwestora szukającego bezpiecznych inwestycji, które posiadają niski P/E. Można się pokusić o tezę, że:
- A służy inwestorowi skłonnemu do ryzyka,
- G inwestorowi obojętnemu wobec ryzyka,
- H inwestorowi z awersją do ryzyka.

Tak więc G jest bardziej obiektywna, a A i H subiektywne. Zwróćmy jednak uwagę, że w każdym z tych przykładów H była bardziej użyteczna od M. Ale nie zawsze tak będzie. H jest subiektywna w tym sensie, że penalizuje wysokie wartości, a niskie nagradza. Przez to jest nie tylko subiektywna, ale także nadwrażliwa w sytuacji, gdy występują wartości odstające na lewo - bliskie zera.

Porównajmy rzeczywiste dane z sektora elektro-przemysłowego:

Źródło: https://www.biznesradar.pl/

Można powiedzieć, że pierwsze 2 i ostatnia spółka z listy stanowią obserwacje odstające. Portal biznesradar uznaje medianę za benchmark, czyli M dla sektora wynosi 8,66. Ponadto G = 7,1; H = 2,1. Tak niska wartość H wynika z ostatniej wartości odstającej. Im mniejsza wartość, tym więcej waży, a przecież nie o to nam chodzi. Po usunięciu 0,14 H wzrasta do 5,7, podczas gdy M do 8,86 i G do 8,5. Jeśli zaś usuniemy dwie pierwsze wartości, H spada do 1,9, a M zaledwie do 8,53, z kolei G do 5,6. Za każdym razem M była tutaj lepsza od H. Za to G była dobrą alternatywą dla M.

Żeby sensownie użyć H, musimy usunąć lewostronne obserwacje odstające. Używając G możemy na wszelki wypadek usunąć lewo- i prawostronne obserwacje.

Strategię moglibyśmy oprzeć zarówno na G jak i H. Mój pomysł byłby następujący:
- obszar poniżej H to obszar relatywnie bezpieczny,
- obszar powyżej H i poniżej G - obszar neutralny,
- obszar powyżej G - ryzykowny.

Np. kupujemy akcje o P/E równym lub mniejszym od H (tutaj 5,7), a sprzedajemy gdy znajduje się w obszarze neutralnym (tj. poniżej 8,5) lub ryzykownym (powyżej 8,5), w zależności od naszej skłonności do ryzyka.

Wg tego sposobu mamy 7 spółek do wyboru, jeśli chodzi o kupno. Możemy ograniczyć tę listę po powtórzeniu całej operacji dla innego wskaźnika, np. ceny do zysku operacyjnego. Sektor prezentuje tabela:

Źródło: https://www.biznesradar.pl/


Tym razem M = 6,1, G = 5,6, H = 3,8. Zaletą P/EBIT jest to, że dane odstające są dużo rzadsze niż dla P/E, co widać na tym przykładzie, gdzie one nie występują. Dzięki temu P/EBIT charakteryzuje większa obiektywność i w dużym stopniu eliminuje konieczność eliminowania wartości nietypowych.

Użycie H na tym zestawie pozwoliło nam zmniejszyć liczbę potencjalnych spółek do kupna z 7 do 6.

Skoro zostało nam jeszcze 6 opcji, dokonajmy dalszego filtru. Użyjmy P/BV.

 Źródło: https://www.biznesradar.pl/

Wskaźnik ten jest o tyle ciekawy, że posiada już wewnętrzny punkt odniesienia, tj. P/BV = 1. Powyżej lub poniżej 1 może mieć trojakie znaczenie. Po pierwsze bilans zawiera dane zawsze opóźnione, a więc inwestorzy muszą szacować o ile rzeczywiście wartość księgowa różni się od wartości godziwej. Chodzi więc o zyski już realizowane, ale jeszcze nie wykazane w księgach. Po drugie P/BV > 1 może oznaczać, że spółka posiada większe aktywa niż to wskazuje wartość księgowa. Mogą to być zasoby intelektualne albo zdolności monopolistyczne nie uwzględnione w bilansie. Poniżej 1 na odwrót - złe zarządzanie czy niska reputacja, która generuje brak zaufania ze strony rynku. Po trzecie kapitał własny może odrywać się od ceny rynkowej poprzez ograniczenia legislacyjne dotyczące wyceny aktywów. Do 2002 r. w Polsce nie było podatków od dywidendy i zysków kapitałowych, tak że aktywa i kapitał własny były zatem wyceniane bez nich. Gdy nagle te podatki wprowadzono, nie pojawiła się zasada korekty kapitału własnego. Jednak wiele badań empirycznych dowiodło, że ceny akcji na świecie reagują spadkiem na te podatki, dlatego że teraz kupujący domagają się wyższych zwrotów, które skompensują nowe obciążenia.

Powyższa uwaga służy temu, żeby pokazać asymetrię między A i M na przykładzie P/BV. Otóż A = 1,16, a M = 0,85. Zupełnie zmienia się interpretacja rynkowego P/BV w zależności od użytej miary. Rodzi się tu pokusa, aby obydwie miary uśrednić, bo wtedy otrzymamy rzeczywiście punkt odniesienia, 1. Ale zamiast tego lepiej posłużyć się ponownie G, która równa się tutaj 1,02. Z kolei H wynosi 0,71.

Dodajemy nowy filtr dla kupna w postaci P/BV < 0,71. Okazuje się, że tylko 2 spośród wybranych 6 wcześniej spełniają to kryterium: JWW (JWW Invest SA) oraz PAT (Patentus SA). 

Oczywiście fakt, że P/BV jednej spółki jest dużo większe od innej nie oznacza, że ta pierwsza jest przewartościowana, bo może być tak, że tylko pierwsza zawiera zdolności monopolistyczne albo druga zawiera negatywne zdolności.

Aby dokonać wyboru między PAT a JWW możemy dokonać jeszcze większej restrykcji. W portalu biznesradar jest możliwość porównania tzw. P/BV Grahama, który różni się od zwykłego P/BV tym, że nie uwzględnia w wartości księgowej środków trwałych, które oczywiście są ważne (np. nieruchomości gruntowe), ale trudne do sprzedania. Trzeba też zauważyć, że środki trwałe wiążą się z większymi kosztami utrzymania niż aktywa obrotowe. Przez to wszystko ich wartość historyczna (cena nabycia) może odbiegać od rzeczywistej. 

P/BV Grahama można traktować jak wskaźnik ryzyka z punktem odniesienia = 0. BV Grahama odejmuje od aktywów obrotowych zobowiązania, a więc może stać się ujemna. Jeżeli całkowite zobowiązania miałyby zostać szybko spłacone, to jedynym zabezpieczeniem przed niewypłacalnością byłyby aktywa obrotowe. Dlatego te akcje z P/BV Grahama > 0 są znacznie bezpieczniejsze. Choć zaznaczyć trzeba, że użycie zobowiązań całkowitych to duża restrykcja.


Zastosowanie P/BV Grahama przynosi poniższa tabela:

Źródło: https://www.biznesradar.pl/

Mniejsza liczba spółek na liście wynika z tego, że pozostałe mają ujemne wskaźniki. M = 2,99, G = 4,67, H = 2,1. Szybko zauważymy, że spośród 2 wyżej wskazanych spółek jedynie JWW spełnia wymagania H. Z drugiej strony PAT ma 2,8, czyli nie dużo więcej niż H i nie przekracza G.

Dla ostatecznego porównania sprawdzimy jaki jest udział zysku netto w operacyjnym cash flow tego sektora:

Źródło: https://www.biznesradar.pl/

Tym razem nie jest to wskaźnik rynkowy i im większa wartość tym lepiej. PAT posiada 120% (znacznie powyżej mediany 65%), a JWW jest trzeci od końca i jego udział jest ujemny. Ponieważ wcześniej widzieliśmy, że P/EBIT jest dla niego dodatni, to znaczy, że przepływy operacyjne są ujemne.

W końcu akcje PAT są bardziej płynne od JWW, co ma istotne znaczenie w realnym handlu.

Przedstawiona analiza wskaźnikowa to tylko przykład zastosowania bardziej precyzyjnej selekcji spółek do portfela. Najlepszym dowodem jest to, że spośród całego sektora przez wszystkie sita przeszła tylko jedna, max dwie spółki do przyszłego inwestowania.


Uwaga: powyższe dane z biznesradar.pl są sprzed tygodnia.


DODATEK:
Dlaczego średnia harmoniczna? Powróćmy do wskaźnika P/E. Jego odwrotnością jest E/P, czyli zysk do ceny (zakupu). Oznacza to, że odwrotność P/E stanowi nieopodatkowaną stopę zwrotu inwestora. (Na zysk będzie składać się dywidenda i zwrot ze sprzedaży akcji). Porównywanie stóp zwrotu jest intuicyjnie oczywiste. To procentowy zysk się liczy, a nie kurs. Dlatego mając odwrotność E/P, obliczamy z tego zwykłą średnią. Ponieważ stopa zwrotu = E/P, zapiszemy średnią:


gdzie N to liczba spółek w portfelu.

Ale ponieważ chcemy mieć uśrednioną miarę P/E, to odwracamy tę średnią, otrzymując średnią harmoniczną H:

 

Lub inaczej:



Mimo ogólnej intuicyjności użycie średniej harmonicznej nie jest oczywiste w podanym przykładzie. Występują jednak sytuacje, gdy staje się ona naturalna. Mianowicie chodzi o średnią szybkość.

Powiedzmy, że auto pokonuje dwa takie same odcinki drogi, ale z różną prędkością. Pierwszy odcinek pokonuje z prędkością 100 km/h, a drugi na skutek korków zaledwie 1 km/h. Jaka jest średnia prędkość pojazdu? Średnia A = 50,5 km/h , ale czujemy, że to absurd. Natomiast H = 2 / (1/100 + 1/1) = 1,98 km/h okazuje się zupełnie sensowne. Dzieje się tak dlatego, że to czas odgrywa ważniejszą rolę niż pokonana droga (tak jak zysk był ważniejszy od ceny). W pierwszej części 1 km pojazd przejechał w 0,6 minuty, podczas gdy w drugiej wlekł się w godzinę.

To że czujemy, że H lepiej odzwierciedla prawdziwą prędkość nie oznacza jeszcze, że tak jest w rzeczywistości. Wyjaśnienie jest jednak dość proste: gdy mowa o średniej prędkości tego samego pojazdu w określonym przedziale czasu, to oba odcinki drogi nie traktujemy wcale jako niezależne od siebie. Najpierw jest jeden odcinek, potem drugi, ale razem tworzą całość. Tak samo oba okresy stanowią całość. Mówiąc inaczej, zarówno drogę (D), jak i czas (T) możemy zsumować. Właściwa średnia powinna odzwierciedlać pokonanie całkowitej drogi w całkowitym czasie. A to okazuje się właśnie średnią harmoniczną:


Ponieważ prędkość V = D / T, to T = D / V:


W ogólnym przypadku:

niedziela, 22 września 2019

Wpływ wzrostu płacy minimalnej na ceny w gospodarce

Duży wzrost płacy minimalnej (PM) ma znaczący wpływ na kreację inflacji. Lemos [4] przeprowadziła meta-analizę tego wpływu w USA, Brazylii, Wielkiej Brytanii, Kostaryce, tzn. przeanalizowała badania na ten temat, i z grubsza biorąc wychodzi jej, że każdy wzrost płacy minimalnej o 10%, podnosi średnio ceny o 0,3%. Taka liczba to spore uproszczenie, dlatego poniższa tabela podsumowuje dokładniej te wyniki i dodatkowo prezentuje wnioski odnośnie konkretnych sektorów:

Źródło: Lemos, S. [4]

Co do drugiej części, czyli efektu sektorowego, to nie trudno się było domyślić, że największy efekt wypadnie w sektorze żywności (ale nie sieci fast-foodowych), bo ok. 1% - przynajmniej w USA.

Sceptycy zwróciliby uwagę na miejsca, gdzie nie wykazano żadnego efektu, jak w Wielkiej Brytanii. Nie oznacza to jednak, że efektu nie było w ogóle. Przede wszystkim Lemos uwzględniła istotność statystyczną tych artykułów. Tam gdzie zabrakło tej istotności, wpisała "no effect". Wziąłem pod lupę ostatnią pracę na liście, Draca et. al [1] i muszę stwierdzić, że mam co do niej spore uwagi. Wg artykułu w Wielkiej Brytanii wprowadzono PM w kwietniu 1999 r., tak że średni przyrost płac wyniósł ok. 10%. Badano kantyny, restauracje i posiłki na wynos. Autorzy konkludują, że nie znaleźli znaczącego wpływu wzrostu PM na ceny. Jednak wcześniej możemy przeczytać, że jedyny istotny statystycznie efekt wystąpił w sektorze kantyn (stołówek) w kwietniu 1999 r., bo 1 pkt proc. To znaczy, wzrost PM o 10%, wywołał realnie wzrost cen posiłków w kantynach o 1%. A przecież jest to zgodne z wynikami, jakie znalazła Lemos w innych pracach w sektorze żywności. Tak więc efekt nie jest zerowy. Żeby to uwiarygodnić poniżej wklejam rysunek z tej pracy, na którym możemy porównać zmiany cen dla każdego z 3 sektorów. 

Źródło: Draca, M. et al. [1]. NMW - national minimum wage (krajowa płaca minimalna).


Widzimy, że w kantynach ceny przyspieszyły z rocznym opóźnieniem, natomiast dla restauracji i jedzenia na wynos rzeczywiście nie dostrzegamy różnicy przed i po wprowadzeniu PM.

W tym miejscu chciałbym też zwrócić uwagę, że inflacja żywności może posłużyć do oszacowania całkowitej inflacji. Załóżmy, że ceny żywności rosną o 1%, ale pozostałe produkty i usługi pozostają stałe. Mamy równanie:

Inflacja = W1*(inflacja żywności) + (1 - W1)*(inflacja pozostałych elementów koszyka),
Inflacja = W1*0,01 + (1 - W1)*0 = W1*0,01,

gdzie:
W1 - waga żywności w koszyku inflacji
W2 - waga pozostałych produktów i usług.

Na portalu money.pl (tutaj ) znalazłem taką grafikę:

 Źródło: money.pl


Widzimy, że W1 = 25%. Podstawmy:

Inflacja = 25%*0,01 = 0,25%.

Czyli otrzymaliśmy potwierdzenie pierwotnej tezy, że 10% wzrostu PM wywołuje średnio 0,25%-0,3% wzrostu cen.


Sceptycy po pierwsze zwróciliby uwagę, że 0,3% w stosunku do 10% to kropla w morzu, stąd efekt jest praktycznie zerowy. Po drugie wyniki zachodnich krajów nie muszą przekładać się na Europę Środkowo-Wschodnią. Zacznijmy od drugiego kontrargumentu. Obala go praca Harasztosiego i Lindnera [2]. Od 2000 do 2001 r. prawicowy rząd węgierski podniósł PM realnie o 60%, a w kolejnym roku o 25%. W sumie w ciągu 2 lat PM poszła w górę o 100%. Nie miało to dramatycznego wpływu na gospodarkę, tempo PKB przed i po zmianach oscylowało w okolicy 4%. Jednak wpływ na inflację był duży. Spójrzmy na poniższą tabelę:

Źródło: Harasztosi, P., Lindner, A. [2]


 W panelu A obserwujemy krótkoterminowy wpływ zmiany PM na ceny przemysłu. W kolumnie (1) znajduje się model typu jedna zmienna (zmiana PM) plus stała. Dwuletni efekt podniesienia PM o 100% wyniósł 7,6% wzrostu cen w przemyśle. Stała, która wynosi 16% może być interpretowana jako inflacja spowodowana innymi czynnikami. Te inne czynniki zostały rozbite w kolumnie nr (2) i (3). Nie zaznaczałem kolumny (2), bo pełne ujęcie dodatkowych zmiennych kontrolnych zostało zawarte właśnie w (3). Po odjęciu tych innych czynników, wpływ wzrostu PM stał się mniejszy i wyniósł ok. 5%.

W panelu B znajdziemy to samo, ale dla długiego okresu, od 2000 do 2004. W długim okresie efekt sumarycznie się znacznie zwiększył. Bez zmiennych kontrolnych ceny średnio urosły o 13,7%, natomiast z tymi zmiennymi efekt nawet się sporo zwiększył - do 14,6%. Warto też zwrócić uwagę na sumaryczną inflację w ciągu tych 5 lat, nie wynikającą ze wzrostu PM. Chodzi tu o stałą, 27%.

W panelu C znajdziemy test "placebo", tj. to samo dla lat poprzedzających, 1998-2000. W tym okresie PM także rosła, ale wolniej i nie znaleziono żadnego efektu.

Poniższy rysunek podsumowuje wyniki tej tabeli:


Źródło: Harasztosi, P., Lindner, A. [2]

Przekształćmy teraz te dane, tak aby oszacować wpływ wzrostu PM o 10% na ceny. 100% wzrostu PM przekłada się na wzrost cen o 14,6% w ciągu 5 lat. Ponieważ model jest liniowy, możemy podzielić to na 10. 10% wzrostu PM daje 1,46% inflacji. Rocznie jest to 0,29% (1,0029^5).

Faktem jest, że inflacja 0,3% jest tak niska, że niemal zaniedbywalna. Ale jest to tylko efekt występujący bezpośrednio po wprowadzeniu zmian w ciągu roku, natomiast skumulowany efekt w kolejnych latach rośnie kilkukrotnie, tak że 10% wzrostu PM przekłada się w całości na wzrost cen o ok. 1,5%.

Podsumowanie:
Wbrew temu co mówią niektórzy eksperci rządowi, wzrost płacy minimalnej ma znaczący wpływ na ceny w gospodarce. Każde 10% wzrostu PM powoduje ok. 0,3% wzrostu w kolejnym roku, a skumulowany paroletni efekt może wynieść do 1,5%. Należy też pamiętać o cenach żywności, które będą rosnąć najsilniej, ok. 1% w ciągu najbliższego roku od wprowadzeniu nowej stawki PM. Jeżeli PIS wygra nadchodzące wybory, a wszystko na to wskazuje, PM wzrośnie o 15,6% w 2020, a o 33,3% w 2021. Nie trudno policzyć, że żywność tylko z tego powodu zdrożeje rocznie o ok. 1,5% i o ponad 3% w ciągu 2 lat.


Literatura:
[1] Draca, M., Van Reenen, J., Machin, S., The impact of the national minimum wage on profits and prices : report for the Low Pay Commission, Feb 2005;
[2] Harasztosi, P., Lindner, A., Who Pays for the Minimum Wage?, Mar 2017;
[3] https://www.money.pl/gospodarka/nowy-koszyk-zakupowy-gus-namieszal-w-inflacji-w-centrum-uwagi-zywnosc-i-prad-6359644078073985a.html;
[4] Lemos, S., A Survey Of The Effects Of The Minimum Wage On Prices, May 2006.

piątek, 20 września 2019

Czy opłaca się zainwestować w obligacje Legimi?

Legimi to cyfrowa księgarnia, sprzedająca e-booki, audiobooki i synchrobooki (tj. zsynchronizowane e-booki i audiobooki jednocześnie). Ostatnio emituje obligacje na bardzo wysoki procent. Obecna emisja (zapis do 23 września) przyznaje 8,5% odsetek rocznie.
Firma chwali się w memorandum liczbą użytkowników:


Tak więc branża jest rozwijająca, szczególnie w Polsce, gdzie rynek cyfrowych książek ciągle raczkuje. Również dane finansowe wskazują na ekspansję firmy:



Jeśli spojrzeć na przychody i EBITDA, to sytuacja wydaje się niezła. Gorzej z zyskiem netto, który w rok spadł z 200 tys. do 40 tys zł. W dodatku warto spojrzeć na przepływy i środki pieniężne. Operacyjny CF wzrósł ponad 100%, całkowity także wzrósł, ale na koniec 2018 firma prawie nie miała gotówki (zalewie 107 tys. zł). Ponadto sam cel emisji jest wątpliwy: w pierwszej kolejności ma służyć refinansowaniu zadłużenia z poprzednich lat, a dopiero na drugim miejscu inwestycjom na rozwój. Firma prawdopodobnie nie dostałaby takiego kredytu z banku, stąd kusi inwestorów wysokimi procentami.

Żeby obiektywnie ocenić opłacalność tej inwestycji, posłużyłem się 4 modelami dyskryminacyjnymi: Mączyńskiej-Zawadzkiego PAN-F oraz PAN-G oraz Prusaka I i Prusaka II. Pełny ich opis zawarłem w tym artykule.

Poniższy rysunek pokazuje dane finansowe na 2018 i wyniki analizy:


 PAN-F i PAN-G są mniejsze od zera, czyli ryzyko bankructwa jest powyżej 50%. Model Prusaka I < -0,13 , zatem przedsiębiorstwo jest zagrożone upadłością w perspektywie jednego roku. Model Prusaka II < -0,7, co oznacza zagrożenie upadłością w ciągu dwóch lat.

Tak więc choć rynek ciekawy i perspektywiczny, to "ciekawość" nie wystarcza. We wszystkich 4 modelach Z-score znacznie przekracza dozwolone granice. Legimi może upaść, dlatego racjonalnie jest nie kupować na razie ich obligacji czy akcji.

środa, 18 września 2019

WIG po 5-tej fali Elliotta

Jeśli WIG słucha teorii fal Elliotta, to powinien obecnie realizować pierwszą falę spadków:


W pracy [1] autorzy twierdzą, że ich algorytm sieci neuronowych wraz z logiką rozmytą, wyłapując fale Elliota, potrafi prognozować ceny akcji i pokonuje strategię kup i trzymaj. Także D'Angelo i Grimaldi [2] testują tę teorię wraz ze stosunkami Fibonacciego na rynku walutowym (USD/EUR) w latach 2009-2015 i potwierdzają skuteczność takiej strategii.

Filtr Butterwortha (2, 8) dla miesięcznych zmian WIG także informuje o fali spadkowej:

 

Jeśli jesteśmy nastawieni na kupowanie konkretnych akcji, to warto sprawdzić miesięczną, kwartalną korelację z indeksem.


Literatura:
[1] Atsalakis, G. S. et al.,  Elliott Wave Theory and neuro-fuzzy systems, in stock market prediction: The WASP system, August 2011,
[2] D’Angelo, E., Grimaldi, G., The Effectiveness of the Elliott Waves Theory to Forecast Financial Markets: Evidence from the Currency Market, May 2017.

poniedziałek, 29 lipca 2019

Do pamiętnika - AT ku przestrodze (5)

Na pewno wielu traderów kojarzy Bulkowskiego, znanego gracza z zacięciem amatora-naukowca. Napisał wiele książek i artykułów, szczegółowo opisując statystyki zyskowności konkretnych patternów AT na amerykańskiej giełdzie. Robią wrażenie i na pewno działają na wyobraźnię zwykłych graczy, bo wszystkie dają pozytywne rezultaty. Savin et al. [2] postanowili sprawdzić jeden sygnał - głowę z ramionami (RGR) i porównać z "Encyclopedia of Chart Patterns" Bulkowskiego z 2000 r. Bulkowski napisał też np. artykuł "Identifying Bearish Chart Patterns", w którym znajdziemy jego wyniki badań RGR na NYSE i NASDAQ [1]. Średnia spadków po przebiciu linii szyi wyniosła 23%. Savin et al. przeprowadzili szczegółowy test dla RGR na S&P500 (spółki duże) oraz Russel2000 (spółki małe) w okresie 1990-1999. Badacze konkludują, że dla pojedynczych spółek strategia działa słabo. Dla dużych spółek nie znaleziono dowodów na ekonomiczną zyskowność RGR (strategia przynosi raczej straty), zaś dla małych spółek wykryto niewielką zyskowność po uwzględnieniu kosztów transakcji. Dodają jednak, że gdyby przyjąć trochę bardziej konserwatywne koszty transakcyjne, to owa zyskowność znikłaby. W ten sposób w pewnym sensie obalają wnioski Bulkowskiego.

Należy mieć jednak na uwadze, że Autorzy obalają zyskowność ekonomiczną strategii RGR na giełdzie w USA, a nie księgową. Chodzi tu więc o to, że uwzględniono koszt ryzyka danej akcji. Precyzyjnie mówiąc, oparli się nie na samym CAPM, ale trójczynnikowym modelu Famy-Frencha, który oprócz ryzyka rynkowego dodaje "anomalię małych spółek" oraz "anomalię niskiej wartości księgowej do rynkowej". Obydwa dodatkowe czynniki wiąże się czasami z większym ryzykiem. Np. małe spółki są mało płynne, stąd trudniejsze do handlowania, mogą być fundamentalnie trudniejsze do prognozowania. Z kolei efekt BV/P może wynikać z innych ukrytych ryzyk, jak choćby zmienności ryzyka w czasie czy też większej rozbieżności opinii odnośnie przyszłych wyników finansowych. Obydwa efekty mogą także odwzorowywać nieklasyczne ryzyka, związane ze skośnością czy kurtozą rozkładu.

Na koniec - okazało się, że strategia RGR w połączeniu ze strategią pasywną przynosi rzeczywiście zyski ekonomiczne. Nie wgłębiam się w ten temat, powiem tylko, że pomysł autorów to stworzenie portfela złożonego w odpowiednich proporcjach z portfela rynkowego i samej strategii RGR, czyli portfela krótkiej pozycji. Chociaż brzmi to egzotycznie, to pomysł oryginalny. Strategia ta dawała do 8% zysku ekonomicznego w ciągu roku.


Literatura:
[1] Bulkowski, T. N., Identifying Bearish Chart Patterns (I), Stocks & Commodities V. 21:12 (26-32);
[2] Savin, G., Weller, P., Zvingelis, J., The Predictive Power of “Head-and-Shoulders” Price Patterns in the U.S. Stock Market, October 19, 2006.

niedziela, 28 lipca 2019

Do pamiętnika - AT ku przestrodze (4)

Wrócę na moment jeszcze do tego wpisu portalu ceo.com.pl. Oprócz dolara znajdziemy też prognozę EUR/USD.



Analityk musiał mieć wyjątkowego pecha, bo po raz kolejny zauważony RGR kompletnie nie zadziałał:


Nastąpiło książkowe przebicie wsparcia, razem z doskonałym potwierdzeniem kolejnej świecy, po którym spadki były praktycznie zerowe. Zamiast tego nastąpił mocny wzrost.

Podkreślenia też wymaga popełniony błąd przez autora. Pisze on o spadku waluty do poziomu 1.2, podczas gdy z jego wykresu wynika, że chodziło mu o 1.12 (zaznaczona linia 50%). To wszystko razem - błędy, pechy - kompromitują trochę sam portal.

sobota, 27 lipca 2019

Do pamiętnika - AT ku przestrodze (3)

Chociaż stwierdziłem wcześniej, że w AT lepiej mniej zarobić i poczekać na pewniejszy sygnał przebicia SR, to nie znaczy, że ta metoda zawsze zadziała.

Na pewno jedną z najciekawszych formacji cenowych jest RGR i ORGR. Popatrzmy na przeprowadzoną analizę dolara amerykańskiego w 2017 r. przez portal ceo.com.pl:



Autor zachęca do kupna:
"Do końca 2017 roku dolar amerykański (USD) powinien wzrosnąć do koszyka głównych walut do 97 punktów, czyli co najmniej 3 proc. od obecnego poziomu."


Czy dolar posłuchał? Patrzymy:



Jeszcze w przybliżeniu ten moment:


Kolejna świeca potwierdza wybicie, potem delikatny spadek, po którym wydaje się, jakby kurs chciał kontynuować wzrost. Wszystko to okazało się złudzeniem. Można oczywiście racjonalizować, że potwierdzenie było słabe, ale przecież kolejne dni nie wskazywały, że nastąpi obsunięcie. Myślę, że rynki walutowe są efektywne dla AT - tam działają zawodowcy, którzy ją wykorzystują. USD nie poszedł w górę, bo po prostu wszyscy "już się ubrali". Tak samo z dojrzałymi rynkami akcji. Przypomnę swój artykuł Analiza techniczna pokonuje strategię pasywną tylko na niedojrzałych rynkach , w którym podaję dowody, że im bardziej rozpowszechniona jest AT razem z komputerami, tym staje się ona coraz mniej zyskowna - zarówno na giełdzie akcji jak i walut. Te empiryczne wnioski są zgodne z teorią adaptacyjnego rynku, zgodnie z którą jednostki popełniają błędy, uczą się na nich, adaptują do środowiska, rywalizują ze sobą, tak że rynek ewoluuje. W sumie można powiedzieć, że czas i przestrzeń to wymiary, które spowalniają i ograniczają efektywność rynku.

środa, 24 lipca 2019

Do pamiętnika - AT ku przestrodze (2)

Kolejny przykład, w którym technik podjął błędną decyzję. Tym razem Humanista na giełdzie - Groclin - marzec


AT w powiększeniu:



Dzisiaj wygląda to tak:



Zatem Autor kupił akcje w lokalnym szczycie. Może dziwić, że jedynym kryterium decyzji była wiara w przełamanie oporu. Autor najprawdopodobniej liczył na utworzenie się podwójnego dna. Poza tym mamy tu do czynienia z analizą długookresową i liczeniem na odwróceniem trendu, a więc zakładam, że patrzył też na miesięczne RSI. Wykres niżej pokazuje, że RSI był dotychczas poniżej 30 i w momencie decyzji o kupnie wydawało się, że wróci w obszar (30, 70):


 Gdyby autor zasugerował, że bardziej kieruje się AF, którą także się nieco posłużył, można by przypisać decyzję nie tyle jako błędną, co zwyczajnie opartą na ryzyku. Jednak autor sam podkreśla, że chodzi głównie o AT. Problem polega na tym, że podjął decyzję w oparciu o intuicję, a nie technikę, jak mu się wydawało - żadnego przełamania oporu przecież nie było. Najprawdopodobniej wyobraził sobie, że kurs chce zrobić podwójne dno, przebić opór, RSI zawrócić, tak by trend się odwrócił. Niestety - wszystko to się okazało tylko wyobraźnią. Ponowna lekcja, że jeśli już stosować AT, to lepiej mniej zarobić, a poczekać na konkretne przebicie oporu i jego potwierdzenie. Druga lekcja - wątpliwe jest łączenie słabej AT ze słabą AF. Chyba lepiej poświęcić czas na jedną konkretną.

czwartek, 18 lipca 2019

Do pamiętnika - AT ku przestrodze (1)

Nawet fajna zabawa szukanie takich perełek. Luty 2018:
AT - Famur - luty 2018 - Stockwatch




Podsumowując:
- Trend wzrostowy na walorach spółki
- Bycze nastawienie inwestorów
- Oczekujemy wybicia oporu
- Poziomy docelowe to odpowiednio 6,93 zł i 7,25 zł.
- Wskaźniki techniczne (RSI i MACD) sprzyjają kupującym.

Sprawdzamy prognozę. Famur wypłacił 2 razy dywidendę, więc cena jest obniżona o ok. 1 zł:


Nastąpiło wybicie, wolumen był wysoki, a jednak się skisiło.

Z dzisiejszej perspektywy wygląda to tak:

wtorek, 16 lipca 2019

Czy akcjonariusze Getinu powinni pozbyć się akcji?

Giełda dla posiadaczy GTN okazała się bezwzględna. Jak popatrzymy na wykres:


to w drugiej połowie 2018 kurs spadł do niezrozumiałych wtedy poziomów. W grudniu robiłem analizę dyskryminacyjną metodą Siudka i pisałem:

Ostatecznie dostałem Z-score = -0,4. Oznacza to, że sytuacja GTN nie pogorszyła się tak, aby akcje wyceniać jak bankruta, co ma obecnie miejsce (C/WK = 0,07). 

Ale insiderzy wiedzieli lepiej. Pod koniec kwietnia 2019 zwykli inwestorzy dowiedzieli się, że spółka została zmuszona odpisać 1,6 mld zł od kapitału własnego w samym 4 kwartale 2018, tak że na koniec 2018 wykazała KW 960 671 tys. zł. Jeszcze rok wcześniej był on prawie 3,5 razy większy (3,3 mld). Należy pamiętać, że mówimy tylko o 4 kwartale. W całym roku strata netto wyniosła 1,8 mld zł, ale na poziomie dochodu całkowitego była ona jeszcze większa i wyniosła 1,97 mld.

Na stratę 1,6 mld w 4 kwartale złożyły się jednorazowe zdarzenia takie jak odpisy z tytułu utraty wartości inwestycji w Idea Bank, Asset Service Finance w Moskwie oraz Getin International. Dla zainteresowanych skopiowałem ze sprawozdania fragment mówiący o tych obciążeniach:

Dokonane odpisy w szczególności dotyczyły:
- utworzenia odpisów i rezerw z tytułu utraty wartości ekspozycji kredytowych w kwocie 407 mln zł w związku z zidentyfikowanymi komponentami zaburzającymi właściwe określanie możliwych do realizacji odzysków z kredytów w statusie NPL (w szczególności zidentyfikowane i wyeliminowane nieprawidłowości dotyczyły wykorzystywanych do nauki modelu danych na temat historycznie realizowanych sprzedaży wierzytelności, a także możliwości wystąpienia transakcji tego typu w przyszłości tzw. odzysk rezydualny);
- spisania znaku towarowego i wartości firmy Tax Care w kwocie 355 mln zł;
- utworzenia odpisu aktualizującego wartość aktywa z tytułu odroczonego podatku dochodowego w kwocie 399 mln zł;
- zawiązania rezerwy związanej ze zwrotem prowizji od produktów ubezpieczeniowych powiązanych z umowami kredytu w wysokości 191 mln zł;
- spisania wartości firmy Idea Money w kwocie 149 mln zł;
- zawiązania rezerwy związanej ze zwrotem prowizji od produktów inwestycyjnych z ubezpieczeniowym funduszem kapitałowym w wysokości 50 mln zł;
- dokonania odpisu z tytułu utraty wartości akcji Open Finance w kwocie 48 mln zł;
- utworzenia rezerwy na potencjalne zobowiązania wobec towarzystwa ubezpieczeniowego w kwocie 41 mln zł;
- zawiązania rezerwy na potencjalne roszczenia Klientów wynikające z udziału Banku w procesie oferowania obligacji GetBack S.A. w wysokości 14 mln zł.

Suma = 1 654 mln zł.


MODEL SIUDKA

Analiza dotyczy najnowszych danych, tj. za 1 kw. 2019. Wrócę do analizy dyskryminacyjnej Siudka, na temat budowy którego odsyłam do tego wpisu. Tym razem jednak dokładniej sprawdziłem podział na należności / zobowiązania długoterminowe i krótkoterminowe w GTN. Okazało się, że po tej głębszej analizie bank już wcześniej był bliski niewypłacalności. Muszę więc tutaj przyznać się do błędu: zabrakło precyzji.

Jakie są poprawki? W poprzedniej analizie dzieliłem należności i zobowiązania na dwa, bo nie było prostego podziału na krótko- i długoterminowe. Jeśli chodzi o należności z tytułu kredytów i pożyczek, to ten podział był trafny. Chociaż kredyty hipoteczne stanowią niewielki udział, to jest taka pozycja jak skupione wierzytelności, które są raczej długoterminowe i stanowią ok. połowy pozycji z tymi naleznościami.
Z kolei należności z tytułu leasingu finansowego w sprawozdaniu są dokładnie rozpisane wg okresu wymagalności. Tylko 40% z nich jest bieżących, więc tak ustawiłem.
Dalsze pozycje aktywów nie są już tak oczywiste, ale ponieważ znajdują się niżej na liście aktywów, to można się domyślić, że są mniej płynne. A więc powinno się zastosować wagę mniejszą od 40%. Arbitralnie uznałem, że 25% wystarczy.
Jeśli chodzi o zobowiązania wobec klientów, to okazuje się, że niemal 100% to zobowiązania do 1 roku.
W końcu podano także podział wg wymagalności zobowiązania z tytułu emisji papierów dłużnych - ok. 65% z nich jest długoterminowa, więc tę część odjąłem.

Analiza do 1 kw. 2019:
Poniżej skan z analizy:




Zacznę od wyniku końcowego. Z score wyniósł 2,3, a przypomnę, że dodatnia wartość oznacza duże ryzyko niewypłacalności. Wpływ mają tu przede wszystkim 3 elementy: KW (który jak wiadomo drastycznie spadł), a także poziom należności krótkoterminowych i zobowiązań krótkoterminowych. Np. gdyby GTN miał KW na poziomie z 2017, a należności od klientów uznalibyśmy w całości za krótkoterminowe, to Z score równałby się -0,115, czyli łapałby się już w granicach bezpieczeństwa.
Natomiast co trzeba byłoby zrobić w obecnej sytuacji? Przede wszystkim zmniejszyć zobowiązania krótkoterminowe.

Dla porównania zrobiłem też analizę PKO i MBK. Przy okazji wyszło, że najlepiej opracowane sprawozdanie pod kątem rachunkowości zarządczej, ma mBank. W przypadku PKO musiałem się więcej pomęczyć, by wyciągnąć krótkoterminowe należności / zobowiązania i są to raczej zgrubne szacunki niż precyzyjne obliczenia. Nie znalazłem np. dokładnego podziału na zobowiązania krótkoterminowe (bieżące) i długoterminowe wobec klientów. Wiem tylko, że będą one na pewno większe od 50% całości tych zobowiązań. Sądzę, że będzie to między 80 a 95% i przyjąłem 90%. Także okres zobowiązań z tytułu emisji papierów nie został jasno określony, więc przyjąłęm to samo co w GTN - 35% całości to bieżące. Muszę przyznać, że dobrze, że zrobiłem to porównanie, bo okazuje się, że analiza ma pewne wady, bo nie dostaję takich wartości jak Siudek. Dla przypomnienia w jego badaniu średnia banków wypłacalnych miała Z-score = -0,28. W moim badaniu PKO uzyskał -0,063, a MBK -0,043. Najprawdopodobniej inaczej są zdefiniowane pozycje krótkoterminowe. Kierunek jednak się zgadza. Dodam jednak, że przy tej metodzie, nawet gdyby Z-score był lekko dodatni, to nie znaczyłoby, że bank jest niewypłacalny. Tak jak powiedziałem, nie wiem dokładnie, ile wynoszą zobowiązania wobec klientów do 1 roku dla PKO i gdyby przyjąć 95%, to dostałbym Z-score = 0, a dla 100% już 0,06. Tak więc ten test należy traktować raczej jako analizę porównawczą, w której im niższe wartości, tym lepiej. Pomiędzy Z-score 2,3, czyli GTN, a poziomem bliskim zera, jest jednak przepaść. 

Fundamentalnie sytuacja wygląda źle. Jeżeli w najbliższych kwartałach GTN nadal będzie generował straty, to obecni akcjonariusze powinni zastanowić się nad sprzedażą akcji.

Analiza do pobrania:
analiza_gtn, pko, mbk