Kolejny przykład, w którym technik podjął błędną decyzję. Tym razem Humanista na giełdzie - Groclin - marzec
AT w powiększeniu:
Dzisiaj wygląda to tak:
Zatem Autor kupił akcje w lokalnym szczycie. Może dziwić, że jedynym kryterium decyzji była wiara w przełamanie oporu. Autor najprawdopodobniej liczył na utworzenie się podwójnego dna. Poza tym mamy tu do czynienia z analizą długookresową i liczeniem na odwróceniem trendu, a więc zakładam, że patrzył też na miesięczne RSI. Wykres niżej pokazuje, że RSI był dotychczas poniżej 30 i w momencie decyzji o kupnie wydawało się, że wróci w obszar (30, 70):
Gdyby autor zasugerował, że bardziej kieruje się AF, którą także się nieco posłużył, można by przypisać decyzję nie tyle jako błędną, co zwyczajnie opartą na ryzyku. Jednak autor sam podkreśla, że chodzi głównie o AT. Problem polega na tym, że podjął decyzję w oparciu o intuicję, a nie technikę, jak mu się wydawało - żadnego przełamania oporu przecież nie było. Najprawdopodobniej wyobraził sobie, że kurs chce zrobić podwójne dno, przebić opór, RSI zawrócić, tak by trend się odwrócił. Niestety - wszystko to się okazało tylko wyobraźnią. Ponowna lekcja, że jeśli już stosować AT, to lepiej mniej zarobić, a poczekać na konkretne przebicie oporu i jego potwierdzenie. Druga lekcja - wątpliwe jest łączenie słabej AT ze słabą AF. Chyba lepiej poświęcić czas na jedną konkretną.
środa, 24 lipca 2019
czwartek, 18 lipca 2019
Do pamiętnika - AT ku przestrodze (1)
Nawet fajna zabawa szukanie takich perełek. Luty 2018:
AT - Famur - luty 2018 - Stockwatch
Podsumowując:
- Trend wzrostowy na walorach spółki
- Bycze nastawienie inwestorów
- Oczekujemy wybicia oporu
- Poziomy docelowe to odpowiednio 6,93 zł i 7,25 zł.
- Wskaźniki techniczne (RSI i MACD) sprzyjają kupującym.
Sprawdzamy prognozę. Famur wypłacił 2 razy dywidendę, więc cena jest obniżona o ok. 1 zł:
Nastąpiło wybicie, wolumen był wysoki, a jednak się skisiło.
Z dzisiejszej perspektywy wygląda to tak:
AT - Famur - luty 2018 - Stockwatch
Podsumowując:
- Trend wzrostowy na walorach spółki
- Bycze nastawienie inwestorów
- Oczekujemy wybicia oporu
- Poziomy docelowe to odpowiednio 6,93 zł i 7,25 zł.
- Wskaźniki techniczne (RSI i MACD) sprzyjają kupującym.
Sprawdzamy prognozę. Famur wypłacił 2 razy dywidendę, więc cena jest obniżona o ok. 1 zł:
Z dzisiejszej perspektywy wygląda to tak:
wtorek, 16 lipca 2019
Czy akcjonariusze Getinu powinni pozbyć się akcji?
Giełda dla posiadaczy GTN okazała się bezwzględna. Jak popatrzymy na wykres:
to w drugiej połowie 2018 kurs spadł do niezrozumiałych wtedy poziomów. W grudniu robiłem analizę dyskryminacyjną metodą Siudka i pisałem:
Ostatecznie dostałem Z-score = -0,4. Oznacza to, że sytuacja GTN nie pogorszyła się tak, aby akcje wyceniać jak bankruta, co ma obecnie miejsce (C/WK = 0,07).
Ale insiderzy wiedzieli lepiej. Pod koniec kwietnia 2019 zwykli inwestorzy dowiedzieli się, że spółka została zmuszona odpisać 1,6 mld zł od kapitału własnego w samym 4 kwartale 2018, tak że na koniec 2018 wykazała KW 960 671 tys. zł. Jeszcze rok wcześniej był on prawie 3,5 razy większy (3,3 mld). Należy pamiętać, że mówimy tylko o 4 kwartale. W całym roku strata netto wyniosła 1,8 mld zł, ale na poziomie dochodu całkowitego była ona jeszcze większa i wyniosła 1,97 mld.
Na stratę 1,6 mld w 4 kwartale złożyły się jednorazowe zdarzenia takie jak odpisy z tytułu utraty wartości inwestycji w Idea Bank, Asset Service Finance w Moskwie oraz Getin International. Dla zainteresowanych skopiowałem ze sprawozdania fragment mówiący o tych obciążeniach:
Dokonane odpisy w szczególności dotyczyły:
- utworzenia odpisów i rezerw z tytułu utraty wartości ekspozycji kredytowych w kwocie 407 mln zł w związku z zidentyfikowanymi komponentami zaburzającymi właściwe określanie możliwych do realizacji odzysków z kredytów w statusie NPL (w szczególności zidentyfikowane i wyeliminowane nieprawidłowości dotyczyły wykorzystywanych do nauki modelu danych na temat historycznie realizowanych sprzedaży wierzytelności, a także możliwości wystąpienia transakcji tego typu w przyszłości tzw. odzysk rezydualny);
- spisania znaku towarowego i wartości firmy Tax Care w kwocie 355 mln zł;
- utworzenia odpisu aktualizującego wartość aktywa z tytułu odroczonego podatku dochodowego w kwocie 399 mln zł;
- zawiązania rezerwy związanej ze zwrotem prowizji od produktów ubezpieczeniowych powiązanych z umowami kredytu w wysokości 191 mln zł;
- spisania wartości firmy Idea Money w kwocie 149 mln zł;
- zawiązania rezerwy związanej ze zwrotem prowizji od produktów inwestycyjnych z ubezpieczeniowym funduszem kapitałowym w wysokości 50 mln zł;
- dokonania odpisu z tytułu utraty wartości akcji Open Finance w kwocie 48 mln zł;
- utworzenia rezerwy na potencjalne zobowiązania wobec towarzystwa ubezpieczeniowego w kwocie 41 mln zł;
- zawiązania rezerwy na potencjalne roszczenia Klientów wynikające z udziału Banku w procesie oferowania obligacji GetBack S.A. w wysokości 14 mln zł.
Suma = 1 654 mln zł.
MODEL SIUDKA
Analiza dotyczy najnowszych danych, tj. za 1 kw. 2019. Wrócę do analizy dyskryminacyjnej Siudka, na temat budowy którego odsyłam do tego wpisu. Tym razem jednak dokładniej sprawdziłem podział na należności / zobowiązania długoterminowe i krótkoterminowe w GTN. Okazało się, że po tej głębszej analizie bank już wcześniej był bliski niewypłacalności. Muszę więc tutaj przyznać się do błędu: zabrakło precyzji.
Jakie są poprawki? W poprzedniej analizie dzieliłem należności i zobowiązania na dwa, bo nie było prostego podziału na krótko- i długoterminowe. Jeśli chodzi o należności z tytułu kredytów i pożyczek, to ten podział był trafny. Chociaż kredyty hipoteczne stanowią niewielki udział, to jest taka pozycja jak skupione wierzytelności, które są raczej długoterminowe i stanowią ok. połowy pozycji z tymi naleznościami.
Z kolei należności z tytułu leasingu finansowego w sprawozdaniu są dokładnie rozpisane wg okresu wymagalności. Tylko 40% z nich jest bieżących, więc tak ustawiłem.
Dalsze pozycje aktywów nie są już tak oczywiste, ale ponieważ znajdują się niżej na liście aktywów, to można się domyślić, że są mniej płynne. A więc powinno się zastosować wagę mniejszą od 40%. Arbitralnie uznałem, że 25% wystarczy.
Jeśli chodzi o zobowiązania wobec klientów, to okazuje się, że niemal 100% to zobowiązania do 1 roku.
W końcu podano także podział wg wymagalności zobowiązania z tytułu emisji papierów dłużnych - ok. 65% z nich jest długoterminowa, więc tę część odjąłem.
Analiza do 1 kw. 2019:
Poniżej skan z analizy:
Zacznę od wyniku końcowego. Z score wyniósł 2,3, a przypomnę, że dodatnia wartość oznacza duże ryzyko niewypłacalności. Wpływ mają tu przede wszystkim 3 elementy: KW (który jak wiadomo drastycznie spadł), a także poziom należności krótkoterminowych i zobowiązań krótkoterminowych. Np. gdyby GTN miał KW na poziomie z 2017, a należności od klientów uznalibyśmy w całości za krótkoterminowe, to Z score równałby się -0,115, czyli łapałby się już w granicach bezpieczeństwa.
Natomiast co trzeba byłoby zrobić w obecnej sytuacji? Przede wszystkim zmniejszyć zobowiązania krótkoterminowe.
Dla porównania zrobiłem też analizę PKO i MBK. Przy okazji wyszło, że najlepiej opracowane sprawozdanie pod kątem rachunkowości zarządczej, ma mBank. W przypadku PKO musiałem się więcej pomęczyć, by wyciągnąć krótkoterminowe należności / zobowiązania i są to raczej zgrubne szacunki niż precyzyjne obliczenia. Nie znalazłem np. dokładnego podziału na zobowiązania krótkoterminowe (bieżące) i długoterminowe wobec klientów. Wiem tylko, że będą one na pewno większe od 50% całości tych zobowiązań. Sądzę, że będzie to między 80 a 95% i przyjąłem 90%. Także okres zobowiązań z tytułu emisji papierów nie został jasno określony, więc przyjąłęm to samo co w GTN - 35% całości to bieżące. Muszę przyznać, że dobrze, że zrobiłem to porównanie, bo okazuje się, że analiza ma pewne wady, bo nie dostaję takich wartości jak Siudek. Dla przypomnienia w jego badaniu średnia banków wypłacalnych miała Z-score = -0,28. W moim badaniu PKO uzyskał -0,063, a MBK -0,043. Najprawdopodobniej inaczej są zdefiniowane pozycje krótkoterminowe. Kierunek jednak się zgadza. Dodam jednak, że przy tej metodzie, nawet gdyby Z-score był lekko dodatni, to nie znaczyłoby, że bank jest niewypłacalny. Tak jak powiedziałem, nie wiem dokładnie, ile wynoszą zobowiązania wobec klientów do 1 roku dla PKO i gdyby przyjąć 95%, to dostałbym Z-score = 0, a dla 100% już 0,06. Tak więc ten test należy traktować raczej jako analizę porównawczą, w której im niższe wartości, tym lepiej. Pomiędzy Z-score 2,3, czyli GTN, a poziomem bliskim zera, jest jednak przepaść.
Fundamentalnie sytuacja wygląda źle. Jeżeli w najbliższych kwartałach GTN nadal będzie generował straty, to obecni akcjonariusze powinni zastanowić się nad sprzedażą akcji.
Analiza do pobrania:
analiza_gtn, pko, mbk
to w drugiej połowie 2018 kurs spadł do niezrozumiałych wtedy poziomów. W grudniu robiłem analizę dyskryminacyjną metodą Siudka i pisałem:
Ostatecznie dostałem Z-score = -0,4. Oznacza to, że sytuacja GTN nie pogorszyła się tak, aby akcje wyceniać jak bankruta, co ma obecnie miejsce (C/WK = 0,07).
Ale insiderzy wiedzieli lepiej. Pod koniec kwietnia 2019 zwykli inwestorzy dowiedzieli się, że spółka została zmuszona odpisać 1,6 mld zł od kapitału własnego w samym 4 kwartale 2018, tak że na koniec 2018 wykazała KW 960 671 tys. zł. Jeszcze rok wcześniej był on prawie 3,5 razy większy (3,3 mld). Należy pamiętać, że mówimy tylko o 4 kwartale. W całym roku strata netto wyniosła 1,8 mld zł, ale na poziomie dochodu całkowitego była ona jeszcze większa i wyniosła 1,97 mld.
Na stratę 1,6 mld w 4 kwartale złożyły się jednorazowe zdarzenia takie jak odpisy z tytułu utraty wartości inwestycji w Idea Bank, Asset Service Finance w Moskwie oraz Getin International. Dla zainteresowanych skopiowałem ze sprawozdania fragment mówiący o tych obciążeniach:
Dokonane odpisy w szczególności dotyczyły:
- utworzenia odpisów i rezerw z tytułu utraty wartości ekspozycji kredytowych w kwocie 407 mln zł w związku z zidentyfikowanymi komponentami zaburzającymi właściwe określanie możliwych do realizacji odzysków z kredytów w statusie NPL (w szczególności zidentyfikowane i wyeliminowane nieprawidłowości dotyczyły wykorzystywanych do nauki modelu danych na temat historycznie realizowanych sprzedaży wierzytelności, a także możliwości wystąpienia transakcji tego typu w przyszłości tzw. odzysk rezydualny);
- spisania znaku towarowego i wartości firmy Tax Care w kwocie 355 mln zł;
- utworzenia odpisu aktualizującego wartość aktywa z tytułu odroczonego podatku dochodowego w kwocie 399 mln zł;
- zawiązania rezerwy związanej ze zwrotem prowizji od produktów ubezpieczeniowych powiązanych z umowami kredytu w wysokości 191 mln zł;
- spisania wartości firmy Idea Money w kwocie 149 mln zł;
- zawiązania rezerwy związanej ze zwrotem prowizji od produktów inwestycyjnych z ubezpieczeniowym funduszem kapitałowym w wysokości 50 mln zł;
- dokonania odpisu z tytułu utraty wartości akcji Open Finance w kwocie 48 mln zł;
- utworzenia rezerwy na potencjalne zobowiązania wobec towarzystwa ubezpieczeniowego w kwocie 41 mln zł;
- zawiązania rezerwy na potencjalne roszczenia Klientów wynikające z udziału Banku w procesie oferowania obligacji GetBack S.A. w wysokości 14 mln zł.
Suma = 1 654 mln zł.
MODEL SIUDKA
Analiza dotyczy najnowszych danych, tj. za 1 kw. 2019. Wrócę do analizy dyskryminacyjnej Siudka, na temat budowy którego odsyłam do tego wpisu. Tym razem jednak dokładniej sprawdziłem podział na należności / zobowiązania długoterminowe i krótkoterminowe w GTN. Okazało się, że po tej głębszej analizie bank już wcześniej był bliski niewypłacalności. Muszę więc tutaj przyznać się do błędu: zabrakło precyzji.
Jakie są poprawki? W poprzedniej analizie dzieliłem należności i zobowiązania na dwa, bo nie było prostego podziału na krótko- i długoterminowe. Jeśli chodzi o należności z tytułu kredytów i pożyczek, to ten podział był trafny. Chociaż kredyty hipoteczne stanowią niewielki udział, to jest taka pozycja jak skupione wierzytelności, które są raczej długoterminowe i stanowią ok. połowy pozycji z tymi naleznościami.
Z kolei należności z tytułu leasingu finansowego w sprawozdaniu są dokładnie rozpisane wg okresu wymagalności. Tylko 40% z nich jest bieżących, więc tak ustawiłem.
Dalsze pozycje aktywów nie są już tak oczywiste, ale ponieważ znajdują się niżej na liście aktywów, to można się domyślić, że są mniej płynne. A więc powinno się zastosować wagę mniejszą od 40%. Arbitralnie uznałem, że 25% wystarczy.
Jeśli chodzi o zobowiązania wobec klientów, to okazuje się, że niemal 100% to zobowiązania do 1 roku.
W końcu podano także podział wg wymagalności zobowiązania z tytułu emisji papierów dłużnych - ok. 65% z nich jest długoterminowa, więc tę część odjąłem.
Analiza do 1 kw. 2019:
Poniżej skan z analizy:
Zacznę od wyniku końcowego. Z score wyniósł 2,3, a przypomnę, że dodatnia wartość oznacza duże ryzyko niewypłacalności. Wpływ mają tu przede wszystkim 3 elementy: KW (który jak wiadomo drastycznie spadł), a także poziom należności krótkoterminowych i zobowiązań krótkoterminowych. Np. gdyby GTN miał KW na poziomie z 2017, a należności od klientów uznalibyśmy w całości za krótkoterminowe, to Z score równałby się -0,115, czyli łapałby się już w granicach bezpieczeństwa.
Natomiast co trzeba byłoby zrobić w obecnej sytuacji? Przede wszystkim zmniejszyć zobowiązania krótkoterminowe.
Dla porównania zrobiłem też analizę PKO i MBK. Przy okazji wyszło, że najlepiej opracowane sprawozdanie pod kątem rachunkowości zarządczej, ma mBank. W przypadku PKO musiałem się więcej pomęczyć, by wyciągnąć krótkoterminowe należności / zobowiązania i są to raczej zgrubne szacunki niż precyzyjne obliczenia. Nie znalazłem np. dokładnego podziału na zobowiązania krótkoterminowe (bieżące) i długoterminowe wobec klientów. Wiem tylko, że będą one na pewno większe od 50% całości tych zobowiązań. Sądzę, że będzie to między 80 a 95% i przyjąłem 90%. Także okres zobowiązań z tytułu emisji papierów nie został jasno określony, więc przyjąłęm to samo co w GTN - 35% całości to bieżące. Muszę przyznać, że dobrze, że zrobiłem to porównanie, bo okazuje się, że analiza ma pewne wady, bo nie dostaję takich wartości jak Siudek. Dla przypomnienia w jego badaniu średnia banków wypłacalnych miała Z-score = -0,28. W moim badaniu PKO uzyskał -0,063, a MBK -0,043. Najprawdopodobniej inaczej są zdefiniowane pozycje krótkoterminowe. Kierunek jednak się zgadza. Dodam jednak, że przy tej metodzie, nawet gdyby Z-score był lekko dodatni, to nie znaczyłoby, że bank jest niewypłacalny. Tak jak powiedziałem, nie wiem dokładnie, ile wynoszą zobowiązania wobec klientów do 1 roku dla PKO i gdyby przyjąć 95%, to dostałbym Z-score = 0, a dla 100% już 0,06. Tak więc ten test należy traktować raczej jako analizę porównawczą, w której im niższe wartości, tym lepiej. Pomiędzy Z-score 2,3, czyli GTN, a poziomem bliskim zera, jest jednak przepaść.
Fundamentalnie sytuacja wygląda źle. Jeżeli w najbliższych kwartałach GTN nadal będzie generował straty, to obecni akcjonariusze powinni zastanowić się nad sprzedażą akcji.
Analiza do pobrania:
analiza_gtn, pko, mbk
niedziela, 7 lipca 2019
Granie pod fazy księżyca
Obok analizy technicznej kolejną tajemniczą strategią jest
astrotrading. Jedną z ważniejszych jej technik jest kupowanie i
sprzedawanie aktywów w odpowiednich fazach księżyca. W dniach wokół nowiu należy trzymać akcje, natomiast w dniach
wokół pełni pozbyć się ich. I to wszystko - czy coś tak
banalnego może być opłacalne? Yuan, Zheng i Zhu [3] zbadali ten problem
na globalnym indeksie akcji złożonym z 48 krajów. Analizowano zarówno
indeks ważony kapitalizacjami jak i równymi udziałami akcji, w okresie
1973-2001. Okres pełni księżyca został zdefiniowany jako N + dzień pełni
+ N, zaś okres nowiu jako N + dzień nowiu + N. Sprawdzono 2 warianty
dla N = 3 oraz N = 7. W sumie więc dany okres trwał 7 albo 15 dni.
Okazało się, że w okresach pełni stopy zwrotu były znacząco niższe niż w
okresach nowiu. Dla ważonych równymi udziałami różnica między okresem nowiu a okresem pełni wyniosła rocznie 4,8% dla N = 7, oraz 3,3% dla N
= 3. Gorsze wyniki uzyskano dla ważonych kapitalizacjami: 3,7% i 3,1%. Po uwzględnieniu kosztów transakcyjnych otrzymano różnice między 1,9 a 3,6%. Należy podkreślić, że odfiltrowano tutaj efekt księżyca od innych znanych anomalii, jak np. efekt stycznia.
2-3% to nie jest powalający wynik, w dodatku biorąc pod uwagę tak długi zakres czasu, kiedy anomalia nie była jeszcze dobrze znana. Ale mimo wszystko zastanawia. Ponieważ badacze przedstawili wyniki także oddzielnie dla USA, to je przeanalizowałem. Dzienna logarytmiczna stopa zwrotu (w punktach bazowych) została przetestowana w postaci modelu a + b*efekt księżyca + dodatkowe zmienne. Efekt księżyca przyjmuje tutaj 0 dla okresu nowiu i 1 dla okresu pełni. Dodatkowe zmienne pomijam, aby wyłuskać te dwa elementy: stała + efekt księżyca. Uzyskany empiryczny model to: 3,67 - 1,89*efekt księżyca.
Podane parametry są punktami bazowymi, więc aby je zamienić na stopy zwrotu należy podzielić przez 100. Aby przekształcić w roczną stopę, należy pomnożyć przez 125, bo w sumie dni giełdowych w roku kalendarzowym jest ok. 250, a połowa stanowi okres pełni.
Stąd dla pełni uzyskamy: (3,67 - 1,89*1)*125/100 = 2,3%.
Analogicznie dla nowiu: (3,67 - 1,89*0)*125/100 = 4,6%.
Oznacza to, że sumarycznie w ciągu roku było to 2,3 + 4,6 = 6,9%.
Pamiętajmy, że pominięto tu m.in. efekt stycznia, ale wnioski już się nasuwają. Okres pełni przynosi niższe stopy zwrotu, ale dodatnie! To oznacza, że granie pod księżyc nie opłaca się, tym bardziej, gdy odejmiemy jeszcze koszty transakcji.
Ostatnio także zbadano wpływ fazy księżyca na giełdę w Polsce. Lizińska [2] testowała ten efekt dla WIG, sWIG, WIG20 w latach 2000-2016. Okres nowiu i pełni określiła na poziomie 9 dni (4 + nów/pełnia + 4). Ponownie w okresie nowiu stopy zwrotu były istotnie wyższe niż w pełni. Poniższa tabela prezentuje wyniki dla WIG:
Średnia dzienna stopa zwrotu wyniosła w okresach pełni 0,01%, a w okresach nowiu 0,09%. Spróbujmy przekształcić te wyniki w roczne stopy. Nie będę już zamieniał tych stóp w logarytmiczne, choć precyzyjnie powinienem tak zrobić (w pracy Yuan użyto logarytmów). Zacznijmy od pełni. Mamy 0,01% i tak samo jak poprzednio rocznie będzie to 0,01%*125 = 1,25%. Dla nowiu 0,09%*125 = 11,25%. Sumarycznie więc otrzymujemy 11,25+1,25 = 12,5%.
Zaskakująca jest różnica zwrotów między okresem nowiu i pełni, bo dokładnie 10%. Pół roku trzymania akcji dużych spółek w okresach pełni przynosi 1,25%, czyli mniej niż na lokatach (1,5-2%). Trudno jednak wykorzystać taki arbitraż: 2 tygodnie trzymania lokat, 2 tygodnie trzymania akcji i znowu od początku. Przede wszystkim taki arbitraż jest niemożliwy do zastosowania, gdy uwzględnimy koszty transakcji. Wykorzystajmy wzór, który wyprowadziłem w artykule Czy stop lossy są opłacalne?
(1)
gdzie:
r_P - stopa zwrotu po potrąceniu prowizji (kosztów transakcyjnych)
x - prowizja jako część inwestowanego kapitału
N - liczba transakcji
Za r wstawię 11,25%, za x 0,0039 (raczej standard w Polsce, w artykule Yuan et al. podano, że na świecie to 0,001. U nas jednak to ciągle więcej). Za N wstawię 24. Wytłumaczenie: cykl księżycowy trwa ok. 30 dni, czyli miesiąc. W ciągu miesiąca są dwie transakcje: kupno na początku nowiu i sprzedaż na końcu nowiu. Mamy 12 miesięcy, czyli 2*12 = 24.
Czyli dla techniki grania pod fazy księżyca podstawiamy:
(1+0,1125)*((1-0,0039)/(1+0,0039))^24-1 = -7,7%.
Zatem faktycznie strategia przynosi straty. Dla porównania z buy&hold: wstawię rzeczywistą średnioroczną stopę zwrotu WIG, która w latach 2000-2016 wyniosła ok. 10%. Tym razem N wyniesie 2, bo zakładamy, że kupujemy na początku roku i sprzedajemy na końcu:
(1+0,1)*((1-0,0039)/(1+0,0039))^2-1 = 8,3%.
Tak więc technika grania pod księżyc nie opłaca się. Nawet gdyby podstawić minimalną prowizję 0,001, to i tak buy&hold byłaby lepsza (6% vs. 9,6%).
Lizińska sprawdziła też efekt faz księżyca pod kątem "anomalii małych spółek", dzieląc stopy zwrotu na duże i małe spółki. Okazało się, że okresy pełni przynosiły ujemne stopy zwrotu na dużych spółkach i dopiero na małych były dodatnie:
Wydawać by się mogło, że efekt księżyca można wykorzystać na małych, ale jak się bliżej przyjrzeć, to jest to najwyżej efekt małych spółek, które po prostu przynoszą średnio wyższe stopy zwrotu. Nie opłaca się ich sprzedawać w okresach pełni. Sam fakt, że małe spółki przynoszą średnio lepsze zyski niż duże, to inny temat, ale zwrócę tylko uwagę, że dużym ograniczeniem w ich przypadku jest niska płynność, która uniemożliwia uzyskiwanie tak pięknych wyników jak to pokazują statystyki.
Popatrzmy teraz na same blue chipy. Pomimo ujemnej stopy zwrotu w Full moon (tj. okresu pełni), to dodatnie stopy zwrotu w New moon wynoszą tyle samo co dla średniej, czyli 0,09%. A wcześniej pokazałem, że dla tej dodatniej stopy zwrotu w rzeczywistości poniesiemy straty po odjęciu prowizji maklerskich.
Ostatnia sprawa, na którą zwróciłbym uwagę to podział w okresach byka i niedźwiedzia:
W zasadzie powtarza się podobny schemat jak poprzednio, jeśli bull months utożsamilibyśmy z małymi spółkami, a bear months z dużymi. Podczas hossy nie opłaca się sprzedawać akcji w full moon. I tak jak w przypadku małych spółek problemem była płynność, tak w przypadku hossy problemem jest trwałość trendu (w bessie trendy mocniej się utrzymują).
Z ciekawości sprawdziłem model logit od początku roku 2019 do końca czerwca 2019 dla WIG. Przypomnę, że model logitowy (który szczegółowo opisałem w 3 częściach: część 1 , część 2 , część 3), inaczej regresja logistyczna, szacuje prawdopodobieństwo danego zdarzenia Y pod warunkiem pewnej zmiennej X. Model ma postać:
P = e^(a + b*X) / (e^(a + b*X) +1)
gdzie:
X - dzienna stopa zwrotu WIG,
P - prawdopodobieństwo, że Y = 1.
W tym wypadku Y = 0 gdy mamy okres pełni, a Y = 1, gdy panuje okres nowiu. Fazy te zdefiniowałem tak samo jak Lizińska (9-dniowe okno).
Oczywiście pół roku to niewielka próba, 108 obserwacji, ale mimo wszystko szansa na wzrost dla Y = 1 powinna być wyższa niż dla Y = 0. Ostatnie 6 miesięcy było dobrym testem, dlatego że mieliśmy do czynienia z bardzo chwiejnym WIG-iem, który rósł, spadał i w końcu wylądował prawie tam skąd zaczął (wzrost 4%). Niestety model wskazał, że nie występuje żadna zależność (prawdopodobieństwo wynosiło dla wszystkich danych praktycznie 50%). Pomiędzy X a Y także nie wystąpiła żadna korelacja. Poniżej dane można samemu prześledzić i porównać. Białe pola oznaczają neutralne dni, bo okres księżyca miał zawierać 9 dni.
Jeśli księżyc wpływa na nastroje inwestorów, to nie w tym roku.
Powiedzmy, że statystycznie jakiś wpływ księżyca na giełdę istnieje. Nawet jeśli nie da się go wykorzystać, to i tak powstaje pytanie o jego przyczynę. Odpowiedź może leżeć w tym, że światło księżyca wpływa na to jak człowiek śpi, a gorsza jakość czy długość snu może wpływać na zachowanie i podejmowane decyzje. Rzeczywiście, okazuje się, że w okresie +/- 4 dni wokół pełni księżyca ludzie gorzej i krócej śpią w porównaniu z okresem nowiu [1].
Wnioski:
Gra pod fazy księżyca nie opłaca się pomimo, że statystycznie w dniach wokół pełni stopy zwrotu często są niższe. Możemy jednak wspomagać się tą techniką dodatkowo razem z AT, AF lub teorią portfela.
Literatura:
[1] Cajochen, C. et. al, Evidence that the Lunar Cycle Influences Human Sleep, 5 August 2013,
[2] Lizińska, J., On the Rationality of Investors– Lunar Phases and Equity Returns in Poland, 2017,
[3] Yuan, K., Zheng, L., i Zhu Q., Are Investors Moonstruck? Lunar Phases and Stock Returns, 2006.
2-3% to nie jest powalający wynik, w dodatku biorąc pod uwagę tak długi zakres czasu, kiedy anomalia nie była jeszcze dobrze znana. Ale mimo wszystko zastanawia. Ponieważ badacze przedstawili wyniki także oddzielnie dla USA, to je przeanalizowałem. Dzienna logarytmiczna stopa zwrotu (w punktach bazowych) została przetestowana w postaci modelu a + b*efekt księżyca + dodatkowe zmienne. Efekt księżyca przyjmuje tutaj 0 dla okresu nowiu i 1 dla okresu pełni. Dodatkowe zmienne pomijam, aby wyłuskać te dwa elementy: stała + efekt księżyca. Uzyskany empiryczny model to: 3,67 - 1,89*efekt księżyca.
Podane parametry są punktami bazowymi, więc aby je zamienić na stopy zwrotu należy podzielić przez 100. Aby przekształcić w roczną stopę, należy pomnożyć przez 125, bo w sumie dni giełdowych w roku kalendarzowym jest ok. 250, a połowa stanowi okres pełni.
Stąd dla pełni uzyskamy: (3,67 - 1,89*1)*125/100 = 2,3%.
Analogicznie dla nowiu: (3,67 - 1,89*0)*125/100 = 4,6%.
Oznacza to, że sumarycznie w ciągu roku było to 2,3 + 4,6 = 6,9%.
Pamiętajmy, że pominięto tu m.in. efekt stycznia, ale wnioski już się nasuwają. Okres pełni przynosi niższe stopy zwrotu, ale dodatnie! To oznacza, że granie pod księżyc nie opłaca się, tym bardziej, gdy odejmiemy jeszcze koszty transakcji.
Ostatnio także zbadano wpływ fazy księżyca na giełdę w Polsce. Lizińska [2] testowała ten efekt dla WIG, sWIG, WIG20 w latach 2000-2016. Okres nowiu i pełni określiła na poziomie 9 dni (4 + nów/pełnia + 4). Ponownie w okresie nowiu stopy zwrotu były istotnie wyższe niż w pełni. Poniższa tabela prezentuje wyniki dla WIG:
Średnia dzienna stopa zwrotu wyniosła w okresach pełni 0,01%, a w okresach nowiu 0,09%. Spróbujmy przekształcić te wyniki w roczne stopy. Nie będę już zamieniał tych stóp w logarytmiczne, choć precyzyjnie powinienem tak zrobić (w pracy Yuan użyto logarytmów). Zacznijmy od pełni. Mamy 0,01% i tak samo jak poprzednio rocznie będzie to 0,01%*125 = 1,25%. Dla nowiu 0,09%*125 = 11,25%. Sumarycznie więc otrzymujemy 11,25+1,25 = 12,5%.
Zaskakująca jest różnica zwrotów między okresem nowiu i pełni, bo dokładnie 10%. Pół roku trzymania akcji dużych spółek w okresach pełni przynosi 1,25%, czyli mniej niż na lokatach (1,5-2%). Trudno jednak wykorzystać taki arbitraż: 2 tygodnie trzymania lokat, 2 tygodnie trzymania akcji i znowu od początku. Przede wszystkim taki arbitraż jest niemożliwy do zastosowania, gdy uwzględnimy koszty transakcji. Wykorzystajmy wzór, który wyprowadziłem w artykule Czy stop lossy są opłacalne?
(1)
gdzie:
r_P - stopa zwrotu po potrąceniu prowizji (kosztów transakcyjnych)
x - prowizja jako część inwestowanego kapitału
N - liczba transakcji
Za r wstawię 11,25%, za x 0,0039 (raczej standard w Polsce, w artykule Yuan et al. podano, że na świecie to 0,001. U nas jednak to ciągle więcej). Za N wstawię 24. Wytłumaczenie: cykl księżycowy trwa ok. 30 dni, czyli miesiąc. W ciągu miesiąca są dwie transakcje: kupno na początku nowiu i sprzedaż na końcu nowiu. Mamy 12 miesięcy, czyli 2*12 = 24.
Czyli dla techniki grania pod fazy księżyca podstawiamy:
(1+0,1125)*((1-0,0039)/(1+0,0039))^24-1 = -7,7%.
Zatem faktycznie strategia przynosi straty. Dla porównania z buy&hold: wstawię rzeczywistą średnioroczną stopę zwrotu WIG, która w latach 2000-2016 wyniosła ok. 10%. Tym razem N wyniesie 2, bo zakładamy, że kupujemy na początku roku i sprzedajemy na końcu:
(1+0,1)*((1-0,0039)/(1+0,0039))^2-1 = 8,3%.
Tak więc technika grania pod księżyc nie opłaca się. Nawet gdyby podstawić minimalną prowizję 0,001, to i tak buy&hold byłaby lepsza (6% vs. 9,6%).
Lizińska sprawdziła też efekt faz księżyca pod kątem "anomalii małych spółek", dzieląc stopy zwrotu na duże i małe spółki. Okazało się, że okresy pełni przynosiły ujemne stopy zwrotu na dużych spółkach i dopiero na małych były dodatnie:
Wydawać by się mogło, że efekt księżyca można wykorzystać na małych, ale jak się bliżej przyjrzeć, to jest to najwyżej efekt małych spółek, które po prostu przynoszą średnio wyższe stopy zwrotu. Nie opłaca się ich sprzedawać w okresach pełni. Sam fakt, że małe spółki przynoszą średnio lepsze zyski niż duże, to inny temat, ale zwrócę tylko uwagę, że dużym ograniczeniem w ich przypadku jest niska płynność, która uniemożliwia uzyskiwanie tak pięknych wyników jak to pokazują statystyki.
Popatrzmy teraz na same blue chipy. Pomimo ujemnej stopy zwrotu w Full moon (tj. okresu pełni), to dodatnie stopy zwrotu w New moon wynoszą tyle samo co dla średniej, czyli 0,09%. A wcześniej pokazałem, że dla tej dodatniej stopy zwrotu w rzeczywistości poniesiemy straty po odjęciu prowizji maklerskich.
Ostatnia sprawa, na którą zwróciłbym uwagę to podział w okresach byka i niedźwiedzia:
W zasadzie powtarza się podobny schemat jak poprzednio, jeśli bull months utożsamilibyśmy z małymi spółkami, a bear months z dużymi. Podczas hossy nie opłaca się sprzedawać akcji w full moon. I tak jak w przypadku małych spółek problemem była płynność, tak w przypadku hossy problemem jest trwałość trendu (w bessie trendy mocniej się utrzymują).
Z ciekawości sprawdziłem model logit od początku roku 2019 do końca czerwca 2019 dla WIG. Przypomnę, że model logitowy (który szczegółowo opisałem w 3 częściach: część 1 , część 2 , część 3), inaczej regresja logistyczna, szacuje prawdopodobieństwo danego zdarzenia Y pod warunkiem pewnej zmiennej X. Model ma postać:
P = e^(a + b*X) / (e^(a + b*X) +1)
gdzie:
X - dzienna stopa zwrotu WIG,
P - prawdopodobieństwo, że Y = 1.
W tym wypadku Y = 0 gdy mamy okres pełni, a Y = 1, gdy panuje okres nowiu. Fazy te zdefiniowałem tak samo jak Lizińska (9-dniowe okno).
Oczywiście pół roku to niewielka próba, 108 obserwacji, ale mimo wszystko szansa na wzrost dla Y = 1 powinna być wyższa niż dla Y = 0. Ostatnie 6 miesięcy było dobrym testem, dlatego że mieliśmy do czynienia z bardzo chwiejnym WIG-iem, który rósł, spadał i w końcu wylądował prawie tam skąd zaczął (wzrost 4%). Niestety model wskazał, że nie występuje żadna zależność (prawdopodobieństwo wynosiło dla wszystkich danych praktycznie 50%). Pomiędzy X a Y także nie wystąpiła żadna korelacja. Poniżej dane można samemu prześledzić i porównać. Białe pola oznaczają neutralne dni, bo okres księżyca miał zawierać 9 dni.
Jeśli księżyc wpływa na nastroje inwestorów, to nie w tym roku.
Powiedzmy, że statystycznie jakiś wpływ księżyca na giełdę istnieje. Nawet jeśli nie da się go wykorzystać, to i tak powstaje pytanie o jego przyczynę. Odpowiedź może leżeć w tym, że światło księżyca wpływa na to jak człowiek śpi, a gorsza jakość czy długość snu może wpływać na zachowanie i podejmowane decyzje. Rzeczywiście, okazuje się, że w okresie +/- 4 dni wokół pełni księżyca ludzie gorzej i krócej śpią w porównaniu z okresem nowiu [1].
Wnioski:
Gra pod fazy księżyca nie opłaca się pomimo, że statystycznie w dniach wokół pełni stopy zwrotu często są niższe. Możemy jednak wspomagać się tą techniką dodatkowo razem z AT, AF lub teorią portfela.
Literatura:
[1] Cajochen, C. et. al, Evidence that the Lunar Cycle Influences Human Sleep, 5 August 2013,
[2] Lizińska, J., On the Rationality of Investors– Lunar Phases and Equity Returns in Poland, 2017,
[3] Yuan, K., Zheng, L., i Zhu Q., Are Investors Moonstruck? Lunar Phases and Stock Returns, 2006.
niedziela, 26 maja 2019
Jak sobie radzą polskie fundusze inwestycyjne w szerszej perspektywie?
Wielu inwestorów zastanawia się czy powierzyć pieniądze funduszom inwestycyjnym i jaki fundusz wybrać. Badań w tym zakresie jest coraz więcej, więc przyjrzałem się co niektóre z nich mówią w tym temacie. Generalnie wniosek jest taki, że polskie fundusze radzą sobie słabo, czy nawet bardzo słabo.
Stopy zwrotu
Np. D. Filip [1] zbadał efektywność funduszy w latach 2000-2015. Badanie uwzględniło zmieniającą się liczbę podmiotów. Stopa zwrotu (zysk) została obliczona za pomocą wzoru:
gdzie r(i,t) jest logarytmiczną stopą dochodu i-tego funduszu w okresie t, UP(i,t) oraz UP(i,t−1) są zaś wartościami netto jednostek uczestnictwa i-tego funduszu na koniec (t) i początek (t − 1) analizowanego okresu.
Fundusze akcyjne:
Na początku okresu było ich 10, na koniec 83. Oto stopy zwrotu vs. ryzyko:
Wg tego badania, średnioroczne stopy zwrotu oscylowały wokół 1%. To dość szokujące dane biorąc pod uwagę, że średnia stopa zwrotu WIG wyniosła w tym samym okresie 9,8%, logarytmiczna 9,3%. Ten fatalny wynik może być spowodowany tym, że wiele z funduszy po prostu było źle zarządzanych. Niektóre natomiast znajdują się na poziomie ok. 10%. To tylko pokazuje, jak trudno pokonać benchmark.
Fundusze mieszane:
Na początku było 13, na koniec 69. Stopy zwrotu vs. ryzyko:
Fundusze obligacji:
Na początku było 8, na koniec 69. Stopy zwrotu vs. ryzyko:
Fundusze obligacji ze średnią niecałe 4% pokonywały fundusze akcyjne w badanym okresie.
Szansa na nadwyżkowe stopy zwrotu
Biorąc pod uwagę odchylenia wyników poszczególnych funduszy, szczególnie akcyjnych, można postawić pytanie które konkretnie fundusze radziły sobie najlepiej. I. Dittmann [2] przeprowadziła takie badanie dla lat 2005-2017. Przyjęła dwa horyzonty inwestycyjne: 5-letni i 10-letni. Analiza miała na celu poszukać szansy uzyskania nadwyżkowej stopy zwrotu przez dany fundusz. Nadwyżkowa stopa zwrotu to po prostu zysk w % powyżej stopy wolnej od ryzyka. Problem z omawianą pracą jest taki, że Autorka podała jedynie skrótowe nazwy funduszy, co powoduje, że czytelnik musi sam zgadnąć o jaki fundusz chodzi. Poniżej przedstawiono prawdopodobieństwa osiągnięcia 5-letniej i 10-letniej nadwyżkowej stopy zwrotu dla poszczególnych funduszy.
Fundusze akcyjne
Wg tego rankingu, Aviva (bo to chyba oznacza ten skrót) radziła sobie najlepiej i szansa 5-letniej nadwyżkowej stopy zwrotu wyniosła prawie 50%. Na drugim miejscu stanęła Unikorona. Jednak już szansa na 10-letnią nadwyżkową stopę zwrotu okazała się zerowa. Możemy zauważyć, że dla LEGA (Legg Mason?) prawdopodobieństwo jej osiągnięcia to 0,5%.
Fundusze zrównoważone
Wyniki podobne jak dla akcyjnych.
Fundusze stabilnego wzrostu
W tej grupie na prawie 60% tylko 3 fundusze byłyby w stanie uzyskać pozytywną premię za ryzyko. Natomiast w horyzoncie 10-letnim zaledwie jeden fundusz tego dokonałby: Credit Agricole Stabilnego Wzrostu, który cechował się 32% szansą uzyskania nadwyżkowej stopy zwrotu.
Trzeba dopowiedzieć, że tak mała szansa na uzyskanie premii za ryzyko wynikała z faktu, że większość funduszy uzyskała ujemne premie. Cytat:
"Praktycznie całkowicie ujemne rozkłady nadwyżkowych stóp zwrotu stanowią interesujący wynik, mając na uwadze rekomendacje długich horyzontów inwestycyjnych na rynku akcji. Wskazują bowiem na nieopłacalność 10-letniego inwestowania w badanym okresie w udziałowe FIO w porównaniu z oszczędzaniem na depozytach bankowych".
Podsumowanie
W sumie Dittmann potwierdza wnioski Filipa, u którego średnie roczne stopy zwrotu funduszy akcyjnych w długim okresie były dużo poniżej indeksu. Skłania to do głębszego zastanowienia nad inwestowaniem w fundusze. Możliwe, że jak na razie powinno się je wykorzystywać jedynie do dywersyfikacji portfela, wybierając te, które posiadają w portfelu zagraniczne spółki czy surowce. Albo po prostu wybrać ETF, który jest najtańszy i być może najbardziej efektywny.
Literatura:
[1] Filip, D., Rozproszenie wyników polskich funduszy inwestycyjnych, 2017,
[2] Dittmann, I., Rozkłady nadwyżkowych stóp zwrotu z funduszy inwestycyjnych - ocena historycznej premii za ryzyko, 2018.
Stopy zwrotu
Np. D. Filip [1] zbadał efektywność funduszy w latach 2000-2015. Badanie uwzględniło zmieniającą się liczbę podmiotów. Stopa zwrotu (zysk) została obliczona za pomocą wzoru:
gdzie r(i,t) jest logarytmiczną stopą dochodu i-tego funduszu w okresie t, UP(i,t) oraz UP(i,t−1) są zaś wartościami netto jednostek uczestnictwa i-tego funduszu na koniec (t) i początek (t − 1) analizowanego okresu.
Fundusze akcyjne:
Na początku okresu było ich 10, na koniec 83. Oto stopy zwrotu vs. ryzyko:
Wg tego badania, średnioroczne stopy zwrotu oscylowały wokół 1%. To dość szokujące dane biorąc pod uwagę, że średnia stopa zwrotu WIG wyniosła w tym samym okresie 9,8%, logarytmiczna 9,3%. Ten fatalny wynik może być spowodowany tym, że wiele z funduszy po prostu było źle zarządzanych. Niektóre natomiast znajdują się na poziomie ok. 10%. To tylko pokazuje, jak trudno pokonać benchmark.
Fundusze mieszane:
Na początku było 13, na koniec 69. Stopy zwrotu vs. ryzyko:
Fundusze obligacji:
Na początku było 8, na koniec 69. Stopy zwrotu vs. ryzyko:
Fundusze obligacji ze średnią niecałe 4% pokonywały fundusze akcyjne w badanym okresie.
Szansa na nadwyżkowe stopy zwrotu
Biorąc pod uwagę odchylenia wyników poszczególnych funduszy, szczególnie akcyjnych, można postawić pytanie które konkretnie fundusze radziły sobie najlepiej. I. Dittmann [2] przeprowadziła takie badanie dla lat 2005-2017. Przyjęła dwa horyzonty inwestycyjne: 5-letni i 10-letni. Analiza miała na celu poszukać szansy uzyskania nadwyżkowej stopy zwrotu przez dany fundusz. Nadwyżkowa stopa zwrotu to po prostu zysk w % powyżej stopy wolnej od ryzyka. Problem z omawianą pracą jest taki, że Autorka podała jedynie skrótowe nazwy funduszy, co powoduje, że czytelnik musi sam zgadnąć o jaki fundusz chodzi. Poniżej przedstawiono prawdopodobieństwa osiągnięcia 5-letniej i 10-letniej nadwyżkowej stopy zwrotu dla poszczególnych funduszy.
Fundusze akcyjne
Wg tego rankingu, Aviva (bo to chyba oznacza ten skrót) radziła sobie najlepiej i szansa 5-letniej nadwyżkowej stopy zwrotu wyniosła prawie 50%. Na drugim miejscu stanęła Unikorona. Jednak już szansa na 10-letnią nadwyżkową stopę zwrotu okazała się zerowa. Możemy zauważyć, że dla LEGA (Legg Mason?) prawdopodobieństwo jej osiągnięcia to 0,5%.
Fundusze zrównoważone
Wyniki podobne jak dla akcyjnych.
Fundusze stabilnego wzrostu
W tej grupie na prawie 60% tylko 3 fundusze byłyby w stanie uzyskać pozytywną premię za ryzyko. Natomiast w horyzoncie 10-letnim zaledwie jeden fundusz tego dokonałby: Credit Agricole Stabilnego Wzrostu, który cechował się 32% szansą uzyskania nadwyżkowej stopy zwrotu.
Trzeba dopowiedzieć, że tak mała szansa na uzyskanie premii za ryzyko wynikała z faktu, że większość funduszy uzyskała ujemne premie. Cytat:
"Praktycznie całkowicie ujemne rozkłady nadwyżkowych stóp zwrotu stanowią interesujący wynik, mając na uwadze rekomendacje długich horyzontów inwestycyjnych na rynku akcji. Wskazują bowiem na nieopłacalność 10-letniego inwestowania w badanym okresie w udziałowe FIO w porównaniu z oszczędzaniem na depozytach bankowych".
Podsumowanie
W sumie Dittmann potwierdza wnioski Filipa, u którego średnie roczne stopy zwrotu funduszy akcyjnych w długim okresie były dużo poniżej indeksu. Skłania to do głębszego zastanowienia nad inwestowaniem w fundusze. Możliwe, że jak na razie powinno się je wykorzystywać jedynie do dywersyfikacji portfela, wybierając te, które posiadają w portfelu zagraniczne spółki czy surowce. Albo po prostu wybrać ETF, który jest najtańszy i być może najbardziej efektywny.
Literatura:
[1] Filip, D., Rozproszenie wyników polskich funduszy inwestycyjnych, 2017,
[2] Dittmann, I., Rozkłady nadwyżkowych stóp zwrotu z funduszy inwestycyjnych - ocena historycznej premii za ryzyko, 2018.
piątek, 24 maja 2019
Regresja logistyczna dla dowolnej zmiennej niezależnej
Porównując liniowy model prawdopodobieństwa (LMP) z regresją logistyczną (RL), doszliśmy do wniosku, że oba modele staną się tożsame, gdy spełnione będą dwa warunki: występuje tylko jedna zmienna niezależna X oraz zmienna ta jest zero-jedynkowa. Dzieje się tak dlatego, że wtedy oba modele mają tylko 2 punkty w X: 0 i 1, wobec czego naturalnie powstaje zawsze linia prosta (jako funkcja prawdopodobieństwa, P) która je łączy. Poniższy rysunek to pokazuje:
Rysunek nr 1
Już sytuacja, gdy wystąpi wiele zmiennych niezależnych typu 0-1, zmienia ten obraz. Jednak ciekawszy problem powstaje, gdy mowa o dowolnej zmiennej X, nie tylko 0-1. Takie uogólnienie jest naturalne, bo przecież wyprowadzenie RL, które pokazałem tutaj nie zakładało wcale binarności zmiennych niezależnych.
Zależność funkcyjna P od X będzie wyglądać od teraz tak jak na Rysunku nr 2:
Rysunek nr 2
X może znajdować się w przedziale (a, b). Wszystkie wartości powyżej i poniżej są niedozwolone.
Mamy więc ogólną postać Y = alfa + beta*X + e, gdzie
Ponieważ LMP jest funkcją liniową, to dla skrajnych wartości X, p będzie oczywiście zachowywać się mało sensownie. Mając naszą funkcję p = -0,3 + 0,6*X, już dla X = 2,2, dostaniemy p = 1,02 > 1. Albo dla X = 0,4, p = -0,06 < 0. Nie ma powodu, by dochód 2 był możliwy, a już 2,2 nie. Dlatego LMP nie nadaje się dla wielowartościowej zmiennej niezależnej lub dla wielu zmiennych zero-jedynkowych (które prowadzą do tego samego).
Stąd zamiast LMP zastosujemy RL.
To uporządkujmy to. Najpierw mamy regresję logistyczną dla 1 zmiennej niezależnej X typu 0-1:
(1)
Funkcja ta przyjmuje tylko dwie wartości. Dla X = 1:
(2)
Dla X = 0:
(3)
We wzorze (2) i (3) beta(0) znika dlatego, że siedzi w niej x2 = 0 (zob. wyprowadzenie regresji logistycznej tutaj).
Fakt, że występują tylko dwa punkty oznacza, że dostajemy z powrotem Rysunek nr 1, a więc tak jak wcześniej powiedziałem dostajemy de facto LMP.
Dla dwóch zmiennych X1 i X2 typu 0-1 ogólna postać RL będzie następująca:
(4)
i dostaniemy już 4 różne wartości P ze względu na wystąpienie czterech różnych zdarzeń.
Dla X1 = 1 i X2 = 0:
Dla X1 = 0 i X2 = 1:
Dla X1 = 1 i X2 = 1:
Dla X1 = 0 i X2 = 0:
Podobnie jak dla funkcji jednej zmiennej beta(0) = 0, bo siedzi w niej czwarte zdarzenie, gdy jednocześnie X1 = 0 i X2 = 0.
Czyli widać, że wraz z liczbą zmiennych niezależnych 0-1 wzrasta liczba wariantów P.
Następnie zastępujemy zmienne niezależne typu 0-1 jedną dowolną zmienną niezależną. W ten sposób powrócimy do wzoru nr (1), lecz X stanie się już zmienną o dowolnych wartościach rzeczywistych. Dzięki temu linia RL przybierze kształt dystrybuanty rozkładu prawdopodobieństwa, tak jak to pokazuje Rysunek nr 3:
Rysunek nr 3
Zmienna X może od teraz przyjmować dowolną wartość, bo funkcja nie spadnie nigdy poniżej 0 ani nie przekroczy 1.
W tym czasie sam Y ciągle przyjmuje 0 lub 1, tak że zależność od X "powinna" się prezentować następująco:
Rysunek nr 4
Poziom a oraz b nie są jednoznaczne. Dla a możemy przyjąć, że będzie to wartość, od której zaczynają się straty, tak że firma będzie musiała zbankrutować. Natomiast b możemy uznać za taką wartość od której zagrożenie bankructwa jest zerowe - P zbliża się do 1. Wówczas porównujemy Rysunek nr 4 z Rysunkiem nr 3 oraz Rysunkiem nr 2. Należy zaznaczyć, że Rysunek nr 4 wskazuje jedynie na zależność planowaną, przewidywaną, dlatego w rzeczywistości niektóre punkty przecinające 0 będą przecinać 1, a te które przecinają 1 będą przecinać 0. Potem na przykładzie to zobaczymy.
RL można uogólnić na więcej zmiennych niezależnych. W sumie RL będzie mieć postać:
(5)
gdzie X(k) przyjmuje dowolną wartość rzeczywistą.
Na koniec teoretycznej części warto dodać, że pomiędzy LMP a RL ciągle istnieje pewna zależność. Zapiszmy (5) w prostszej formie:
(6)
Wzór (6) przekształćmy na dwa sposoby a i b:
a)
b)
Po odjęciu równania (b) od (a) i dalszych prostych przekształceniach otrzymamy model logitowy:
(7)
Ten model jest najczęściej wykorzystywany do oszacowania parametrów RL, zresztą prowadzi do niego metoda największej wiarygodności, za pomocą której znajduje się właśnie parametry.
Model (7) dostarcza cennej informacji. Podstawmy P = 0,5. Dostaniemy ln1 = 0, czyli Z = 0, a to oznacza, że beta(0) = 0 oraz każde X(k) = 0 lub beta(k) = 0. To prowadzi do wniosku, że przewidywane Y = 0 (patrz Rysunek 4).
A więc doszliśmy do wniosku, że gdy P = 0,5, to przewidywane Y = 0. Jakie to ma praktyczne znaczenie? Otóż prowadzi to do wniosku, że podejmując decyzję, np. o inwestowaniu w daną spółkę, powinniśmy kierować się tym, że spółka nie upadnie z prawdopodobieństwem powyżej 0,5.
Przykład. Część A)
Stworzyłem hipotetyczną listę 98 spółek o rocznych dochodach na akcję, które nie zbankrutowały (oznaczone 1) lub zbankrutowały (0). Ogólnie mamy model ze zmienną zależną Y oznaczoną Czy_bez_upadlosci, która przyjmuje 0 (upadek) lub 1 (bez upadku). Zmienna niezależna X oznaczona jako Dochód_firmy przyjmuje wartości rzeczywiste. Na rysunku nr 4 pokazałem, jak przewidujemy zachowanie Y względem X. Ale wiadomo, że nie zawsze ta zależność będzie spełniona. Popatrzmy więc, jak w przykładzie to wygląda naprawdę:
Na podstawie tego wykresu moglibyśmy spróbować wyznaczyć poziomy a i b, korespondując z Rysunkiem nr 4. Poziom Y = 1 zaczyna się dla X bliskiego 0, stąd X = 0 uznamy na początek za wartość a. Jednocześnie oceniamy, że X = 48 to wartość, po której Y już nie przyjmuje w ogóle 0, zatem 48 może być uznane za wartość b. Jednak nie wszystko się zgadza z Rysunkiem nr 4. Wielu wartościom powyżej X = a przyporządkowane są Y = 0 a nie Y = 1, jak należałoby oczekiwać. Sugeruje to, że poziom a powinien zostać przesunięty. Zobaczymy później czy da się to zrobić.
Część B)
Na podstawie Przykładu nr 1 zbudujemy LMP.
Y = a +bX +e,
gdzie:
Y = Czy_bez_upadlosci
X = Dochód_firmy
e - składnik losowy.
Linia regresji będzie dana wzorem:
P = a +bX,
gdzie:
P - prawdopodobieństwo, że firma nie upadnie
Stosujemy KMNK:
Wartości prognozy zapisałem jako nową zmienną Pr_Czy_bez_upadlosci_lin. Oto graficzne wyniki prognozy wedle LMP:
Część C)
Wykorzystujemy te same dane, aby poprawić prognozy za pomocą RL. Wchodzimy w Model logitowy w gretlu. Pamiętajmy, że mamy tu do czynienia z klasycznym, binarnym logitem, dlatego wchodzimy w Ograniczona zmienna zależna -> model logitowy -> binarny. (Pozostałe warianty przeznaczone są dla zmiennej zależnej nie-zerojedynkowej). Zaznaczamy Dochód_firmy jako regresor, Czy_bez_upadlosci jako zależną, zaznaczamy opcję Pokaż wartość p, i OK.
Otrzymujemy oceny parametrów i inne statystyki:
Model jest istotny statystycznie. Macierz błędów omówiłem w poprzednim artykule; porównując liczbę błędów (sumarycznie 30) z prawidłowymi prognozami (68) oceniamy, że model jest dobry.
Wartości prognozy zapisałem jako nową zmienną Pr_Czy_bez_upadlosci_log. Graficzne wyniki prognozy wg RL przedstawiają się następująco:
Jest to oczywiście realizacja Rysunku nr 3. RL pięknie dostosowuje duże dochody do zerowego prawdopodobieństwa upadłości oraz duże straty do zagrożenia na poziomie prawie 100%.
Część D)
Powiedzmy, że obserwujemy nową firmę, która w ostatnim roku poniosła stratę 15 zł na akcję. Chcemy za pomocą RL ocenić szanse, że firma przetrwa. W gretlu Dane -> dodaj obserwację -> 1. Potem zaznaczamy Dochód_firmy, potem klikamy Dane -> Edycja wartości -> dopisujemy na koniec -15. Następnie wchodzimy w Prognozę mając ciągle otwarty model logitowy. Patrzymy na ostatnią wartość prognozy (99):
Czyli jest zaledwie 12% szans, że nowa firma nie upadnie, tzn. na 88% upadnie.
Co by się stało, gdyby ta firma zamiast straty 15 zł, miała 15 zł zysku? Zmieńmy dochód na +15. Teraz prawdopodobieństwo bankructwa wynosi 56%.
Czyli pomimo zysku, firma na ponad 50% i tak upadnie.
Część E)
Wszystko już wiemy, potrafimy modelować prawdopodobieństwo upadłości czy przetrwania, ale musimy teraz odpowiedzieć na pytanie czy inwestować w którąś firmę czy nie. Pierwszym kryterium, które moglibyśmy nazwać koniecznym, będzie wybór takich firm, dla których prawdopodobieństwo przetrwania będzie większe od 0,5. Z jednej strony jest to wybór intuicyjny, z drugiej wynika z samego modelu logitowego, o czym już wcześniej się rozpisałem.
W gretlu do poprzednich danych dopisujemy nową zmienną, np. Czy_bez_upadlosci_hat o formule Pr_Czy_bez_upadlosci_log > 0.5. Ta prosta formuła działa na zasadzie prawda-fałsz, a więc 1-0. Jeżeli zmienna Pr_Czy_bez_upadlosci_log > 0.5, to Czy_bez_upadlosci_hat = 1. W przeciwnym wypadku Czy_bez_upadlosci_hat = 0. To oznacza, że dostaniemy przewidywane Y z Rysunku nr 4 (dopisek hat oznacza z ang. daszek, czyli dostaniemy Y z daszkiem, tj. prognozowane Y właśnie). Tak więc dla zmiennej niezależnej X, zmienna zależna Czy_bez_upadlosci_hat, będzie się zachowywać tak:
Czyli dostajemy ten sam obraz co na Rysunku nr 4. Teraz widzimy, że poziom X = a nie wynosi 0, jak początkowo uznaliśmy, ale prawie 20. Innymi słowy, minimalnym kryterium, aby w firmę zainwestować, jest osiąganie dochodu min. 20. Porównując z poprzednim wykresem widać, że dochód = 20 koresponduje z P = 0,5, czyli rzeczywiście te poziomy powyżej 20 zł na akcję posiadają szansę na przetrwanie powyżej 50%.
Oczywiście 50% jest minimalnym poziomem, a więc możemy podwyższyć ten próg. Tym progiem może być taka wartość, dla której X = b, bo od tego poziomu żadna firma nie zbankrutowała. Ten poziom się nie zmieni i ciągle wynosi 48, tak jak wcześniej go wyznaczyliśmy w Części A. Teraz patrzymy, jakie p towarzyszy X = 48. To kryterium moglibyśmy nazwać wystarczającym. Tworzymy nową zmienną Czy_bez_upadlosci_min = Dochod_firmy = 48. Formuła ta ponownie działa na zasadzie prawda-fałsz, w ten sposób, że przybierze 1 dla firmy osiągającej dochód 48, a dla pozostałych 0. Najszybciej znajdziemy P zaznaczając Czy_bez_upadlosci_min oraz Pr_Czy_bez_upadlosci_log, a następnie wyświetlamy wykres rozrzutu XY. Dostałem taki wykres:
W sumie wystarczy, aby firma na ok. 85% była wypłacalna, aby w nią zainwestować.
Rysunek nr 1
Zależność funkcyjna P od X będzie wyglądać od teraz tak jak na Rysunku nr 2:
Rysunek nr 2
X może znajdować się w przedziale (a, b). Wszystkie wartości powyżej i poniżej są niedozwolone.
Mamy więc ogólną postać Y = alfa + beta*X + e, gdzie
Y to zmienna binarna,
X to dowolna zmienna rzeczywista, reprezentująca jakąś cechę, np. dochód,
alfa, beta - stałe parametry funkcji,
e - składnik losowy.
Wartość oczekiwana z Y staje się prawdopodobieństwem zdarzenia Y, tj. p = a + bX. To jest właśnie LMP.
Ponieważ LMP jest funkcją liniową, to dla skrajnych wartości X, p będzie oczywiście zachowywać się mało sensownie. Mając naszą funkcję p = -0,3 + 0,6*X, już dla X = 2,2, dostaniemy p = 1,02 > 1. Albo dla X = 0,4, p = -0,06 < 0. Nie ma powodu, by dochód 2 był możliwy, a już 2,2 nie. Dlatego LMP nie nadaje się dla wielowartościowej zmiennej niezależnej lub dla wielu zmiennych zero-jedynkowych (które prowadzą do tego samego).
Stąd zamiast LMP zastosujemy RL.
To uporządkujmy to. Najpierw mamy regresję logistyczną dla 1 zmiennej niezależnej X typu 0-1:
(1)
(2)
Dla X = 0:
(3)
We wzorze (2) i (3) beta(0) znika dlatego, że siedzi w niej x2 = 0 (zob. wyprowadzenie regresji logistycznej tutaj).
Fakt, że występują tylko dwa punkty oznacza, że dostajemy z powrotem Rysunek nr 1, a więc tak jak wcześniej powiedziałem dostajemy de facto LMP.
Dla dwóch zmiennych X1 i X2 typu 0-1 ogólna postać RL będzie następująca:
(4)
i dostaniemy już 4 różne wartości P ze względu na wystąpienie czterech różnych zdarzeń.
Dla X1 = 1 i X2 = 0:
Dla X1 = 1 i X2 = 1:
Dla X1 = 0 i X2 = 0:
bo musi zajść:
Czyli widać, że wraz z liczbą zmiennych niezależnych 0-1 wzrasta liczba wariantów P.
Następnie zastępujemy zmienne niezależne typu 0-1 jedną dowolną zmienną niezależną. W ten sposób powrócimy do wzoru nr (1), lecz X stanie się już zmienną o dowolnych wartościach rzeczywistych. Dzięki temu linia RL przybierze kształt dystrybuanty rozkładu prawdopodobieństwa, tak jak to pokazuje Rysunek nr 3:
Rysunek nr 3
Zmienna X może od teraz przyjmować dowolną wartość, bo funkcja nie spadnie nigdy poniżej 0 ani nie przekroczy 1.
W tym czasie sam Y ciągle przyjmuje 0 lub 1, tak że zależność od X "powinna" się prezentować następująco:
Rysunek nr 4
Poziom a oraz b nie są jednoznaczne. Dla a możemy przyjąć, że będzie to wartość, od której zaczynają się straty, tak że firma będzie musiała zbankrutować. Natomiast b możemy uznać za taką wartość od której zagrożenie bankructwa jest zerowe - P zbliża się do 1. Wówczas porównujemy Rysunek nr 4 z Rysunkiem nr 3 oraz Rysunkiem nr 2. Należy zaznaczyć, że Rysunek nr 4 wskazuje jedynie na zależność planowaną, przewidywaną, dlatego w rzeczywistości niektóre punkty przecinające 0 będą przecinać 1, a te które przecinają 1 będą przecinać 0. Potem na przykładzie to zobaczymy.
RL można uogólnić na więcej zmiennych niezależnych. W sumie RL będzie mieć postać:
(5)
gdzie X(k) przyjmuje dowolną wartość rzeczywistą.
Na koniec teoretycznej części warto dodać, że pomiędzy LMP a RL ciągle istnieje pewna zależność. Zapiszmy (5) w prostszej formie:
(6)
Wzór (6) przekształćmy na dwa sposoby a i b:
a)
b)
Po odjęciu równania (b) od (a) i dalszych prostych przekształceniach otrzymamy model logitowy:
(7)
Ten model jest najczęściej wykorzystywany do oszacowania parametrów RL, zresztą prowadzi do niego metoda największej wiarygodności, za pomocą której znajduje się właśnie parametry.
Model (7) dostarcza cennej informacji. Podstawmy P = 0,5. Dostaniemy ln1 = 0, czyli Z = 0, a to oznacza, że beta(0) = 0 oraz każde X(k) = 0 lub beta(k) = 0. To prowadzi do wniosku, że przewidywane Y = 0 (patrz Rysunek 4).
A więc doszliśmy do wniosku, że gdy P = 0,5, to przewidywane Y = 0. Jakie to ma praktyczne znaczenie? Otóż prowadzi to do wniosku, że podejmując decyzję, np. o inwestowaniu w daną spółkę, powinniśmy kierować się tym, że spółka nie upadnie z prawdopodobieństwem powyżej 0,5.
Przykład. Część A)
Stworzyłem hipotetyczną listę 98 spółek o rocznych dochodach na akcję, które nie zbankrutowały (oznaczone 1) lub zbankrutowały (0). Ogólnie mamy model ze zmienną zależną Y oznaczoną Czy_bez_upadlosci, która przyjmuje 0 (upadek) lub 1 (bez upadku). Zmienna niezależna X oznaczona jako Dochód_firmy przyjmuje wartości rzeczywiste. Na rysunku nr 4 pokazałem, jak przewidujemy zachowanie Y względem X. Ale wiadomo, że nie zawsze ta zależność będzie spełniona. Popatrzmy więc, jak w przykładzie to wygląda naprawdę:
Na podstawie tego wykresu moglibyśmy spróbować wyznaczyć poziomy a i b, korespondując z Rysunkiem nr 4. Poziom Y = 1 zaczyna się dla X bliskiego 0, stąd X = 0 uznamy na początek za wartość a. Jednocześnie oceniamy, że X = 48 to wartość, po której Y już nie przyjmuje w ogóle 0, zatem 48 może być uznane za wartość b. Jednak nie wszystko się zgadza z Rysunkiem nr 4. Wielu wartościom powyżej X = a przyporządkowane są Y = 0 a nie Y = 1, jak należałoby oczekiwać. Sugeruje to, że poziom a powinien zostać przesunięty. Zobaczymy później czy da się to zrobić.
Część B)
Na podstawie Przykładu nr 1 zbudujemy LMP.
Y = a +bX +e,
gdzie:
Y = Czy_bez_upadlosci
X = Dochód_firmy
e - składnik losowy.
Linia regresji będzie dana wzorem:
P = a +bX,
gdzie:
P - prawdopodobieństwo, że firma nie upadnie
Stosujemy KMNK:
Wartości prognozy zapisałem jako nową zmienną Pr_Czy_bez_upadlosci_lin. Oto graficzne wyniki prognozy wedle LMP:
Zgodnie z oczekiwaniami im większe dochody, tym szansa, że firma nie zbankrutuje, rośnie. Niestety także dla wielu wartości P < 0 oraz P > 1, co dowodzi, że model jest nieprawidłowy. Gdy firma poniosła duże straty, poniżej -30 zł na akcję, P stało się ujemne. Analogicznie, dla dużych dochodów, powyżej 70 zł, P przekracza 1. Należy więc model skorygować, najlepiej stosując RL.
Wykorzystujemy te same dane, aby poprawić prognozy za pomocą RL. Wchodzimy w Model logitowy w gretlu. Pamiętajmy, że mamy tu do czynienia z klasycznym, binarnym logitem, dlatego wchodzimy w Ograniczona zmienna zależna -> model logitowy -> binarny. (Pozostałe warianty przeznaczone są dla zmiennej zależnej nie-zerojedynkowej). Zaznaczamy Dochód_firmy jako regresor, Czy_bez_upadlosci jako zależną, zaznaczamy opcję Pokaż wartość p, i OK.
Otrzymujemy oceny parametrów i inne statystyki:
Model jest istotny statystycznie. Macierz błędów omówiłem w poprzednim artykule; porównując liczbę błędów (sumarycznie 30) z prawidłowymi prognozami (68) oceniamy, że model jest dobry.
Wartości prognozy zapisałem jako nową zmienną Pr_Czy_bez_upadlosci_log. Graficzne wyniki prognozy wg RL przedstawiają się następująco:
Część D)
Powiedzmy, że obserwujemy nową firmę, która w ostatnim roku poniosła stratę 15 zł na akcję. Chcemy za pomocą RL ocenić szanse, że firma przetrwa. W gretlu Dane -> dodaj obserwację -> 1. Potem zaznaczamy Dochód_firmy, potem klikamy Dane -> Edycja wartości -> dopisujemy na koniec -15. Następnie wchodzimy w Prognozę mając ciągle otwarty model logitowy. Patrzymy na ostatnią wartość prognozy (99):
Czyli jest zaledwie 12% szans, że nowa firma nie upadnie, tzn. na 88% upadnie.
Co by się stało, gdyby ta firma zamiast straty 15 zł, miała 15 zł zysku? Zmieńmy dochód na +15. Teraz prawdopodobieństwo bankructwa wynosi 56%.
Czyli pomimo zysku, firma na ponad 50% i tak upadnie.
Część E)
Wszystko już wiemy, potrafimy modelować prawdopodobieństwo upadłości czy przetrwania, ale musimy teraz odpowiedzieć na pytanie czy inwestować w którąś firmę czy nie. Pierwszym kryterium, które moglibyśmy nazwać koniecznym, będzie wybór takich firm, dla których prawdopodobieństwo przetrwania będzie większe od 0,5. Z jednej strony jest to wybór intuicyjny, z drugiej wynika z samego modelu logitowego, o czym już wcześniej się rozpisałem.
W gretlu do poprzednich danych dopisujemy nową zmienną, np. Czy_bez_upadlosci_hat o formule Pr_Czy_bez_upadlosci_log > 0.5. Ta prosta formuła działa na zasadzie prawda-fałsz, a więc 1-0. Jeżeli zmienna Pr_Czy_bez_upadlosci_log > 0.5, to Czy_bez_upadlosci_hat = 1. W przeciwnym wypadku Czy_bez_upadlosci_hat = 0. To oznacza, że dostaniemy przewidywane Y z Rysunku nr 4 (dopisek hat oznacza z ang. daszek, czyli dostaniemy Y z daszkiem, tj. prognozowane Y właśnie). Tak więc dla zmiennej niezależnej X, zmienna zależna Czy_bez_upadlosci_hat, będzie się zachowywać tak:
Czyli dostajemy ten sam obraz co na Rysunku nr 4. Teraz widzimy, że poziom X = a nie wynosi 0, jak początkowo uznaliśmy, ale prawie 20. Innymi słowy, minimalnym kryterium, aby w firmę zainwestować, jest osiąganie dochodu min. 20. Porównując z poprzednim wykresem widać, że dochód = 20 koresponduje z P = 0,5, czyli rzeczywiście te poziomy powyżej 20 zł na akcję posiadają szansę na przetrwanie powyżej 50%.
W sumie wystarczy, aby firma na ok. 85% była wypłacalna, aby w nią zainwestować.
Subskrybuj:
Posty (Atom)