niedziela, 31 sierpnia 2025

Krótka uwaga na temat free floatu

 Ostatnia wycena ad hoc WIG20, czyli z modelu Gordona, okazuje się jeszcze niższa niż te 1950 zł. Problem polega na wstawieniu odpowiedniej kapitalizacji i liczby akcji. W poprzedniej wycenie wstawiłem nie tyle wyemitowaną liczbę akcji, co liczbę akcji w obrocie, tj. free float. Po uwzględnieniu wszystkich akcji (na podstawie danych z bankier.pl), wycena spada do 1882 zł (link).

Można by przekonywać, że wartość tworzą jedynie ci, którzy handlują akcjami i stąd wycena nie powinna dotyczyć części zamrożonej. Free float obejmuje jednak tylko liczbę akcji na daną chwilę, a pakiety kontrolne też mogą być sprzedawane. 

Mniejszy free float rodzi zarówno przychody jak i koszty. Koszty to mniejsza płynność (trudniej kupić / sprzedać po własnej cenie) oraz związane z tym ryzyko manipulacji kursem (przez zmowę spekulantów). Ponadto duża koncentracja akcji w rękach paru podmiotów rodzi ryzyko wywłaszczenia. O problemie wywłaszczenia, czy w ogóle to jest legalne, pisałem w art. Wyciskanie akcjonariusza, czyli kiedy wycena nie ma sensu. W sumie wzrasta koszt kapitału własnego - a to obniża wartość. 

Z drugiej strony większa koncentracja kapitału w rękach inwestorów instytucjonalnych sprawia, że zarząd spółki nie może robić co mu się żywnie podoba i może być łatwo odwołany. Duzi inwestorzy patrzą na ręce zarządowi i nie będą pozwalać np. na dodatkową emisję akcji lub obligacji. Oczywiście ta zaleta koncentracji kapitału powstaje jedynie przy warunku, że pakiety kontrolne nie należą do podmiotów powiązanych z zarządzającymi. Jeśli tak się dzieje, to nie można mieć pewności, że będą zatrudniani ludzie wg klucza kompetencji, a wszelkie emisje będą tylko ułatwiane. 

W każdym razie kupując akcje powinniśmy też zwracać uwagę na poziom free floatu i kto ma kontrolę. Wydaje się, że najlepszą sytuacją jest, jeśli po pierwsze kontrola jest rozproszona między wiele funduszy niezależnych od siebie, ale sumarycznie mają powyżej 50%, a po drugie, żeby ta kontrola nie była powyżej powiedzmy 80-85%. Wzorową sytuacją jest Kruk (kontrola = 73%, najwięcej ma niecałe 13% fundusz), a przeciwieństwem mBank (kontrola 90,08%, a inny (niemiecki) bank ma aż 69% akcji). 

niedziela, 24 sierpnia 2025

Policzmy w końcu poprawnie wskaźniki indeksów

Zawsze gdy analizujemy dane finansowe, staramy się je uzyskać z najbardziej rzetelnych i aktualnych źródeł. Gdy więc chcemy zobaczyć bieżące C/Z i C/WK indeksu lub spółki, pierwszym wyborem powinno być to oficjalne. W przypadku WIG20, będzie nim strona gpwbenchmark. Widzimy, że C/Z równa się 14,66, a C/WK 1,64 (stan na 21.08.2025). Gdy jednak chcemy znaleźć historyczne wskaźniki, to dużo łatwiej oprzeć się na źródłach pośrednich. Korzystamy więc np. ze stooq. I okazuje się, że portal pokazuje inne dane: C/Z = 16,19 i C/WK = 2,86. Z czego wynika ta różnica? Czy stooq.pl pokazuje błędne wartości?

W jaki sposób policzyć wskaźnik dla indeksu? Zajmijmy się C/WK. Na logikę, cały indeks jako portfel traktujemy jak jedną spółkę. Czyli:

C/WK = Kapitalizacja portfela / Wartość księgowa portfela


Całą kapitalizację oznaczymy Kap. Powiedzmy, że mamy 3 spółki w portfelu.  Zapiszemy:


gdzie Kap_i oznacza kapitalizację spółki i, czyli


gdzie N_i - liczba akcji spółki i, C_i - cena akcji. 

Wtedy C/WK indeksu ma postać:




 WK_i - wartość księgowa na akcję spółki i.

Taką właśnie definicję wskaźników znajdziemy w dokumencie GPW "Podstawowe algorytmy wskaźników rynku kapitałowego". Jest to nic innego jak średnia ważona harmoniczna:


I dla C/Z analogicznie:


gdzie Z_i - EPS dla i-tej spółki.

Taki wzór powinno się stosować.

Dlaczego nazywa się to średnią ważoną, skoro nie widać tu żadnych wag? Wzór można tak przekształcić, żeby wagi się pojawiły. Wtedy będzie można porównać powyższy wzór z innymi średnimi ważonymi. Najpierw zdefiniujemy udział i-tej spółki w portfelu:  



Czy za udział można by alternatywnie wstawić liczbę akcji podzieloną przez liczbę wszystkich akcji? Nie, bo wtedy split czy resplit zmieniałby udział. "Waga" jest więc ciut lepszym słowem niż udział, bo jak coś waży, to wiadomo o co chodzi. Definicja udziału wywodzi się jednak formalnie z teorii portfela, w której inwestor przeznacza określoną sumę pieniędzy na zakup danego waloru (zob. ten wpis, w którym jest to wyjaśnienie). 

To teraz przekształcimy pierwotny wzór:

 


Czyli dostajemy postać:



Powiedzmy jednak, że jesteśmy otwarci na eksperymenty z innymi metodami. Porównajmy naszą formułę ze średnią ważoną arytmetyczną i geometryczną.

Średnia ważona arytmetyczna

To metoda intuicyjna w tym sensie, że wykorzystujemy naturalnie wagi (udziały) spółek z portfela. Każdą wagę mnożymy przez wskaźnik dla danej spółki:


Wskaźnik C/Z wygląda analogicznie. Teraz pomyślmy co się stanie, gdy zysk trzeciej spółki wynosi zero lub jest bardzo niski. C/Z skacze do nieskończoności albo do ogromnych wartości, a więc średnia ważona C/Z dla całego portfela będzie nienormalnie duża. Czyli z punktu widzenia C/Z widać, że nie należy tego sposobu używać. Ale wszystkie wskaźniki muszą być liczone tą samą metodą, aby zachować spójność i proporcjonalność (chociażby, żeby policzyć ROE ze stosunku C/WK do C/Z). Zatem dostajemy dowód, że C/WK też nie może być liczone w ten sposób.   


Średnia ważona geometryczna

Trzecią możliwością jest średnia geometryczna z wagami w potęgach:


Tutaj można przeprowadzić identyczne rozumowanie co w przypadku średniej arytmetycznej. Jeśli zysk wyniesie zero, to średnia ważona geometryczna skacze do nieskończoności. Nie musi być to nawet dokładnie zero, wystarczy, że będzie bardzo mały. Gdyby była strata, to już w ogóle nie dałoby się nic policzyć. Jedna spółka całkowicie psuje wskaźnik. Trzeba więc porzucić tę metodę, ale żeby zachować spójność, także C/WK nie może być w ten sposób liczone.


Przykłady
Zobaczmy przykłady trzech wariantów-okresów. Dla uproszczenia liczba akcji wszędzie równa się 1.

Okres I – wszystkie spółki mają podobny zysk
Dane wejściowe:
Spółka 1: C1 = 100, Z1 = 10, Kap1 = 100, C1/Z1 = 10
Spółka 2: C2 = 150, Z2 = 10, Kap2 = 150, C2/Z2 = 15
Spółka 3: C3 = 120, Z3 = 10, Kap3 = 120, C3/Z3 = 12

Suma kapitalizacji i zysków: 
Kap1 + Kap2 + Kap3 = 370 
Z1 + Z2 + Z3 = 30

Wagi: 
w1 = Kap1 / (Kap1 + Kap2 + Kap3) = 100 / 370 = 0,27
w2 = 150 / 370 = 0,41 
w3 = 120 / 370 = 0,32

Średnie ważone: 
Arytmetyczna = 12,7
Geometryczna = 12,5
Harmoniczna = 12,3


Okres II – spółka 3 ma spadek zysku o 95% i kapitalizacji o 40%
Dane wejściowe: 
Spółka 1: C1 = 100, Z1 = 10, Kap1 = 100, C1/Z1 = 10 
Spółka 2: C2 = 150, Z2 = 10, Kap2 = 150, C2/Z2 = 15 
Spółka 3: C3 = 72, Z3 = 0,5, Kap3 = 72, C3/Z3 = 144

Suma kapitalizacji i zysków: 
Kap1 + Kap2 + Kap3 = 322 
Z1 + Z2 + Z3 = 20,5

Wagi: 
w1 = Kap1 / (Kap1 + Kap2 + Kap3) = 100 / 322 ≈ 0,31
w2 = 150 / 322 ≈ 0,47 
w3 = 72 / 322 ≈ 0,22

Średnie ważone: 
Arytmetyczna = 42,3
Geometryczna = 21,9
Harmoniczna = 15,7


Okres III – spółka 3 ma zysk zero i spadek ceny o 50%
Dane wejściowe: 
Spółka 1: C1 = 100, Z1 = 10, Kap1 = 100, C1/Z1 = 10 
Spółka 2: C2 = 150, Z2 = 10, Kap2 = 150, C2/Z2 = 15 
Spółka 3: C3 = 60, Z3 = 0, Kap3 = 60, C3/Z3 = nieskończoność

Suma kapitalizacji i zysków: 
Kap1 + Kap2 + Kap3 = 310 
Z1 + Z2 + Z3 = 20

Wagi: 
w1 = Kap1 / (Kap1 + Kap2 + Kap3) = 100 / 310 = 0,32 
w2 = 150 / 310 = 0,48 
w3 = 60 / 310 = 0,19

Średnie ważone: 
Arytmetyczna = nieskończoność 
Geometryczna = nieskończoność 
Harmoniczna = 15,5


Spójrzmy jak "oporna" jest ta średnia harmoniczna - nawet przy nieskończonej wartości C/Z dla jednego składnika, jest stabilna, a dla ogromnych wzrostów wskaźników niewiele się zmienia. 

Co ze stratami?

Konstrukcja średniej harmonicznej pozwala też użyć jej dla spółek ze stratami, jeśli nie przeważają nad zyskami pozostałych. Ponieważ wskaźniki poszczególnych spółek sztucznie usuwa się z analizy, gdy występują straty, to lepiej używać wzoru ze stosunkiem sum, ponieważ ten z wagami wymaga użycia indywidualnych wskaźników.
 
I tu zaczyna się problem. Obecnie dwie z WIG20 są pod kreską (Pepco i PGE). Jeśli ich nie uwzględnimy, to sztucznie zaniżymy C/Z. Powoduje to nie tylko błędną analizę porównawczą, ale też dostaniemy nieprawidłowe ROE dzieląc C/WK przez C/Z. 

Potrzebujemy więc odpowiednich danych, tj. strat dla tych spółek, których nie wyłuskam ze wskaźników (raczej nie podaje się ich, gdy są ujemne). Spojrzałem więc na dane w dwóch źródłach - bankier.pl i biznesradar.pl. Oba portale pokazują inne liczby. 
Biznesradar: dla Pepco wskazuje ponad 3 mld zł strat, dla PGE ponad 1,5 mld strat. 
Bankier: dla Pepco w ogóle nie wykazuje ani zysku ani strat, dla PGE to 1,64 mld strat. 

Biorąc dane Bankiera dostałbym C/Z  = 14,59, natomiast wg Bizneradar ok. 17. Zakładając, że bankier.pl ma bardziej poprawne dane, możemy uznać, że gpw uwzględnia straty - wtedy wszystko będzie prawidłowo (przypominam, że podali 14,66).

Straty trzeba koniecznie uwzględnić we wskaźnikach nie tylko dlatego, że  błędnie omijamy gorsze spółki, ale także po to, aby utrzymać współmierność z innymi wskaźnikami. Jeżeli policzymy C/WK normalnie sumując wszystkie kapitalizacje i dzieląc je na sumę wartości księgowych (czyli średnią harmoniczną), dostaniemy dla WIG20 1,65 (stan na 21.08.2025), czyli praktycznie idealnie się zgadza z danymi gpw, a różnica wynika z zaokrągleń (przypominam, że na gpw podali 1,64).


Jak robią na stooq.pl?

Wg średniej ważonej arytmetycznej dostajemy C/Z 17,7 i C/WK 3,25. Wg średniej ważonej geometrycznej będzie to odpowiednio 13,97 i 2,26. W ogóle to nie odpowiada 16,19 i 2,86, które prezentował stooq na 21.08.  Czyli stosują jeszcze jakąś inną metodę. Jedynie, co warto odnotować, to to, że (17,7 + 13,97) / 2 = 15,84, a (3,25 + 2,26) / 2 =  daje 2,76, czyli naprawdę blisko. Sugeruje to, że używają jakiejś pośredniej metody.

Problem z ROE

Takie różnice w szacowaniu wskaźników prowadzą do dużych rozbieżności w określeniu rentowności kapitału własnego. Poprawna metoda, którą tu pokazałem, wskazuje, że dla WIG20 ROE = 1,66 / 15,11 = ok. 11%. Wg oficjalnych wskaźników GPW, byłoby to 1.64 / 14.66 = 11,2%. Ale wg stooq to jest 17,7%. Raczej nie jest przypadkiem, że wg śr. ważonej arytm. wychodzi 17,8%.

Wszystko wskazuje na to, że stooq.pl zawyża wszystkie te wskaźniki, co prowadzi do zaburzeń przy wycenie indeksu. Moje obliczenia we wpisie Jaka piękna katastrofa , w którym badałem na szybko historyczne EPS, ROE i WK okazują się błędne. Jednak sama wycena, którą wtedy pokazałem, może być nadal poprawna. Od tamtego czasu wzrósł EPS, zatem będzie wyższa. Na ten moment wyceniam WIG20 na ok. 1950, czyli nadal uważam, że indeks jest mocno przewartościowany.

Wszystkie obliczenia do tego artykułu zamieściłem w tym linku.

poniedziałek, 11 sierpnia 2025

Przecięcie KSP z DSP to zapowiedź bessy?

Ostatnio giełda mnie mocno zaskakuje, chyba nie tylko mnie (nie spodziewałem się tak szybkiego powrotu do hossy), dlatego nie będę się mądrzył, że zaraz to na pewno wszystko walnie. Jedynie zwrócę uwagę na ryzyko jakie warto wziąć pod uwagę w najbliższej przyszłości.

Parę lat temu napisałem ten wpis i omówiłem wyniki badań związku między spredem rentowności a zmianami PKB. Dla przypomnienia: 

KSP - krótkoterminowa stopa procentowa
DSP - długoterminowa stopa procentowa

Badania Clintona [Clinton, K., The term structure of interest rates as a leading indicator of economic activity: A technical note, 1995] wskazują, że spread między DSP a KSP to "doskonały predyktor zmian aktywności gospodarczej w Kanadzie". Gdy DSP jest znacznie większa od KSP, silny wzrost PKB nastąpi mniej więcej w kolejnym roku. Gdy KSP > DSP, prawdopodobnie szykuje się recesja. Trzeba dodać, że to badanie jest dość stare, bo dotyczy lat 1962-93.

Przeanalizujemy sytuację w USA. Do niedawna KSP była rzeczywiście większa od DSP - i to po raz pierwszy w tak widoczny sposób. Co więcej, porównałem momenty lokalnych szczytów S&P 500, po których następował spadek nie mniej niż 20%:


Najczęściej szczyty korespondowały z przecięciami KSP (czerwona) z DSP (zielona). Oczywiście sam moment był losowy, ale widać, że zakres, gdy obie stopy były bardzo blisko siebie, wiązał się z największymi spadkami indeksu. W dwóch przypadkach mechanizm ten nie zadziałał (1987, 2022) i prawidłowo, bo przyczyny leżały poza gospodarką USA. Wprawdzie na początku 2023 nastąpiło przecięcie, ale było to już zakończenie krótkiej, wojennej, bessy. Chociaż raczej mówimy tu o pełnym przecięciu, to czasem wystarczyło stykanie się. W 2019 KSP i DSP dotykały się, ale nie przecięły i nie było bessy - a mimo wszystko indeks i tak zaliczył istotną korektę.

Z czego wynika ten mechanizm? W uproszczeniu powinniśmy kojarzyć tak: KSP - teraźniejszość i bliska przyszłość (do roku), DSP - niedaleka przyszłość (do roku) plus daleka przyszłość (po roku). Przez przyszłość mam na myśli sferę realną oraz inflację. Inflacja teraz jest nieistotna, zajmijmy się częścią realną. W uproszczeniu: większe KSP niż DSP to lepsza teraźniejszość niż przyszłość i vice versa - mniejsze KSP niż DSP to gorsza teraźniejszość niż przyszłość.

To jednak duże uproszczenie, a sam spred niewiele mówi, biorąc pod uwagę, że jest on ujemny od końcówki 2022. Przez to zresztą rok temu pomyliłem się, sądząc, że bessa tuż za rogiem. Trzeba podzielić przyszłość na dwie części:
- bieżące oczekiwania, bardziej pewne
- większą niepewność przyszłości.

Jeżeli KSP przegania DSP, to można sądzić, że następuje przesadny optymizm czasem dyskontowany od razu (np. rok 2000), a czasami dopiero gdy rynek orientuje się, że był to hurraoptymizm i następuje powrót KSP do DSP (rok 2007). W pierwszym przypadku inwestorzy wierzą, że inwestycje firm szybciej się zwrócą lub przyniosą większe zyski. Sprzedają więc krótkie terminy i kupują długie, podwyższając KSP. W drugim przypadku  ich oczekiwania maleją albo niepewność rośnie i znów kupują krótkie terminy, obniżając KSP. Jednak niepewność przyszłości i bieżące oczekiwania powinniśmy oddzielić. Jeśli pierwsze rośnie, a drugie spada, to DSP może stać w miejscu (bo DSP zawiera obydwa czynniki), a KSP może ją wtedy przeciąć. Gdy niepewność zacznie rosnąć, a bieżące oczekiwania będą stać w miejscu, to KSP może stać w miejscu (bo KSP nie zawiera dalekiej niepewności), a DSP przeciąć KSP (z dołu w górę). I taka sytuacja byłaby pozytywnym sygnałem w dłuższym terminie mimo iż niepewność wzrasta. Spred staje się dodatni, a rosnącą niepewność inwestorzy uznają bardziej za szansę niż zagrożenie, wiedząc, że w równowadze stopa procentowa powinna odzwierciedlać produktywność gospodarki.

piątek, 1 sierpnia 2025

Poprawka do analizy premii za ryzyko S&P 500

Wykonana ostatnio analiza premii za ryzyko S&P 500 wskazywała, że roczne zmiany można modelować za pomocą ARMA(7, 4). Dziś widzę, że zawierała 3 problemy. Po pierwsze metoda "full" w funkcji autoarfima (pakiet rugarch dla R), którą wówczas uważałem za bardziej precyzyjną, lepszą, wcale taka nie jest. Poprzez symulacje przetestowałem ją i okazało się, że "partial" dużo lepiej znajduje prawidłowe rzędy. Wydawało się, że skoro "full" jest tak potwornie wolna, bo sprawdza wszystkie możliwe kombinacje (a więc np. 1 rzędu nie ma, ale jest drugi i trzeci, albo drugiego nie ma, ale jest pierwszy i trzeci, albo pierwszego i drugiego nie ma, ale jest trzeci itd.), to będzie najdokładniejsza. Chociaż na obrazkach rzeczywiście dopasowanie było niezłe, to jednak wiadomo, że w próbie zawsze może być zbyt przypadkowe. 

Drugi problem to założenie rozkładu t-studenta w resztach modelu. Właściwie dlaczego założyłem taki? Stopy zwrotu są zazwyczaj dalekie od normalności, a rozkład Studenta uwzględnia grubsze ogony. Proces MA można zapisać jako AR wielu rzędów z przeszłości (zob. ten wpis), a skoro AR to właśnie stopa zwrotu, tylko opóźniona ze stałymi współczynnikiami, to znaczy, że proces MA ma ten sam rozkład - zakładając stacjonarność stopy zwrotu. A skoro (stacjonarny) MA ma ten sam rozkład, to znaczy, że składnik losowy też ma ten sam rozkład (bo MA jedynie mnoży jego wartość z przeszłości przez stałą). W sumie więc, jeśli stopa zwrotu ma rozkład Studenta, to reszty w ARMA też muszą taki posiadać.

Tylko że okazało się, że nie można odrzucić hipotezy o gaussowskości ostatnich 80 rocznych stóp zwrotu lub premii:

> shapiro.test(as.numeric(stopa_zwrotu))

	Shapiro-Wilk normality test

data:  as.numeric(stopa_zwrotu)
W = 0.9804, p-value = 0.257

Nawet ostatnie 120 danych (czyli od 1904 r.) nie zmieniło tego wyniku:

	Shapiro-Wilk normality test

data:  as.numeric(stopa_zwrotu)
W = 0.9854, p-value = 0.221

 
Nienormaność pojawia się dopiero przy większych częstościach. Bardzo możliwe, że przy większej liczbie rocznych obserwacji należy odrzucić rozkład normalny, ale dla danych, które analizowałem, nie można tego zrobić.

Po trzecie porównałem autoarfima z auto.arima z pakietu forecast, zrobiłem różne symulacje ARMA i czasami auto.arima wskazywała prawidłowy model, czasami autoarfima. Stąd doszedłem do wniosku, że należy wykonywać testy obiema funkcjami. W dodatku najlepiej stosować zarówno kryterium nie tylko BIC, ale też AIC.

Premia za ryzyko (od samych akcji)

autoarfima:

klaster <- makeCluster(detectCores() - 1)

premia_model_arma <- autoarfima(data = premia, ar.max = 10, ma.max = 10, cluster = klaster, solver = "nlminb")

stopCluster(klaster)

Wszystkie kryteria wskazały ten sam model:

*----------------------------------*
*          ARFIMA Model Fit        *
*----------------------------------*
Mean Model	: ARFIMA(0,0,0)
Distribution	: norm 

Optimal Parameters
------------------------------------
       Estimate  Std. Error  t value Pr(>|t|)
mu     0.077126    0.021203   3.6376 0.000275
sigma  0.189641    0.014992  12.6491 0.000000

Robust Standard Errors:
       Estimate  Std. Error  t value Pr(>|t|)
mu     0.077126    0.019321   3.9917 0.000066
sigma  0.189641    0.017623  10.7608 0.000000

LogLikelihood : 19.4946 

Information Criteria
------------------------------------
                     
Akaike       -0.43737
Bayes        -0.37781
Shibata      -0.43857
Hannan-Quinn -0.41349

Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
                        statistic p-value
Lag[1]                     0.7322  0.3922
Lag[2*(p+q)+(p+q)-1][2]    1.5233  0.3557
Lag[4*(p+q)+(p+q)-1][5]    4.0949  0.2425

H0 : No serial correlation

Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
                        statistic p-value
Lag[1]                      1.392  0.2381
Lag[2*(p+q)+(p+q)-1][2]     1.749  0.3081
Lag[4*(p+q)+(p+q)-1][5]     2.110  0.5928


ARCH LM Tests
------------------------------------
             Statistic DoF P-Value
ARCH Lag[2]      2.253   2  0.3241
ARCH Lag[5]      2.403   5  0.7911
ARCH Lag[10]     5.979  10  0.8171

Nyblom stability test
------------------------------------
Joint Statistic:  0.2461
Individual Statistics:            
mu    0.1522
sigma 0.0835

Asymptotic Critical Values (10% 5% 1%)
Joint Statistic:     	 0.61 0.749 1.07
Individual Statistic:	 0.35 0.47 0.75


Model jest dobrze dopasowany: stabilny, nie występują autokorelacje w resztach ani ARCH. Czyli nie żadna ARMA, ale zwykła średnia. Średnioroczna premia za ryzyko wynosi 7,7% +/- 19% (nie mylmy tu błędu standardowego reszt, który wynosi 1,9% - on wskazuje jak średnia przypadkowo się odchyla, a nie sama stopa zwrotu).

To samo auto.arima:

premia_model_arma <- auto.arima(premia, max.p=10, max.q=10, stepwise = FALSE,  approximation = FALSE)

Argumenty stepwise i approximation ustawiam na FALSE, bo zwiększają precyzję algorytmu. Niezależnie od kryterium dostaniemy model:

Series: premia 
ARIMA(0,0,0) with non-zero mean 

Coefficients:
       mean
      0.077
s.e.  0.021

sigma^2 = 0.0364:  log likelihood = 19.49
AIC=-34.99   AICc=-34.83   BIC=-30.23

Obydwie funkcje - na obydwu kryteriach BIC i  AIC wskazały ten sam model - zwykłą średnią. To jest silny argument za odrzuceniem poprzedniego modelu ARMA.

Można pokazać to na wykresie:


Premia za ryzyko od akcji i obligacji skarbowych

Obligacje skarbowe są obarczone głównie ryzykiem stopy procentowej. Aby je uwzględnić metodą ad hoc, odejmujemy od stopy zwrotu z akcji rentowność bonów skarbowych. Nie jest to prawdziwa premia, bo nie uwzględnia zależności między akcjami a obligacjami, ale daje pewien obraz. 

Test na normalność:


	Shapiro-Wilk normality test

data:  premia
W = 0.9845, p-value = 0.447

Czyli też zachowuje się normalnie.

Analogicznie jak poprzednio używamy autoarfima i auto.arima.

autoarfima:

*----------------------------------*
*          ARFIMA Model Fit        *
*----------------------------------*
Mean Model	: ARFIMA(0,0,0)
Distribution	: norm 

Optimal Parameters
------------------------------------
       Estimate  Std. Error  t value Pr(>|t|)
mu     0.089739    0.019332   4.6421 0.000003
sigma  0.172907    0.013670  12.6491 0.000000

Robust Standard Errors:
       Estimate  Std. Error  t value Pr(>|t|)
mu     0.089739    0.017760   5.0529        0
sigma  0.172907    0.012238  14.1292        0

LogLikelihood : 26.885 

Information Criteria
------------------------------------
                     
Akaike       -0.62212
Bayes        -0.56257
Shibata      -0.62333
Hannan-Quinn -0.59825

Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
                        statistic p-value
Lag[1]                     0.4299  0.5121
Lag[2*(p+q)+(p+q)-1][2]    1.4963  0.3619
Lag[4*(p+q)+(p+q)-1][5]    4.3507  0.2134

H0 : No serial correlation

Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
                        statistic p-value
Lag[1]                     0.9464  0.3306
Lag[2*(p+q)+(p+q)-1][2]    3.1373  0.1288
Lag[4*(p+q)+(p+q)-1][5]    4.8670  0.1640


ARCH LM Tests
------------------------------------
             Statistic DoF P-Value
ARCH Lag[2]      5.497   2 0.06403
ARCH Lag[5]      5.442   5 0.36440
ARCH Lag[10]    10.107  10 0.43112

Nyblom stability test
------------------------------------
Joint Statistic:  0.1892
Individual Statistics:            
mu    0.1121
sigma 0.0580

Asymptotic Critical Values (10% 5% 1%)
Joint Statistic:     	 0.61 0.749 1.07
Individual Statistic:	 0.35 0.47 0.75


auto.arima:

Series: premia 
ARIMA(0,0,0) with non-zero mean 

Coefficients:
       mean
      0.090
s.e.  0.019

sigma^2 = 0.0303:  log likelihood = 26.88
AIC=-49.77   AICc=-49.61   BIC=-45.01


Ponownie obie funkcje wskazały ten sam model zwykłej średniej: "pełna premia" wynosi 9% +/- 17,3%. Taki wynik uzyskałem niezależnie od użytego kryterium. 

I wykres:


Chociaż brak zależności w rocznych stopach pogarsza sytuację prognostyczną, to z punktu widzenia inwestora może się ona nawet poprawić. Po pierwsze ułatwia mu wycenę - nie musi uwzględniać zmienności stopy dyskontowej. Po drugie zwiększa szansę, że wycena będzie szybko zbiegać do jego wyceny, a nie od niej uciekać. Na ten moment, nawet bez wyceny, możemy spekulować, że premia w 2025 spadnie, choć powinna pozostać dodania.