środa, 27 grudnia 2017

Jakie opóźnienie stosować w KPSS i ADF-GLS?

Testując stacjonarność szeregów czasowych w Gretlu natrafiamy na opcjonalne ustawienie maksymalnego opóźnienia wariancji (z próbki) błędu modelu regresji. Powstaje pytanie czy możemy manewrować tym opóźnieniem. Odpowiedź zależy od tego czy chcemy zbadać cykliczność czy samą tylko zmianę parametrów rozkładu szeregu czasowego. Z tego punktu widzenia artykuł podzieliłem na dwie części.

CZĘŚĆ 1: cykliczność:
Samo opóźnienie wariancji najłatwiej zrozumieć obrazowo. Skonstruujmy funkcję sinus z nałożonym białym szumem, niech będzie 1000 obserwacji:


Testując niestacjonarność tego procesu, okazuje się, że przy automatycznych ustawieniach Gretla standardowe testy jak ADF, ADF-GLS i KPSS nie odróżniają go od procesu stacjonarnego. Dlaczego? Dlatego, że dla nich ten proces jest to po prostu ARMA o dalekich rzędach autokorelacji. Procesy ARMA są procesami stacjonarnymi i w tym sensie można rozumieć, że przedstawiona próba jest stacjonarna. Jej funkcja autokorelacji wygląda następująco:


I tak testując KPSS, przy standardowych ustawieniach, lag truncation = 7, dostaniemy:


Czyli tak jak mówiłem proces został uznany za stacjonarny. Przy zwiększaniu czy zmniejszaniu tego poziomu sytuacja się zbytnio nie zmienia. Dopiero jeśli opóźnienie l zwiększymy do poziomu, który będzie odpowiadał długości okresu cyklu, tj. l = 200, sytuacja się zmienia. Dostaniemy wtedy:


Statystyka testu > 0,35, a więc proces zostaje teraz uznany za zmienny w czasie na poziomie 10% istotności. Podobny rezultat dostaniemy gdy użyjemy ADF-GLS. Wynika z tego, że l można traktować jako długość cyklu. A skoro tak, to znaczy, że precyzyjnie możemy oszacować wielkość l za pomocą periodogramu czy spektrum. W Gretlu używając periodogramu w skali logarytmicznej dostaniemy:


Najwyższa wartość na osi rzędnej odpowiada najwyższej częstotliwości (gęstości prawdopodobieństwa) sygnału. Te wartości można przeanalizować w tabeli:


Zaznaczyłem największą częstotliwość, tj. gęstość spektralną, z tabeli = 3,5. Sama ta wielkość nie jest dla nas istotna. Ważne, że odpowiada ona długości okresu = 200 (górna oś wykresu), co oznacza, że występuje 5 razy (1000 danych / 200 = 5). Czyli 5 jest to częstość cyklu, tj. mówi ile razy "zdarzenie cyklu" występuje w całej próbie (dolna oś wykresu). W takim telegraficznym skrócie przy okazji nauczyliśmy się analizy spektralnej.

Kiedy już wiemy czym jest opóźnienie w testach na niestacjonarność, możemy sami zacząć eksperymentować na danych ekonomicznych. Powrócę do CMR, którego ostatnio testowałem:



Stwierdziłem wtedy, że zmiany CMR są stacjonarne, jednak nie zmieniałem w ogóle ustawień l. Spójrzmy więc na periodogram zmian CMR:



Na pierwszy rzut oka wybijają się dwie długości okresów: 3 oraz 11. Można by sądzić, że występuje jakiś 3-dniowy oraz 11-dniowy cykl. Oznaczałoby to, że powinniśmy przetestować l = 3 oraz l = 11. Jednakże zastosowanie obydwu parametrów w KPSS (a także w ADF-GLS) nie zmieniło w ogóle wyników, co zaprzecza cykliczności, a to co jest widoczne na spektrum to prawdopodobnie jest przypadek. Nie jest to pewne, możliwe, że KPSS i ADF-GLS czegoś nie uwzględniają, bo jest mnóstwo różnych innych testów na wykrywanie cykli. Z drugiej strony zawsze trzeba mieć porównanie ze zwykłym ruchem Browna. Oto przykład periodogramu dla tego ruchu:




CZĘŚĆ 2: zmiana parametrów w dowolnym momencie:
W poprzednim poście stworzyłem proces niestacjonarny w ten sposób, że dla kilkuset danych procesu stacjonarnego od pewnego momentu zwiększyłem stopę zwrotu o różne poziomy: 0,1, 0,2 i 0,3 pktów proc. Test KPSS zaczął wykrywać zmienną strukturę procesu dla 0,3 pkt proc., jednak już 0,2 sugerowało, że proces może być niestacjonarny. Wówczas nie zmieniałem automatycznych ustawień testu, dla których opóźnienie l wyniosło 7. Gdybym zwiększył l do 21, statystyka testu jeszcze bardziej by wzrosła, do ponad 30, a więc jeszcze bardziej zbliżyłoby to do prawidłowej oceny. Gdybym jednak zwiększył l na przykład do 44, statystyka by spadła do 26. Przy l = 100, spadłaby do 23. Przy maksymalnym możliwym l (który byłby równy połowie wielkości próby), statystyka znów rośnie do 31.

Kwiatkowski et al. [1] dokładnie analizują różne poziomy opóźnienia i stwierdzają, że zbyt duża wartość obniża moc testu. W jaki sposób wybierają właściwy poziom? Używają oni w testach oddzielnie l0 = 0 oraz dodatkowo dwóch wzorów:

oraz

gdzie int() oznacza liczbę całkowitą z (), zaokrągloną w dół. T - liczba danych.

Zauważają, że przy mniejszych próbkach, powiedzmy do 200, l4 ma większą moc, natomiast l12 staje się lepszy przy większych próbach, powiedzmy powyżej 200. Przy występowaniu autokorelacji najgorszym wyborem jest l = 0.

I teraz uwaga: Gretl w KPSS używa wzoru na l4, natomiast w ADF-GLS używa l12 - to stąd ten automatyczny wybór. Gdy użyjemy w KPSS l12 dla próby CMR, to wtedy l12 = 21. I rzeczywiście wtedy statystyka wzrasta do ponad 30, jest to więc lepszy wybór niż automatycznie wybrany przez Gretla. Myślę, że tutaj twórcy mogliby poprawić algorytm w ten sposób, że dla T > 200, należy zastosować l12.

Możemy jeszcze sprawdzić co się stanie w odwrotnej sytuacji, tj. dla błądzenia przypadkowego. Przetestujmy dwie sytuacje: dla niedużej oraz dużej próby.

A) Weźmy taką próbę błądzenia przypadkowego z T = 51


Gretl ustawił l4 = 3, wtedy dla różnic poziomów otrzymamy


Użyjmy teraz l12 = 10. Wynik:


Jak się okazuje, test ciągle prawidłowo działa. Zastosujmy jednak maksymalny możliwy l, który wyniesie 25:


A więc test błędnie przyjmuje niestacjonarność skoro 0,39 > 0,351. Dowodzi to, że rzeczywiście nie można przyjmować maksymalnego opóźnienia.

B) Błądzenie przypadkowe z T = 398. Specjalnie wybrałem taki przypadek, gdzie w połowie próby "trend" się odwraca. Tutaj dochodzi jeszcze widoczna mniejsza zmienność przy spadkach, która przypomina nam bessę giełdową, gdy spadki są silne i jakby nieprzerwane:


Gretl ustawił l4 = 5, wtedy dla różnic poziomów otrzymamy


Zatem KPSS tym razem nie sprawdza się dla l4, przynajmniej na poziomie 10% istotności.

Użyjmy teraz l12 = 16. Wynik:


Tym razem l12 okazuje się lepszy, bo test nie odrzuca stacjonarności na poziomie 10%, chociaż jest blisko.

Czyli rzeczywiście dla większej liczby, np. powyżej 200 danych, należy użyć l12, aby nie wyciągnąć błędnych wniosków.

Nie oznacza to jednak, że KPSS zawsze super działa i nigdy się nie myli. Mimo naocznej zmiany kierunku w połowie zakresu, to ostatnie 100 danych ruchu Browna zatrzymuje kierunek wzrostu. Usuńmy te dane i sprawdźmy co wtedy:


Dla l4 = 5

Dla l12 = 15:


A więc test odrzuca stacjonarność nawet na poziomie 5%. Popełnilibyśmy więc błąd, bo bylibyśmy pewni, że mamy do czynienia z prawdziwym trendem rosnącym; prognozowalibyśmy zapewne dalsze zwyżki, weszlibyśmy na rynek i skończylibyśmy ze stratami albo najwyżej wyszlibyśmy na zero.

Natomiast gdybyśmy użyli tutaj ADF-GLS z automatycznym wyborem l12 = 15, to uzyskalibyśmy:



Test ten działa na odwrót, tzn. hipoteza zerowa to niestacjonarność. Skoro więc p = 0, to znaczy, że ADF-GLS odrzuca niestacjonarność. Test ten jest uogólnieniem ADF, jest więc od niego mocniejszy. Widać warto się nim wspomagać. KPSS i ADF-GLS uzupełniają się nazwzajem i przez to wzmacniają.

Literatura:
[1] Kwiatkowski, D., Phillips, P. C.B., Schmidt, P., Shin, Y., Testing the null hypothesis of stationarity against the alternative of a unit root, 1992.


DODATEK:

KPSS posługują się następującym estymatorem wariancji:

gdzie
T - długość próby;
w(s, l) - funkcja determinująca wielkość okna spektralnego - w tym przypadku okna Barletta:


e(t) - reszty modelu regresji, która jest testowana: y(t) = a + y(t-1) + e(t).
t - jednostka czasu;
l - opóźnienie, o którym mowa w artykule.

Powyżej opisany estymator przybliża długo-terminową wariancję błędów regresji:

gdzie:

wtorek, 19 grudnia 2017

Do pamiętnika - Jak duża musi być niestacjonarność, aby KPSS ją wykrył?

Zastanawiałem się, ile muszę podnieść stopę zwrotu, aby KPSS wykrył niestacjonarność. Moje krótkie eksperymenty w gretlu wskazują, że ok. 0,2 pktów proc. jest minimalną wartością dla zmian dziennych. Zrobiłem test dla logarytmicznego kursu Comarch, aby można było dodawać zmienione stopy i stworzyć wykres. Okres 2.01.2014 - 18.12.2017. Wykres oryginalny (logarytmiczny):



Dla CMR nie występuje niestacjonarność, KPSS ( zob. Czy oczekiwane stopy zwrotu w ogóle się zmieniają? ) wskazuje na czystą stacjonarność:


Ponadto brak autokorelacji (ACF, ale PACF wygląda tak samo), ewentualnie lekka ujemna autokorelacja 7 rzędu (istotna st na 1%):

 
Ostatnio wykres wykres wygląda nieźle jakby kurs chciał rosnąć. Średnia dzienna stopa zwrotu w danym okresie to ok. 0,1%, ale pytanie brzmi czy ta średnia się zmienia? KPSS mówi, że nie, ale dziś pokażę, że niewielka zmiana w stopach zwrotu nie zostanie wykryta przez ten test, pomimo że całkowity efekt w postaci trendu może być znaczący. Chyba jednak lepiej poczekać aż nastąpi przebicie linii "trendu spadkowego", która czasami się sprawdza - zob. Czy analiza techniczna działa? Z tym że i to badanie odrzuciło większość przebić, ale była to mała próba.

Ok, to teraz test. Widać, że od połowy zakresu analizowanego wykresu, ok. 490 danych, pojawia się kierunek wzrostowy. Od tego miejsca do końca okresu dodałem do logarytmicznych stóp zwrotu:

1) 0,1 pkt proc. Wtedy otrzymałem wykres:


Wykres jest bardzo podobny, ale trend wydłużony, wobec tego pytanie o niestacjonarność zmian:


A więc nadal to samo. Podniesienie 0,1% nie wystarcza do załapania zmiany - a przecież końcowy efekt to dodatkowy wzrost o 50 pkt proc. (na oryginalnym wykresie zakończenie jest na 0,7, na przekształconym 1,2). ACF i PACF także wyglądają identycznie jak poprzednio.

2) 0,2 pkt proc. Wykres staje się już niemal asymetryczny:



Niestacjonarność nie została formalnie wykazana, ale wrażenie robi wartość statystyki 0,29, której niewiele brakuje do progu 0,348:



3) 0,3 pkt proc. Wykres od połowy zmienia się diametralnie:


KPSS to niezbicie potwierdza:


 Niestacjonarność jest wykazana na poziomie 5% istotności.

Oznacza to, że 0,2 pkt proc. dodatkowej (logarytmicznej) stopy zwrotu może stać się pewnym punktem zaczepienia przy ocenie niestacjonarności. Ta konkluzja zostaje wzmocniona, gdy zmniejszę zakres danych np. do 700. Wtedy dostajemy wykres:



Interesujące jest to, że pomimo, iż po okresie 490, zmiana oczekiwanej stopy zwrotu nie jest już widoczna gołym okiem, to KPSS ją wykrywa:


Warto też dodać, że ACF i PACF wyglądają ciągle tak samo dla oryginalnego wykresu: nie ma tutaj żadnych (dodatnich) autokorelacji - zarówno dla pierwszej połowy wykresu jak i drugiej. Zmieniła się po prostu oczekiwana stopa zwrotu. Konsekwencją tego jest zmiana nachylenia logarytmicznej ceny: na oryginalnym wykresie kurs rośnie w tym samym tempie, na kolejnych rysunkach nachylenie zmienia się w połowie zakresu i z każdym kolejnym coraz mocniej. Do badania samego momentu zmian trendu służą tzw. modele przełącznikowe, ale to już inny temat.

piątek, 8 grudnia 2017

Czy firma powinna dywersyfikować produkt?

Inwestorzy fundamentalni na pewno często zastanawiają się czy dobrym rozwiązaniem dla firmy jest dywersyfikacja swoich produktów. Z czysto ekonomicznego punktu widzenia ma to sens:
1. zmniejsza to ryzyko spadku sprzedaży w danym sektorze lub segmencie rynku;
2. powstaje potencjał zwiększenia wartości firmy dzięki wykorzystaniu synergii między segmentami lub sektorami;
3. Wyręcza to inwestora, który sam chciałby zdywersyfikować portfel kupując różne akcje - nie ponosi ani kosztów transakcyjnych ani wysiłku wyznaczania ich udziału.

Jeżeli chodzi o punkt trzeci, to gdyby się głębiej przypatrzeć, pojawiają się pewne wątpliwości czy faktycznie firma powinna zastępować inwestora. Taka wewnętrzna dywersyfikacja może polegać po prostu na dodaniu do swojej działalności operacyjnej nowy segment rynku albo na nabyciu innej firmy, która już obsługuje ten segment. Obydwa rozwiązania wymagają opracowania ekspertyz, które oszacują opłacalność takiej operacji. Są to więc dodatkowe koszty, które redukują oszczędności inwestora wynikające z braku dodatkowych kosztów transakcyjnych oraz włożonego wysiłku w dostosowanie udziału nowych akcji w portfelu.

Jeżeli chodzi o punkt pierwszy i drugi, to w przypadku wprowadzenia nowego produktu powstaje dodatkowe ryzyko, że sprzedaż będzie niewystarczająca. Z kolei przejęcie innej firmy także rodzi niepewność co do opłacalności; jeżeli jest w słabej kondycji, to potrzebna będzie restrukturyzacja, która nie musi przełożyć się na większą sprzedaż, a tylko generuje koszty. Jeżeli z kolei przejmowana firma jest w dobrej kondycji, to koszt jej nabycia może być na tyle duży, że operacja ta będzie nieopłacalna. Jej przejęcie będzie opłacalne tylko w sytuacji, gdy powstanie synergia pomiędzy firmą-matką a firmą-córką.

Na rynku doskonale konkurencyjnym jedyną szansą na opłacalność dywersyfikowania produktów jest właśnie stworzenie synergii pomiędzy starymi a nowymi segmentami. W innym wypadku koszty co najwyżej zrównają się z przychodami. I w tym miejscu powstaje kwestia warunków powstawania i wytwarzania synergii. Chodzi tu o synergie nie tylko pomiędzy różnymi segmentami, ale także całymi branżami.

Amica sprzedaje sprzęt AGD, na który składają się nie tylko meble kuchenne, ale także pralki. A skoro już poszli w łazienki, to powstaje możliwość produkowania i sprzedawania klozetu, umywalki, wanny i kabiny prysznicowej. Nie jest to typowy segment AGD, ale do niego zbliżony. Może tu więc powstać synergia: jeśli klient jest zadowolony z kupna sprzętu AGD, to może też kupić wyposażenie łazienki. Jest to więc przykład możliwej synergii w ramach zbliżonych produktów. Synergia ta oczywiście może mieć charakter przyciągania klientów promocją, np. jeśli kupisz produkt z jednego i drugiego segmentu, to dostaniesz rabat.

Bardziej skomplikowane zagadnienie powiązań stanowią różne branże w ramach jednego przedsiębiorstwa. Wyobraźmy sobie, że szykujemy się do kupna mieszkania, a deweloper proponuje nam dodatkowo zakup mebli do niego. Niby, jest to powiązane ze sobą i ma potencjał synergii, jednak ja osobiście wolałbym, żeby firma skupiała się na danej specjalizacji, jak np. budowa budynku, a nie produkcji mebli do niego. Inną sprawą jest gdy deweloper sam nie produkuje tych mebli, ale ma jakiś kontrakt z firmą meblarską. Tutaj właśnie wszystko się komplikuje.

Możemy się spotkać z jeszcze odleglejszymi branżami w jednym. Np. na stronie Marvipola czytamy:
"Grupa Kapitałowa Marvipol prowadzi działalność w dwóch obszarach biznesowych. Działalność deweloperską, podstawową dla jednostki dominującej - Marvipol S.A., oraz działalność motoryzacyjną w zakresie importu, sprzedaży, usług serwisowych i obrotu częściami zamiennymi do samochodów".

Taka dywersyfikacja produktów wydaje się dziwaczna i trudno znaleźć tu logiczne powiązania, które generowałyby konkretne synergie. Nie wiem jak inni, ale mnie to od razu zniechęca do korzystania usługi, gdy chcą być specjalistami od wszystkiego. Nic dziwnego, że ostatnio akcjonariusze MVP zdecydowali o podziale firmy właśnie na spółkę deweloperską i motoryzacyjną. Od końca września akcje wzrosły o ponad 30%, czyli inwestorzy pozytywnie przyjęli taką informację.

Powstaje pytanie jaki ogólny wpływ na wartość akcji ma dywersyfikacja produktu? I jak to zmierzyć? Dobrym pomysłem do tego testu jest porównanie tzw. q-Tobina dla różnych spółek. Tak właśnie robią Lang i Stulz [1], którzy definiują q-Tobina jako wartość obecną przyszłych przepływów pieniężnych podzieloną przez koszt odtworzenia aktywów materialnych (czyli po prostu wartość rynkowa podzielona przez księgowe aktywa materialne - wyłączenie niematerialnych aktywów wynika z tego, że ich ich wartość księgowa może być łatwo zmanipulowana i nie odzwierciedlać wartości rynkowej. q Tobina jest w przybliżeniu równe C/(rzeczowe aktywa trwałe + zapasy)). Firmy typu R&D zostały wyłączone z analizy, chodziło o sprawdzenie połączeń rzeczowych. Ich konkluzja jest jednoznacznie negatywna dla dywersyfikacji: firmy specjalizujące się w pojedynczej dziedzinie mają wyższe q Tobina, czyli są wyżej wyceniane. Im bardziej zdywersyfikowana działalność, tym gorsze wyniki. Jedną z konsekwencji badania jest to, że przejmowanie słabych firm z innego sektora/segmentu wcale nie generuje obiecywanych synergii w sensie większego q Tobina. Oczywiście wszystko to się dzieje w uśrednieniu, ale akcjonariusz powinien mocno zastanowić się nad trzymaniem takiej spółki (pamiętajmy, że badanie nie dotyczyło firm badawczych).

Ponieważ w badaniu podzielono firmy względem liczby segmentów branżowych, w jakich działają, powinniśmy najpierw zdefiniować co rozumiemy przez ten segment. Segment branżowy został zdefiniowany przez Radę Standardów Rachunkowości Finansowej [2]:
Jest to komponent przedsiębiorstwa, w ramach którego następuje dystrybucja towarów lub świadczenie usług lub grupy powiązanych towarów lub usług, głównie dla niepowiązanych klientów (tj. klientów spoza przedsiębiorstwa) w celu osiągnięcia zysku.

Firmy muszą raportować informację o segmentach, które reprezentują 10 albo więcej procent skonsolidowanej sprzedaży.

W 1984 r. średnia q Tobina dla próbki (z Compustat) wyniosła 1,11, a mediana 0,77. Średnia q-Tobina dla firm niezdywersyfikowanych przekracza średnią z próbki o prawie 40%, a mediana q-Tobina przekracza medianę z próby o ponad 30%. Poniższa tabela prezentuje wartości q-Tobina dla średniej i mediany roku 1984 w zależności od poziomu zdywersyfikowania - im większa liczba, tym większa liczba segmentów w portfolio spółki:


W pierwszym wierszu znajdują się poziomy dywersyfikacji, jako liczba segmentów w portfolio, w drugim średnie arytmetyczne q Tobina, w nawiasach okrągłych wartości środkowe (mediany), a w klamrach liczba firm w danej próbce. Widzimy, że im większa dywersyfikacja, tym niższy poziom q Tobina zarówno na poziomie średniej jak i mediany. Obliczenie zarówno średniej jak i mediany wynika z tego, aby nie zniekształcać wyników, albowiem rozkład q-Tobina był skośny. Warto dodać, że ogólne wnioski nie zmieniły się nawet wtedy, gdy zamiast q-Tobina użyto C/WK.

Następnie stworzono regresję liniową dla lat 1978-1990. Opiszę teraz krótko sposób konstrukcji tej regresji. Być może ktoś będzie chciał skonstruować podobny model fundamentalny. Estymujemy następujący model:


gdzie
q = q-Tobina
a, b(j) - parametry
D(j) - zmienna sztuczna-binarna, która przyjmuje wartość 1, jeżeli firma ma j segmentów lub więcej, w przeciwnym wypadku 0
e - składnik losowy.

Tak czysto technicznie - pytanie czy użycie w definicji D(j) "lub więcej" jest prawidłowe? Zawiera się tu informację o większej liczbie segmentów, co powoduje, że taka analiza staje się wątpliwa dla większej liczby segmentów od 2. No bo jeżeli są 3 segmenty, to b(2) zawiera już informację o tym, że są 3 segmenty, a b(3) ją powtarza.  I faktycznie dane wskazują, że o ile dla D(2) współczynnik b(2) jest zawsze istotny statystycznie (podobnie jak parametr a), o tyle już kolejne b(j) - rzadko. Moim zdaniem badacze tutaj popełnili błąd i powinni po prostu usunąć to "lub więcej". Wtedy D(2) = 0 dla 3 segmentów i wtedy zapewne dane byłyby istotne statystycznie dla b(3), b(4) i b(5).
Jeżeli badaczom zależało na uzyskaniu konkluzji, że firmy o dwóch lub większej liczbie segmentów mają niższe q, to powinni po prostu stworzyć model dla j = 2. Tak mi się przynajmniej wydaje. Dlatego poniżej pokażę tylko część tabeli dla lat 1978-1990 z parametrem a oraz b(2):


To co w tej tabeli trochę wprowadza zamieszania to wartości t-statystyki: są one podane w nawiasach okrągłych podobnie jak wcześniej mediana. Natomiast wartości w klamrach ciągle oznaczają liczbę firm dla danej liczby segmentów (a bez nawiasów to oczywiście parametry).

Przykładowo obliczmy q dla roku 1984: 1,53 - 0,62 = 0,91, czyli coś pomiędzy medianą (0,77) a średnią (1,11).

Istnieje znacznie więcej publikacji potwierdzających powyższe statystyki. Nakano et al. [3] sprawdzili wpływ dywersyfikacji produktów na wyniki firm japońskich (NIKKEI) z lat 1998-2001. Im większa koncentracja, tj. mniejsza liczba segmentów, tym wyższe okazało się ROE (6,1% dla 1 segmentu, 5,2% dla 5 i więcej), podobnie zwrot z NOPAT (4,8% vs. 2,6%). Zwrot z NOPAT to ROE bez efektu dźwigni finansowej.

Podałem wcześniej przykład potencjalnej dywersyfikacji produktowej Amiki, którą uznaję za pozytywną, ale zgodnie dotychczasowymi badaniami, wydawałoby się, że spółka powinna wstrzymać się z taką strategią. Jednak praca Nakano et al. wprowadza także to istotne jakże rozróżnienie: czy dywersyfikacja opiera się na segmentach powiązanych czy nie. Okazało się, że po takim rozróżnieniu dyskonto dotykało tylko firm, których segmenty były niepowiązane ze sobą, natomiast dywersyfikacja powiązanych segmentów nie miała negatywnego wpływu na wartość firmy lub nawet czasami przynosiła premię. Poniższa tabela przedstawia wpływ danego rodzaju dywersyfikacji na wartość firmy w poszczególnych latach (dodatni - premia, ujemny - dyskonto):


 Przykładowo w roku 2001 dywersyfikacja niepowiązana segmentami obniżała wartość firmy o 4,9%, podczas gdy powiązana segmentami dawała premię 1,8%. W obu przypadkach było to istotne statystycznie, odpowiednio na poziomie 1% i 5%.


Literatura:
 [1] Lang, L. H. P., Stulz, R. M., Tobin's q, Corporate Diversification, and Firm Performance, Dec., 1994;
 [2] Statement of Financial Accounting Standards No. 14, Financial Reporting for Segments of a Business Enterprise, December 1976;
[3] Nakano, M., Kubo, N. Yoshimura, Y., DOES DIVERSIFICATION STRATEGY CREATE OR DESTROY VALUE?, October 2004.

środa, 29 listopada 2017

Jak zakaz handlu w niedzielę przełoży się na PKB?

Wiemy, że najprawdopodobniej w 2018 r. w Polsce wejdzie w życie zakaz handlu w drugą i trzecią niedzielę miesiąca, być może z pewnymi wyjątkami przed świętami. Od 2020 zakaz ten ma być rozszerzony na prawie wszystkie niedziele w roku. Jaki przyniesie to skutek ekonomiczny? Powstało wiele raportów i prac na ten temat. Praktycznie wszystkie stawiają tę samą diagnozę: wpływ będzie negatywny, przede wszystkim wzrośnie poziom bezrobocia oraz spadnie sprzedaż. Konkluzje niektórych publikacji opiszę tutaj.

Ostatnio powstał polski raport firmy PwC [1], wg którego łączna sprzedaż handlu detalicznego może spaść o ok. 5%, czyli z 230 mld do 218 mld zł. Jest to bardzo dużo, biorąc pod uwagę, że jest to niecałe 40% wszystkich obrotów w niedzielę (bo przedstawiciele branżowi szacują, że niedziela generuje ok. 13% przychodów).

Tutaj jedna uwaga. Intuicyjnie może nam się wydawać, że spadek sprzedaży o 12 mld zł spowoduje spadek PKB o 12 mld zł. Ale, jeśli ograniczymy się do handlu wewnętrznego, to tak nie jest, bo sprzedaż towaru jest kosztem konsumentów. A ponieważ PKB = dochody ludności, to efekt jest zerowy. Natomiast jeśli weźmiemy cały handel wewnętrzny + zewnętrzny, szczególnie przygraniczny, to oczywiście powstaną realne spadki PKB, bo klient będzie mógł podjechać do sklepu za granicą, gdzie są otwarte sklepy w niedziele. O ile wiem np. na Ukrainie i Białorusi nie ma tego zakazu. Raport FOR [2] zwraca uwagę z kolei na to, że w Niemczech także w wielu miejscach występuje już dziś ten zakaz, tak że dotychczas to polskie sklepy na nim zyskiwały, skoro  przyjeżdżali do nas Niemcy. Można więc powiedzieć, że efekt spadku sprzedaży będzie podwójny: zatrzymanie zysków z Zachodu i ucieczka kapitału na Wschód.
FOR dodaje: "Żadne państwo naszego regionu nie ogranicza handlu w niedzielę. Polska, podobnie jak inne kraje Europy Środkowo-Wschodniej, jest na drodze gospodarczego pościgu za bogatszymi krajami Zachodu i nie może pozwolić sobie na rezygnację z około 50 dni pracy sektora handlu w skali roku." A jednak może.

Drugą kwestią jest wpływ zakazu handlu na poziom zatrudnienia. Zgodnie z PwC szacuje się, że w handlu detalicznym może ono zostać zredukowane o ok. 7%, co ma przekładać się na zwolnienie lub niezatrudnienie od 62 do 85,5 tys. osób.

To tyle jeśli chodzi o polskie raporty. Z kolei Burda i Weil [3] sporządzili specjalny model ekonomiczny, który wykorzystali do estymacji spadku niektórych zmiennych ekonomicznych w wyniku zakazu handlu w niedzielę w USA. Ich praca jest bardzo mało czytelna (np. słabo opisane tabele i wzory), ale z grubsza biorąc stwierdzili, że w latach 1969-93 w tych stanach gdzie zakazano handlu w niedzielę, zatrudnienie spadło między 1,9% a 10,6% logarytmicznych punktów proc. (w stosunku do logarytmicznej populacji pracowników) w zależności od sektora. Wyjątkiem była branża odzieżowa, która wydawała się nawet mieć lekką nadwyżkę. Najmocniej dostało się gastronomii (-10,62%), a najmniej branży spożywczej (-1,87%). Dla wszystkich branż było to -2,2%, przy czym handel detaliczny aż -5,5%. Są to dane istotne statystycznie.

Ostatnio dla 30 krajów Europy badania przeprowadzili Genakos i Danchev [4] . Dane objęły okres 1999-2013. Badacze opracowali dwa rodzaje modeli. Pierwszy sprawdzał prosto czy istniał wpływ deregulacji handlu w niedziele czy nie, tj. używając zmiennej zero-jedynkowej. Drugi był bardziej precyzyjny, bo każde państwo może kontrolować handel w niedziele w różnym stopniu i co więcej kontrola ta może zmieniać się w czasie; zmienna reprezentująca regulację handlu zmienia się wtedy w indeks. Pierwszy z modeli wykazał, że deregulacja w handlu detalicznym średnio rocznie zwiększa zatrudnienie o 7,3% (na poziomie logarytmów), natomiast drugi o 3,6%.

Powyższa analiza wskazuje, że wszystkie raporty się pokrywają. Jeżeli rzeczywiście zakaz handlu w niedziele przyniesie spadek zatrudnienia w zakresie 4-7%, to przyniesie to oczywiście duże reperkusje gospodarcze.

Ktoś mógłby zapytać, dlaczego PKB miałoby spaść, skoro zatrudnienie to koszt pracodawcy, czyli niewydany pieniądz, który nie ginie. Dochód rzeczywiście by się nie zmienił, gdyby ludziom było wszystko jedno kiedy zrobią zakupy. Te zakupy to nie tylko detal, ale także inwestycje, które przedsiębiorcy chcieliby ponieść na dalszy rozwój firmy. Powstaje tutaj zastój, który powstaje w wyniku braku możliwości dokonania transakcji: z jednej strony ludzie chcą teraz coś kupić (bo jest dla nich to wygodne), z drugiej strony przedsiębiorcy chcą teraz sprzedać, aby w coś zainwestować. Brak obrotu w niedziele spowalnia cały ten mechanizm. To spowolnienie to nic innego jak koszt czasu - jest to dobry przykład wyjaśnienia pojęcia kosztu alternatywnego, kosztu utraconych możliwości. Nawiasem mówiąc powstają tu także inne drobne niedogodności, jak np. dłuższe kolejki w soboty, a przecież gdyby nie było tej kolejki (tzn. była wolna niedziela), to można by było robić coś ciekawszego, może coś odkrywczego, co jakoś tam nawet może się przyczynić do zwiększenia PKB.

Jak więc zakaz handlu w niedzielę może wpłynąć na PKB? Możemy spróbować zrobić zgrubne szacunki. Należy to traktować jako eksperyment myślowy, a nie prawdziwą prognozę. Pobrałem dane ze strony multipl.com: stopy zatrudnienia USA oraz realny PKB USA od 1948 do 2016. W gretlu przekształciłem te wielkości na stopy zmian i zastosowałem model:

Stopa wzrostu realnego PKB = Stała + Stopa zmian stopy zatrudnienia + składnik losowy

Parametry regresji liniowej okazały się niestabilne w czasie.



Dlatego dla uproszczenia zmniejszyłem zakres próby do 1980 r. Uzyskane statystyki:


Czyli Realny PKB wzrasta średnio o 1,45%, gdy zatrudnienie rośnie o 1% (przypomina to nieco znane prawo Okuna).

Ten wynik jest nawet zgodny z wynikami Sawtelle [5] , która analizowała zależności między realnym PKB a zatrudnieniem, ale w odwrotnym kierunku, tj. wpływu PKB na zatrudnienie. Wzięła szeroki zakres danych dla USA dla lat 1901-2001. Uzyskany parametr = 0,66%, a zauważmy, że odwrotność 1/0,66 = 1,52, czyli wynik niemal identyczny.

W sumie dochodzimy do ciekawego rozwiązania: jeśli na podstawie powyższych raportów przyjmiemy, że zakaz handlu w niedziele doprowadzi do spadku zatrudnienia o 4%, to PKB spadnie o 4*1,45% = 5,8%. Bardziej prawdopodobne będzie to jednak wartość 2,2% (wszystkie sektory zgodnie z badaniami Burda i Weila), a wówczas dostaniemy 3,2% spadku PKB.

Jeśli więc normalnie rozwijamy się w tempie 3-4% rocznie, to w roku 2018-2019 cały wzrost może zostać zredukowany do zera albo poniżej. Nawet jeśli to tylko abstrakcja, to przecież trzeba brać pod uwagę, że niedziela to 14% roku.


Literatura:
[1] PwC, Rynek handlu detalicznego w Polsce, Potencjalne skutki wprowadzenia węgierskich rozwiązań regulacyjnych dla polskich sieci handlowych, 2015;
[2] Orczyk, M., Trzeciakowski, R., Zakaz handlu w niedzielę – szkodliwy dla konsumentów, pracowników i sektora handlu, 12/2016;
[3] Burda, M., Weil, P., Blue Laws, Oct. 2005;
[4] Genakos, C., Danchev, S., Evaluating the impact of Sunday trading deregulation, 2015;
[5] Sawtelle, B., Analyzing the Link Between Real GDP and Employment An Industry Sector Approach EMPLOYMENT RESPONSIVENESS TO LONG-TERM REAL GDP EXPANSION DIFFERS MARKEDLY ACROSS U.S. INDUSTRY SECTORS, Oct. 2007.