poniedziałek, 22 maja 2017

Filtr Hodricka-Prescotta

Od czasu Schumpetera i Keynesa cykle gospodarcze przestały być zwykłym odchyleniem od równowagi gospodarki kapitalistycznej, a stały się jej immanentnym elementem. Naturalnie pojawiło się wtedy pytanie czy można modelować i przewidywać cykle. Przez dziesiątki lat powstało mnóstwo różnych modeli starających się na nie odpowiedzieć. Jednym z bardziej znanych jest filtr Hodricka-Prescotta (HP). Współcześnie model ten jest często używany do prognozy PKB, inflacji, stopy procentowej i innych zmiennych ekonomicznych. Częściowo łączy on teorię ekonomiczną z praktyczną analizą nieliniowych trendów. Z giełdowego punktu widzenia można powiedzieć, że dotyka jednocześnie analizy fundamentalnej i analizy technicznej.  Dlatego można spróbować użyć go pośrednio lub bezpośrednio do prognozy kursów giełdowych.

Hodrick i Prescott [1] najpierw definiują szereg czasowy y(t) (np. PKB) jako sumę zmiennego trendu g(t) (składowa wzrostu) oraz nieokresowego cyklu c(t) (stacjonarna reszta z wartością oczekiwaną zero):

(1)

Zmienna wzrostu, g(t), powinna być niestacjonarna, ale po dwukrotnym zróżnicowaniu, osiąga się często stacjonarność i w ten sposób dokonuje się de-trendyzacji. Dodatkowa zmienna stochastyczna c(t) mimo stacjonarności może być np. procesem ARMA (lub szerzej ARFMA), który zawiera autokorelacje. Aby znaleźć optymalne wartości oczekiwane, można określić następujące zadanie optymalizacyjne:

(2)

gdzie c(t) = y(t) - g(t).

Głównym problemem w tym zadaniu jest lambda, która wygładza szereg. Zgodnie z twierdzeniem podanym przez Hodricka i Prescotta jeżeli zmienna c(t) oraz zmienna [g(t) - g(t-1)] - [g(t-1) - g(t-2)] mają stacjonarny rozkład normalny, brak autokorelacji, średnią zero, to warunkowa wartość oczekiwana będzie rozwiązaniem problemu (2), jeżeli:

(3)
gdzie σ(c)^2 to wariancja zmiennej cyklicznej oraz σ(g)^2 to wariancja trendu.


Można zauważyć, że coś tu się nie zgadza: przed chwilą powiedziałem, że c(t) może być modelem z autokorelacjami, a teraz podaję twierdzenie na optimum, gdy tych nie ma. Powinniśmy to twierdzenie rozumieć co najwyżej jako przybliżenie rzeczywistości. Z drugiej strony powstaje wtedy pytanie: jeśli to przybliżenie, to należy traktować zmienną cykliczną jak zwykłą zmienną losową, ale wtedy nie może być zmienną cykliczną. Na ten problem zwraca też uwagę Hamilton w świeżej pracy znamiennie zatytułowanej "Why You Should Never Use the Hodrick-Prescott Filter" [2]. HP został tam poddany surowej krytyce, jednak jest to zupełnie nowy temat.


I tak zresztą wzór (3) niewiele daje, jeżeli wariancje tych procesów zmieniają się w zależności od wyboru lambda. Wzór ten bowiem zakłada, że znamy lambdę. Gdyby jednak zwiększanie tego parametru nie powodowało szczególnych zmian w obydwu wariancjach, to otrzymalibyśmy całkiem niezłe narzędzie. W praktyce HP polecają używać lambda = 1600 dla danych kwartalnych.
Jeżeli jednak mamy dane o większej częstości, to lambda wymaga odpowiedniego przekształcenia. Ravn i Uhlig [3] wyprowadzają następującą formułę:

(4)

gdzie f to częstość pobierania próbki w pewnym ustalonym z góry okresie czasu T. Częstość = 1/T. Załóżmy, że ten okres czasu to kwartał. Jeżeli pobieramy próbkę raz na kwartał, to znaczy, że f = 1. Jeśli z góry wiemy, że dla kwartalnych danych lambda = 1600, to mamy:

Jeżeli pobieramy próbkę 1 na miesiąc, to znaczy, że pobieramy ją 3 razy w ciągu kwartału, który ciągle stanowi nasz okres odniesienia. Oznacza to f = 1/3:

Jeżeli pobieramy próbkę 1 na rok, tj. roczne dane, tzn. f = 4, bo rok stanowi 4-krotność kwartału, tzn. równa się 4*T: 

(5)

Wzór (4) można przedstawić w innej, trochę łatwiejszej postaci:

(6)

gdzie n to liczba obserwacji w ciągu 1 roku. Jeżeli bierzemy dane miesięczne, to n = 12, bo n =4T = 4*(liczba miesięcy w kwartale). Jeżeli dane są kwartalne, n = 4, a jeśli roczne n = 1. Wzór (6) jest bardziej intuicyjny, bo od razu wiemy czym jest n: odpowiada na pytanie ile razy obserwacje występują w roku. Jeśli przyjmiemy, że lambda kwartalna = 1600, wtedy będziemy operować wzorem:

(7)


Przykład 1. Zróbmy eksperyment na funkcji (sinus + biały szum) dla 1000 obserwacji. W Gretlu łatwo dostępny jest filtr HP (filtracja). Gretl automatem wybrał 100, ale ustawmy na początek lambda = 1600. Dostajemy obraz:


Dobrą opcją jest możliwość zapisania zarówno zmiennej trendu g(t), jak i cyklu c(t). Możemy więc sprawdzić czy została spełniona zależność (3). Po dwukrotnym zróżnicowaniu g(t) i wzięciu wariancji obydwu zmiennych dostałem lambda = 70090. A więc nie zgadza się. Aby zachować zależność (3) możemy spróbować do HP podstawić lambda = 70090. Dostaniemy wtedy:


Im większa lambda, tym większa gładkość sfiltrowanej funkcji. Jasne więc, że im większa lambda, tym obraz będzie ładniejszy, co automatycznie nie oznacza, że będzie to optimum. Gdy znów sprawdzimy zależność (3), okaże się, że nadal nie jest spełniona: dostałem na jej podstawie wartość 227932. Można więc przypuszczać, że wartość ta będzie ciągle rosła. Maksymalną wartość, jaką można podstawić w Gretlu to lambda = 999999. Wtedy mamy:


Ten przykład dobrze pokazuje, że maksymalizacja lambdy nie jest dobrym pomysłem: odchylenia szeregu od filtru są znacznie większe niż przy mniejszych wartościach. Nie da się jednak odnaleźć takiego optimum, które spełniałoby (3), bo zarówno drugie różnice trendu g(t), jak i zmienna c(t) nie spełniają warunków tamtego twierdzenia (występują autokorelacje, brak normalności). Tutaj stosując wzór (3) dostanę lambda = 1,55 mln.

Można by zadać takie pytanie: skoro rzeczywiste częstości danych są znane, a posiadamy wzór (5) i (6), to po co liczyć lambdę z (3)? Rzecz w tym, że liczba 1600 została wybrana przez HP, dlatego że pasowała do danych empirycznych. a więc dla każdych innych jest właściwie z sufitu. Zacytuję ich fragment, aby dodatkowo to wyjaśnić:


Są różne metody szacowania lambdy - można wykorzystać filtr Kalmana, jak to robią HP lub estymator największej wiarygodności jak Schlicht [4].


Przykład 2. PKB kwartalnie od 1 kw 1996 do 1 kw 2017. Dane indeksu realnego wzrostu PKB r/r, z kwartalną częstością pobrałem z bankier.pl. Gretl automatycznie ustawia przy danych kwartalnych lambda = 1600. Dostajemy:



Przykład 3. Nowe zamówienia w przemyśle (ceny bieżące) miesięcznie od początku 2006 do marca 2017. Indeks zmian r/r, z częstością miesięczną pobrałem z GUS. Gretl automatycznie ustawia przy danych kwartalnych lambda = 14400. Dostajemy:



Mimo automatycznej lambdy, powinniśmy sprawdzić jak filtr się zachowa, gdy zastosujemy wzór (7). Dostaniemy lambda = 6,25*12^4 = 129600:


Wydaje się, że ten drugi wariant jest rzeczywiście lepszy.


Przykład 4. WIG - 2006-marzec 2017, miesięcznie (257 obserwacji). To samo, gdy lambda = 14400:


Lambda = 129600:



Przykład 5. WIG 1996-marzec 2017, miesięcznie. Jak wyżej lambda = 14400:



 lambda = 129600:


Jak widać zakres próby nie zmienił zachowania filtra.

Przykład 6. Ruch Browna. Dla porównania także 257 obserwacji losowego procesu o rozkładzie normalnym: lambda = 14400:


Lambda = 129600:


Przykład ten ilustruje, że filtr HP nie jest żadnym magicznym narzędziem, nie wychwytuje rzeczywistego trendu, tylko to co przypomina trend. Powyższy ruch Browna z definicji ma wartość oczekiwaną równą 0 oraz brak autokorelacji.


Przykład 7. Zmiany WIG vs. zmiany ruchu Browna. Dla pełnego obrazu zrobiłem porównanie samych zmian kursów. Również w tym przypadku filtr HP daje podobne sygnały jak przy ruchu Browna. Użyłem tu lambdy 129600:

WIG (ten sam zakres co poprzednio):



Zmiany ruchu Browna (ten sam zakres):




Filtr Hodrika-Prescotta jest tak naprawdę bardziej wysublimowanym rodzajem średniej kroczącej, można go dodać lub zastąpić MA w analizie technicznej. Wydaje się, że sama znajomość przeszłości niewiele pomoże przy przewidzeniu przyszłych zmian. Rynek składa się z takich elementów jak oczekiwania finansowe, wielkość obrotów (energia kapitału, która z jednej strony wspomaga daną tendencję, z drugiej zmniejsza ryzyko płynności), psychologia (wpływ przeszłości oraz wzrost wariancji, kurtozy i skośności). Dlatego włączenie ich do modelu ekonometrycznego, a następnie użycie filtru HP na tym modelu powinno dawać lepsze rezultaty.


Literatura:
[1] Robert J. Hodrick, Edward C. Prescott, Postwar U.S. Business Cycles: An Empirical Investigation, Feb., 1997;
[2] James D. Hamilton, Why You Should Never Use the Hodrick-Prescott Filter, July 30, 2016;
[3] Morten O. Ravn, Harald Uhlig, On Adjusting the Hodrick-Prescott Filter for the Frequency of Observations , May, 2002;
[4] Ekkehart Schlicht, Estimating the smoothing parameter in the so-called Hodrick-Prescott filter, 2005.

poniedziałek, 15 maja 2017

Dlaczego bardzo rentowne spółki mają często niskie C/Z?

Często wydaje się, że teoria nie idzie w parze z praktyką i np. spółki, które posiadają silną pozycję rynkową i mają ROE większe od kosztu kapitału własnego (np. znacznie powyżej 10%) posiadają wskaźnik Cena/Zysk taki sam jak każda inna przeciętna spółka. Zgodnie z modelem rezydualnym, który kiedyś opisywałem (Prawdziwe znaczenie wskaźnika Cena/Zysk i Cena /Wartość księgowa. Badanie empiryczne) im wyższe ROE, tym wyższe C/Z. W czym więc problem?
 Model rezydualny zakłada, że parametry są stałe w czasie. Jeżeli ROE jest stały, to i stopa wzrostu zysku jest stała.  Stopa wzrostu jest wtedy wyrażona wzorem k*ROE, gdzie k to część zysku netto zatrzymanego w spółce, który generuje wzrost w przyszłości (dodatkowo może to być też nowa emisja akcji podzielona przez zysk lub jej odwrotność czyli nabycie akcji).

Poniższy wykres pokazuje jak się zachowuje C/Z w modelu rezydualnym w zależności od ROE oraz współczynnika k, przy założeniu, że koszt kapitału własnego = 10%.



Dla porównania C/Z dla WIG w latach 2007-2017 kształtował się następująco (żródło: stooq.pl):


 Średnia = 15,2; mediana = 14,4.

W modelu rezydualnym, C/Z = 14-15 odpowiada dla:
k = 30% i ROE = 17-18% lub
k = 40% i ROE = 14,5-15% lub
k = 50% i ROE = 13-13,5% lub
k = 70% i i ROE = 11-11,5%.

Z historycznego punktu widzenia k = 40% i ROE = 14,5-15% stanowi możliwy do utrzymania poziom dla spółek. Należy jednak pamiętać, że skład WIG zmienia się, a więc te najwyżej wyceniane będą mieć po prostu wyższe te dwa parametry. Można powiedzieć, że spółki giełdowe starają się z jednej strony utrzymać wysokie ROE, z drugiej chcą utrzymać wzrost, ale tylko na takim poziomie, by nie spowodować spadku ROE. Im większy zatrzymany zysk, tym trudniej zachować wysokie ROE.

Ale im większe ROE, tym mniej prawdopodobne jest, że ta wartość się utrzyma. Może to wynikać zarówno z cyklu życia firmy, produktu czy patentu, ale także - a może przede wszystkim - z faktu, że im większa firma i im większa skala działalności, tym trudniej utrzymać wysoki wzrost. Z dużego kapitału można więcej "wycisnąć", ale utrzymanie proporcjonalnego wzrostu będzie bardzo trudne.

Dlaczego? Przypomnę z poprzedniego artykułu (dotyczącego związku pomiędzy marżą a kosztami), że im większa skala produkcji, tym potrzeba większego zaplecza produkcyjnego: nowych budynków, nowych pracowników, dodatkowej organizacji. O ile początkowo ten sam pracownik może wykonywać coraz więcej obowiązków dzięki uczeniu się i zwiększonej efektywności, to nie będzie tak w nieskończoność. Podobnie w budynku można wykorzystywać coraz lepiej przestrzeń, ale tylko do pewnego czasu. Dlatego koszty krańcowe będą rosły. Gdy rosną koszty krańcowe, to i rosną koszty przeciętne. Jak pokazałem, marża wyraża się wzorem:


gdzie r - odwrotność elastyczności cenowej lub po prostu procentowy wzrost ceny w wyniku wzrostu produkcji o 1%, AC - koszt przeciętny, MC - koszt krańcowy. Ponieważ elastyczność jest wielkością stałą (r = const), to zmiana marży zależy tylko od AC i MC. W omawianej sytuacji dodatkowy koszt wynikający z dodatkowej produkcji będzie rósł szybciej niż średni koszt, tj. MC > AC i stąd marża maleje (średni koszt uwzględnia wszystkie dodatkowe koszty, a skoro wzrost dodatkowego kosztu następuje na skutek ostatniej jednostki produkcji, to rzecz jasna ten wzrost musi być większy niż średnia). Następnie, ROE = ROA*(1 + L), gdzie L = wskaźnik zadłużenia kapitału własnego, tj. L = zobowiązania / kapitał własny (zob. Wskaźnikowa ocena przedsiębiorstwa w jednym wzorze). Ponadto ROA można zapisać jako ROA = marża*przychody / aktywa. Wobec tego ROE = marża*przychody / aktywa *(1+L).  Ponieważ przychody nie zawierają kosztów, to iloraz przychodów do aktywów nie zmieni się. W sumie spadek marży prowadzi do spadku ROA i ROE.

Aby uwiarygodnić model wyceny akcji, powinniśmy użyć ogólnego modelu DCF. Ponieważ w tym modelu najczęściej stosuje się geometryczny wzrost zysków, oszacowaną cenę można nadal podzielić przez zysk z okresu bieżącego i w ten sposób uzyskać wskaźnik c/z. Jeżeli założymy, że:
- spółka zatrzymuje zawsze pewien stały procent zysku (30, 40, 50 lub 70%)
- początkowe ROE utrzyma się przez najbliższe 7 lat
- przez następne 3 lata nastąpi spadek o kilka pkt proc. (w Dodatku podałem szczegóły)
- od 11 roku ROE wyniesie 10%,
to przy koszcie kapitału własnego = 10% wskaźnik C/Z będzie się kształtował jak poniżej:



Dane z wykresu:



Analizując te dane, stwierdzamy, że spółka, która ma k równe 30% lub 40%, nawet przy wielkiej rentowności nie osiągnie C/Z = 15. Dopiero stanie się tak przy k = 50% przy warunku, że obecne ROE > 21%. Nawet dla k = 70% osiągnięcie C/Z jest możliwe dopiero przy bieżącym ROE > 17%. To pokazuje, jak restrykcyjne jest uzyskanie przeciętnej dla WIG wartości tego wskaźnika. Jeśli więc firma na na dziś ma bardzo wysoką rentowność, ale rynek spodziewa się, że po 10 latach wróci do średniej, to C/Z nie powinien być specjalnie duży. Co jeśli k = 0? Oznacza to, że wzrost zysku będzie zerowy, czyli ROE nie będzie mieć żadnego wpływu na wycenę: otrzymamy zwykły model P = zysk / R. Przy założeniu R = 10%, dostajemy za każdym razem c/z = 10.


Dodatek:
Dla DCF przyjąłem następujące wartości w kolejnych latach dla różnych wariantów:


czwartek, 4 maja 2017

Jak ustalić cenę dobra i marży?

Jesteś przedsiębiorcą, który wchodzi na rynek z nowym, ciekawym produktem lub usługą. Zastanawiasz się jednak po ile wycenić produkt i jaką marżę wyznaczyć. To jest fundamentalne pytanie z punktu widzenia wyceny projektów. Projekt najczęściej wycenia się metodą zdyskontowanych przepływów pieniężnych (NPV), ale czy samą cenę jednostkową można w ten sposób ustalić? Nie, bo - pomijając problematykę stopy dyskontowej - w liczniku NPV znajduje się już taki element jak przychód, który składa się z ceny i ilości sprzedanej produkcji.

Jeżeli mamy przeciętnego przedsiębiorcę, to zapewne nie będzie się zbyt długo nad tym zastanawiał - po prostu pochodzi po ulicach, przejrzy anonse, czyli sprawdzi jaka jest cena rynkowa i biorąc czy to średnią, czy średnią + odchylenie standardowe (jeśli uważa, że jego produkt jest wart więcej niż tylko średnia), wyceni swój produkt. Następnie skalkuluje roczne koszty i na ich podstawie sprawdzi czy inwestycja jest opłacalna. Obliczenie marży nie będzie dla niego problemem. Taki przedsiębiorca nie musi studiować ekonomii, aby oszacować cenę i rentowność sprzedaży.

Ale powyższy wywód jest tautologią: skoro z założenia ktoś jest przeciętnym przedsiębiorcą, to nie może wyceniać dobra więcej niż to robi rynek. Trudniej mają ci nieprzeciętni, którzy mają zamiar wejść na rynek z nowym, innowacyjnym produktem albo produktem o lepszej jakości. Z pomocą przychodzi tu mikroekonomia.

Opiszę zagadnienie w 4 punktach.

1) Przedsięwzięcie jest opłacalne, gdy przychody (iloczyn ilości dobra i jego ceny) minus koszty są większe od zera. Oznaczając p - cena danego dobra, y - ilość sprzedawanego dobra, c - koszty poniesione na wytworzenie i sprzedanie dobra w danym okresie, możemy zapisać:

gdzie AC (average cost) - koszt średni albo przeciętny.

Widzimy więc, że podstawową zasadą opłacalności inwestycji jest to, aby cena produktu czy usługi była większa od kosztu przeciętnego. Pierwsze co trzeba zrobić, to oszacować mniej więcej koszty  i podzielić przez ilość dobra, jaką prognozujmy sprzedać w danym okresie. Trzeba tu zauważyć, że ten model odnosi się do konkretnego okresu czasu. Załóżmy, że początkowe nakłady inwestycyjne ponoszone są w 2016 r., a sprzedaż i koszty uzyskanego przychodu, tylko w roku 2017. Oznacza to, że za c podstawiamy tylko koszty z roku 2017. Właściwie można powiedzieć, że model dokładnie odzwierciedla zasady księgowości, jak zasada współmierności kosztów i przychodów oraz zasada memoriałowa. Musimy więc brać pod uwagę także amortyzację - gdyż jest to wydatek odłożony na przyszłość. Ciekawe zagadnienie pojawia się, gdy zastanawiamy się nad kosztami czysto ekonomicznymi, jak koszt czasu i ryzyka. Uwzględniać czy nie uwzględniać? W tej materii musimy się spytać o jaką opłacalność inwestycji chodzi? Księgową, pieniężną, a może czysto ekonomiczną? Jeśli badamy opłacalność pieniężną, to nie mamy już do czynienia z kosztami, ale wydatkami, czyli badamy przepływy pieniężne. Jeśli natomiast badamy przedsięwzięcie bardzo szeroko, czyli jego efektywność ekonomiczną, to bierzemy też koszt czasu, ponoszonego ryzyka i efekty zewnętrzne (jak np. zanieczyszczenie środowiska, hałas i wszystko inne co obniża dobrobyt społeczny). W konsekwencji zysk ekonomiczny może być zerowy albo bardzo bliski zera. Mimo to księgowo albo pieniężnie inwestycja może być bardzo opłacalna. Na pewno warto sobie zrobić taką ocenę projektu z 3 różnych płaszczyzn. Trzeba jednak pamiętać, że rozpatrywane koszty (albo wydatki w formie przepływów pieniężnych) dotyczą tylko tego jednego dobra - jeśli produkujemy 2 różne dobra, to koszty dotyczące 2-go dobra muszą zostać odpowiednio odjęte.

2) Ten sam model zapiszmy dokładniej, tzn. jako równanie przychody - koszty = zysk i od razu przekształćmy


gdzie z - zysk, M - marża netto (rentowność sprzedaży) równa zysk/przychody.

Otrzymaliśmy ciekawy wzór na cenę produktu: jest ona równa kosztowi przeciętnemu podzielonemu przez (1 - marża netto).

Cenę warunkuje więc marża, ale ile powinna ona wynieść? Można to rozwiązać na co najmniej 2 sposoby. Po pierwsze można skorzystać z danych historycznych. Najłatwiej dostępne są dane dla rynku amerykańskiego, np. dla S&P 500. Poniżej zamieszczone dane zasięgnąłem ze strony http://www.multpl.com/. Aby uzyskać marżę, inaczej wskaźnik ROS (return on sales), podzieliłem wskaźnik cena/przychód przez cena/zysk dla lat 2000-2016.



Średnia marża = 6,87%, dominanta = ok. 7,7%.

Ta zgrubna metoda może i jest dość dobrym punktem wyjścia, jednak dla przedsiębiorcy z dużym potencjałem wzrostu sprzedaży, może być nieprzydatna. Dlatego dobrze też użyć drugiej metody. Aby ją zastosować, potrzebny jest trzeci punkt analizy.

3) Dotychczas nie zakładaliśmy, że przedsiębiorca chce osiągnąć jak najwyższy zysk. Dopiero to założenie pozwoli wyznaczyć cenę i marżę. Z maksymalizacją funkcji zysku wiąże się wiele problemów. Pierwsze to oczywiście takie, względem czego maksymalizować zysk? Mamy przecież 3 zmienne: cenę, ilość dobra i koszty. Moglibyśmy próbować maksymalizować zysk względem każdej zmiennej. Powiedzmy, że maksymalizujemy względem ceny. Wiadomo, że cena nie może być zbyt niska, bo zarobimy mniej niż byśmy mogli, ani zbyt wysoka, bo za mało chętnych osób kupi produkt. To podejście jest ciekawe, ale musielibyśmy znać zależność funkcyjną popytu od ceny. Musielibyśmy wiedzieć, jak y zmieni się w zależności od p. Jeżeli przedsiębiorca wchodzi z nowym produktem czy usługą na rynek, to mógłby zrobić pewne badania rynkowe, ankiety itd. Ale to też kosztuje. Łatwiej zacząć od zmiennych, które dobrze znamy i którymi możemy kalibrować. Zamiast od strony popytu, zacznijmy od strony podaży - oceniamy co się stanie, gdy nieco zmienimy y. Zakładamy, że zmienne są funkcjami zależnymi od y. Dostajemy:


Zgodnie z rachunkiem różniczkowym, jeśli funkcja ma ekstremum, to warunkiem koniecznym jest, aby pierwsza pochodna po y równała się 0. Od razu też przekształćmy:

gdzie MC (marginal cost) to koszt krańcowy, który mówi ile zmieni się koszt całkowity (ale tylko ten związany z dobrem y) na skutek niewielkiej zmiany w produkcji dobra (lub dostarczeniu usługi). Ponieważ produkt ze swojej natury jest liczony w jednostkach naturalnych, to ta niewielka zmiana produkcji będzie po prostu oznaczać 1 dodatkową jednostkę produktu. Jeżeli produkujemy o 1 jednostkę więcej, to być może potrzebujemy zużyć do tego więcej materiału, zatrudnić dodatkowego człowieka itp. Suma tych nowych kosztów to właśnie MC.
 
Jeżeli cena p zależy od y, to zgodnie z twierdzeniami na pochodnych dostaniemy:


Ostatnim elementem poszukiwania maksimum zysku byłoby sprawdzenie czy druga pochodna funkcji zysku jest ujemna, tzn. czy nachylenie tej funkcji spada, gdy wyprodukujemy nieco więcej dobra. Żeby zysk osiągnął maksimum, to zanim go osiągnie, musi rosnąć coraz wolniej. Okazuje, że przy całkiem naturalnych założeniach, tak właśnie się dzieje. Dowód opisałem w Dodatku*.

I to już koniec matematyki wyższej. Reszta to zwykłe przekształcenie:


W nawiasie kwadratowym dostaliśmy coś interesującego: procentową zmianę ceny na skutek procentowej zmiany ilości dobra. Jak wyżej stwierdziłem interesuje nas mała zmiana y. Powiedzmy, że w przybliżeniu:

Możemy również spokojnie pozwolić sobie na zapis:

 Wtedy dostaniemy:


Tak więc cena dobra jest to niejako zdyskontowany koszt krańcowy. Jednakże takie rozpatrywanie sprawy jest kłopotliwe. Czy zwiększenie / zmniejszenie produkcji wywoła w nas motywację do zmian ceny? Jeśli trafiamy na jakieś przeszkody w produkcji, tak że nasze zasoby stają się ograniczone, to z jednej strony chcielibyśmy podnieść cenę, aby skompensować mniejsze zyski (jeżeli podaż dobra spada, to jego cena rośnie). Ale z drugiej strony, jeżeli mniej produkujemy, to koszty spadają, co ogranicza spadek zysków. W konsekwencji cena może w ogóle się nie zmienić albo zmienić się nieznacząco.

4) W końcu połączmy wzór na cenę z punktu (2) z ostatnim wzorem na cenę z punktu (3) i stąd odnajdziemy wzór na M:



Odpowiedź na tytułowe pytanie znaleźliśmy. Newralgicznym punktem pozostaje r. Przeanalizujmy krótko 3 możliwe rozwiązania.

Po pierwsze - jak zasugerowałem wyżej - można założyć, że r = 0, tj. cena nie zmieni się pod wpływem zmiany ilości produkowanego dobra. Wtedy też p = MC (jest to klasyczny przypadek konkurencji doskonałej - cena jest stała i niezależna od producenta, bo narzuca ją rynek).

Po drugie można przyjąć, że r  = -1, tzn. jeżeli produkujemy o 1% więcej, to cenę obniżamy o 1%, aby zachęcić dodatkowe osoby do kupna tych nowych jednostek. Wydawałoby się to rozsądne, ale wtedy M = 0. Trzeba jednak zauważyć, że jeśli zastosujemy podejście ekonomicznych kosztów, to znaczy ujmując m.in. koszt kapitału własnego w kosztach c, możemy dostać marżę bliską zera.

Po trzecie AC = MC, wtedy M = -r. W tej sytuacji jest jasne, że r musi być ujemne (bo marża musi być nieujemna). Marża stanowi wówczas wartość bezwzględną ze zmiany ceny wynikającej z wyprodukowania dodatkowej jednostki dobra.


Przedstawiona analiza nie jest pełna. Inwestor na pewno będzie brał pod uwagę np. okres zwrotu inwestycji. W zależności od konwencji, powszechnie wiadomo, że odwrotność ROI, ROA, ROE czy IRR jest równa okresowi, po jakim zwraca się inwestycja (pokazuje bowiem ile jednostek zysku mieści się w kapitale, przez który się dzieli, a liczba tych jednostek odpowiada liczbie okresów finansowych). Jednocześnie wiadomo, że np. marża*(przychód/aktywa) = ROA. Wynika z tego, że do marży można także podejść od strony okresu zwrotu inwestycji.


*DODATEK
Warunek konieczny i wystarczający dla maksymalnego zysku może zostać spełniony dla wielu modeli zarówno liniowych, jak i nieliniowych. Zanim podzielimy problem na te dwa przypadki, to spostrzeżemy jedną rzecz. Mianowicie, całkiem rozsądne jest, że gdy trochę więcej produkujemy, to cenę produktu obniżamy: jeżeli jestem zmotywowany, by sprzedać więcej dobra, to powinienem obniżyć jego cenę (czyli pierwsza pochodna ceny jest ujemna).

(1) Nieliniowe modele.
Mogę tak robić, dopóki koszty mi nie przeszkadzają. Jednak z czasem koszty mogą mocno ograniczać moje możliwości. Im większa skala produkcji, tym więcej problemów, potrzebne są nowe budynki, nowi menedżerowie, a ponadto jeśli zależy mi na zatrudnianiu nowych pracowników, to popyt na pracę będzie zmuszał do podnoszenia wynagrodzenia. To wszystko razem będzie generowało coraz wyższe koszty krańcowe (gdyby tego skumulowanego efektu nie było, koszty całkowite by rosły, ale koszty krańcowe stałyby w miejscu).

Prowadzi to do wniosku, że z jednej strony cena na skutek zmian produkcji powinna spadać coraz wolniej (a być może nawet od jakiegoś punktu zacząć rosnąć) i zachowywać się np. jak funkcja p(y) = 10*y^(-1/2):



Wtedy jej pierwsza pochodna będzie funkcją -5*y^(-3/2):


Druga pochodna ceny po y ma wtedy postać 15/(2 y^(5/2)):



Widać, że druga pochodna jest dodatnia. Ma to istotne znaczenie dla znalezienia maksimum zysku.

Z drugiej strony - zgodnie z powyższą analizą - koszty całkowite będą rosły coraz szybciej, np. niech c = 2y^(3/2):





A wtedy koszty krańcowe muszą rosnąć. Dla poprzedniej funkcji dostaniemy MC(y) =  3y^(1/2):


Druga pochodna kosztów c po y ma postać 3/(2y^0.5):


Teraz łatwo zobaczyć, że istnieje maksimum zysku.
Pokażmy to rachunkowo, po kolei:

Pierwsza pochodna po y:


gdzie MP(y) to krańcowy zysk (marginal profit). Warunkiem koniecznym maksimum jest aby:


Dla naszego przykładu dostaniemy:


Ale przecież na początku podałem postać funkcji p(y). Musi zostać spełniony układ równań:




Punkt ten wyznacza pewne ekstremum, ale nie wiadomo czy minimum czy maksimum.
Dla ułatwienia oznaczmy:

Warunkiem wystarczającym istnienia maksimum jest, aby druga pochodna funkcji zysku po y była mniejsza od zera:


Dla wybranego wcześniej przykładu dostaniemy:



Nierówność ta zostanie spełniona dla każdego y > 0. Stąd warunek wystarczający maksimum został spełniony.

(2) Modele liniowe.
Załóżmy prostszą sytuację, że po pierwsze cena spada liniowo, np. p = 14 - 3y. W tej sytuacji s = -3 oraz druga pochodna = 0. Po drugie, że koszty rosną liniowo, np. c = 2y. Wtedy MC = 2, ale druga pochodna = 0. Wtedy warunek konieczny to p - 3y = 2. Znów rozwiązujemy układ równań:


Warunek wystarczający to 2*(-3) + 0 < 0 jest zawsze spełniony, więc istnieje maksimum.

Chociaż warunek wystarczający zostanie spełniony zawsze dla liniowych modeli (jeśli tylko r < 0), to z warunkiem koniecznym jest już trudniej. Np. jeśli c = 20y oraz p = 14 - 3y, to y = -1, a więc produkcja powinna wynieść co najwyżej 0, czyli najbardziej opłacalne byłoby nie prowadzić działalności.