niedziela, 5 marca 2017

Czym się różni pamięć długoterminowa od krótkoterminowej?

Gdy myślimy o procesach biologicznych, intuicyjnie rozumiemy co oznacza pamięć krótkoterminowa a co długoterminowa. Ale w procesach finansowych sprawa się komplikuje. Przykładem procesu z krótką pamięcią jest AR(p). Jednak rząd p = 1 nie oznacza wcale, że całkowita pamięć działa tylko 1 krok naprzód. Na przykład wygenerujmy następujący skorelowany gaussowski proces z 1000 obserwacji:


Sprowadzając go do stacjonarności (czyli biorąc pierwsze różnice) otrzymamy zwykły AR(1) ze współczynnikiem autoregresji 0.6 (czyli jest to ruch Browna z autokorelacją 1 rzędu). Dostaniemy dla niego funkcję autokorelacji - ACF: 



Empiryczny ACF zaczyna się faktycznie od poziomu 0.6, ale w kolejnych rzędach błędnie odnajduje dodatkowe autokorelacje. ACF wskazuje, że pamięć kończy się dopiero przed 6-tą obserwacją (p-value = 0.11). Dzieje się tak, dlatego że kolejne obserwacje wpływają na siebie: jeżeli jednego dnia jest wzrost, to szansa na wzrost kolejnego dnia jest spora, ale skoro tak, to i trzeciego dnia będzie spora itd. Tak więc pozornie pierwszy dzień wpływa na trzeci, czwarty itd. To daje do myślenia. Ten efekt może być pomylony z "efektem motyla" znanym z teorii chaosu,  który będzie związany z pamięcią długoterminową, ale nie krótkoterminową.
Aby usunąć te wewnętrzne autokorelacje, stosuje się cząstkową autokorelację PACF (partial ACF).


PACF wyraźnie wskazuje, że już po 1 kroku autokorelacja znika.

Stąd PACF służy do oceny autokorelacji p-tego rzędu, a jednocześnie pozwala dobrać optymalny poziom p w modelu AR(p).

A teraz wygenerujmy proces z długą pamięcią, ale bez krótkiej, tzn. część AR(1) = 0, a więc wydawałoby się, że także autokorelacja cząstkowa nie wystąpi. Niech to będzie proces o takim przebiegu, również z 1000 obserwacjami:


Jest to ułamkowy proces ruchu Browna z wykładnikiem Hursta = 0.9, czyli jego pierwsze różnice charakteryzują się ułamkowym rzędem integracji d = 0.4 w modelu ARFIMA (krótkie opisowe wyjaśnienie ułamkowego rzędu integracji zamieściłem w Czy oczekiwane stopy zwrotu w ogóle się zmieniają?, tam też opisałem znaczenie ACF). Analizując pierwsze różnice, zacznijmy znowu od ACF:


Tym razem ACF spada o wiele wolniej i pamięć utrzymuje się jeszcze długo po 9-tej obserwacji. Następnie sprawdźmy PACF:


Autokorelacja cząstkowa zanika dopiero po 3 kroku. Sugerowałoby to, że aby wymodelować ten proces, trzeba by użyć AR(3), a właściwie ARFIMA(3, 0.4, 0) - część MA zostawiam, aby nie wprowadzać zamieszania. A jednak gdy mamy do czynienia z procesami o długiej pamięci, ta klasyczna zasada Boxa-Jenkinsa nie działa. Przecież wygenerowałem ten proces, wiedząc, że nie posiada krótkiej pamięci, którą odnajduje PACF. Żeby zauważyć, że rzeczywiście długa pamięć "myli" PACF, możemy estymować 2 modele: ten prawidłowy, tj. ARFIMA(0, 0.4, 0) oraz ARFIMA(1, 0.4, 0). Taką możliwość daje program Matrixer.

ARFIMA(0, 0.4, 0)

Dostaliśmy d = d1 = 0.448. Ocena parametru jest bliska prawdziwemu 0.4.

ARFIMA(1, 0.4, 0)

W tym przypadku część AR(1) okazuje się nieistotna statystycznie (p-value = 0.176), natomiast d = d1 = 0.388 jest istotny i bliski prawdziwemu 0.4.

Nie ma sensu zwiększać p aż do 3, skoro już 1 rząd jest nieistotny. Dlatego widać, że długa pamięć może zastąpić całkowicie autoregresję. PACF działałby tylko wtedy, gdybyśmy od początku nałożyli warunek, że d = 0, czyli po prostu estymowali zwykły AR. Wtedy istotnie powinniśmy zastosować AR(3).

Mimo iż pamięć jest rozważana w rozmaitych kontekstach, to okazuje się, że różnicę pomiędzy pamięcią krótko- a długoterminową można sformułować następująco: pamięć, w sensie ACF, krótkoterminowa zanika geometrycznie, natomiast długoterminowa - hiperbolicznie [1, 2]. Przykładem funkcji, która maleje geometrycznie jest e^(-x), a hiperbolicznie 1/(1+x). Poniższe rysunki pozwalają porównać obydwa zjawiska:



Tak więc w szeregach czasowych z długą pamięcią, ACF i PACF są nieprzydatne. ACF może błędnie sugerować niestacjonarność procesu (kolejne obserwacje korelują ze sobą, powodując nieprzypadkowe zmiany, co wywołuje ich oddalanie się od średniej), a PACF autokorelację pierwszych rzędów. Może się oczywiście zdarzyć odwrotnie - istnieć autokorelacja liniowa dalekiego rzędu, np. 7-go i jeśli nie wyłapiemy AR(7), to błędnie oszacujemy występowanie długiej pamięci. Co więcej, nawet jeśli wyłapiemy AR(7), ale nie zauważymy, że reszty modelu są (nadal) wzajemnie skorelowane, to też błędnie oszacujemy występowanie długiej pamięci. To właśnie dlatego, aby usunąć autokorelacje pomiędzy resztami (składnikami losowymi), stosuje się proces MA. Stąd podstawą jest model ARMA, ARIMA i dopiero potem ARFIMA.

Literatura:
[1] Pong S., Shackleton, M. B., Taylor, S. T., Distinguishing short and long memory volatility specifications, 2008;
[2] Jin H. J., Frechette, D. L., Fractional Integration in Agricultural Futures Price Volatilities, May 2004.

wtorek, 21 lutego 2017

Robot ma wielkie oczy

Każdy prawdziwy inwestor rozumie, że praca sama w sobie nie jest wartością, że nie jest celem samym w sobie. Że stanowi tylko narzędzie do uzyskania dochodów. W wielu popularnych poradnikach - często pisanych przez ludzi, którzy rzeczywiście przeszli drogę od zera do milionera - przeczytamy czy wysłuchamy, że celem powinna być zawsze wolność finansowa, a nie dobra praca.

Można powiedzieć, że tak myślą inwestorzy - marzą, by ich portfele rosły same bez udziału ich wysiłku. Nie mieli by nic przeciwko temu, żeby program komputerowy (czy robot) sam optymalizował ich udziały w papierach wartościowych czy innych aktywach.

Ale coraz częściej można spotkać się z fatalistycznymi wizjami i zmartwieniami samych ekonomistów, o tym, że wkrótce roboty i sztuczna inteligencja zabiorą ludziom pracę - zarówno fizyczną jak i umysłową - i trzeba się ich bać. Dobra - gdyby tylko jacyś tam nieznani ekonomiści tak się przejmowali - to pal licho. Ale gdy słyszy się to z ust szanowanych, często nagradzanych ekonomistów - to budzi zgrozę. Dla przykładu - zacytuję http://www.businessinsider.com [1]:

"A Nobel Prize-winning economist has warned that the rise in robotics and automation could destroy millions of jobs across the world. Angus Deaton, who won the Nobel Prize last year for his work on health, wealth, and inequality, told the Financial Times he believes robots are a much greater threat to employment in the US than globalisation."

Richard B. Freeman z kolei pisze długi artykuł na ten temat i najpierw zauważa, że strach przed globalnym bezrobociem jest bezpodstawny [2]:

"From the 1930s through the 1990s, fears that technological advances would create permanent joblessness—which seemingly arise whenever unemployment persists for a long period—have proven groundless. In his 1940 State of the Union address, President Franklin Roosevelt blamed high unemployment on the nation’s failure to “[find] jobs faster than invention can take them away,” but when demand ramped up during World War II, the surplus of labor turned into a shortage. In the early 1960s, fears that automation would eliminate thousands of jobs per week led the Kennedy administration to examine the link between productivity growth and employment, but the late 1960s boom ended the automation scare. During the mid-1990s recession, some analysts proclaimed the end of work, only to see the dot-com boom raise the proportion of the adult population working to an all-time high. Employment returns when the economy recovers. And mechanization and automation have been accompanied by an improvement in the structure of jobs, with humans shifting from manual work to professional and managerial work. In the past several decades, the ratio of employment to population has increased rather than decreased. Should this time be different?"

Ale zaraz potem potwierdza, że obecna automatyzacja przechodzi w nową fazę, w której roboty zaczynają przejmować pracę umysłową:

"Pedro Domingos, a computer scientist at the University of Washington, has predicted that “tomorrow’s scientists will have armies of virtual graduate students, doing lab work, statistical analysis, literature search, and even paper-writing.”"

i za chwilę przyłącza się do litanii zagrożeń robotyzacji.

Ekonomiści budują całe modele obliczające ilu ludzi straci pracę i ilu będzie cierpieć przez sztuczną inteligencję [3].

Niewiarygodne, że nawet Bill Gates uważa, że roboty powinny zostać opodatkowane! [4]. Gates jako najbogatszy filantrop na świecie może sobie płacić podatki nawet za oddychanie, ale z lekka drażni sposób, w jaki przedstawiają to dziennikarze, nazywając taki pomysł "rewolucyjnym". Ja rozumiem, że rewolucyjnym pomysłem jest opodatkowanie przychodów. Bo nie inaczej chce Gates.

Dlaczego pomysł Gatesa nie tylko nie jest rewolucyjny, ale jest idiotyczny? Każdy kto trochę zna ekonomię wie, że postęp techniczny obniża koszty, a więc zwiększa tym samym dochody. A skoro przedsiębiorca otrzymuje wyższe dochody, to płaci wyższy podatek dochodowy. Tym samym zyskuje zarówno przedsiębiorca jak i państwo. Z tych podatków państwo może finansować zasiłki i inne potrzeby socjalne. Na tym opiera się prawdziwy rozwój gospodarczy.

Tymczasem Gates chce by robota traktować na równi z człowiekiem, czyli uważać, że robot uzyskuje jakiś dochód, od którego trzeba pobrać podatek. Co jest oczywiście fałszem, bo robot nie uzyskuje żadnego wynagrodzenia, a tylko pracodawca niejako przejmuje to wynagrodzenie (i w ten sposób obniża swoje koszty). Co oznacza, że Gates chce, aby dochody zostały podwójnie opodatkowane (a z VAT potrójnie): od przychodu z robota i od zysku brutto. A przecież zysk brutto i tak wzrósł, a więc jest podatek nie tylko od przychodu, ale jeszcze od wyższego zysku brutto.

Przykład: powiedzmy, że początkowo zysk brutto wynosi 1, a dzięki robotowi jest to 1+x = y. Jeśli podatek wynosi 0,2 zysku brutto, to bez robota podatek wynosi 0,2, a z robotem 0,2(1+x) = 0,2y. Jest to prawidłowa sytuacja, gdy państwo zyskuje dzięki robotowi dodatkowe 0,2x. Tak więc już pewna część przychodu z robota jest opodatkowana. Ale teraz dokonajmy grabieży, którą proponuje Gates: najpierw opodatkowujemy x, czyli pierwszy podatek to 0,2x. Tę część odejmujemy od zysku brutto, czyli y - 0,2x stanowi podstawę podatku dochodowego. Ponieważ y = 1+x, to podstawa wynosi 1+x - 0,2x = 1+ 0,8x. Z tego wyliczamy podatek 0,2*(1+0,8x). Tak więc gdy zsumujemy obydwa podatki, to dostaniemy 0,2x + 0,2(1+0,8x) = 0,2(x + 1 + 0,8x) = 0,2(1 + 1,8x). Jeśli x = 0, wtedy dostaniemy początkowy podatek 0,2. Ale jeśli x > 0, to zawsze dostaniemy większy całkowity podatek. Podsumujmy te 3 sytuacje:
1. gdy nie ma robota, to podatek = 0,2
2. gdy jest robot, ale jeden podatek od zysku brutto, to podatek ten wynosi 0,2(1+x)
3. gdy jest robot, ale są dwa podatki - od przychodu i zysku brutto, to podatek sumaryczny wynosi 0,2(1 + 1,8x).

I oczywiście analogicznie łatwo zauważamy, że końcowy zysk netto wynosi odpowiednio dla tych sytuacji:
1. 0,8
2. 0,8(1 + x)
3. 0,8(1 + 0,8x)

A wracając do meritum: powiedzmy, że roboty przejmą niemal całą pracę ludzi, razem z prawnikami, sędziami, księgowymi, inżynierami, lekarzami, politykami itd. No i co z tego? Czy praca sama w sobie jest świętością? Czy chodzi o to, żeby mieć pracę czy pieniądze? Jeżeli ludzie uważają, że chodzi o to, by mieć pracę, to oczywiście będzie dla nich problem. Ale to będzie problem wyłącznie psychologiczny, a nie realny, ekonomiczny. Powyżej podałem właściwie rozwiązanie. Postęp techniczny, jak np. sztuczna inteligencja zwiększa oszczędność czasu i obniża koszty, a przez to zwiększa dochody. Większe dochody oznaczają większe podatki, które można przeznaczyć dla wszystkich tych, którzy nie potrafią dostosować się do panujących warunków. W przyszłości, dzięki olbrzymiemu postępowi, państwa - jeśli nie dojdzie do kolejnej wojny światowej albo globalnej pandemii - będą posiadać ogromne z dzisiejszego punktu widzenia dochody, które będą przeznaczać na warunki socjalne, ale nikt nie będzie już tego nazywał zasiłkami, bo po prostu będzie to coś normalnego, naturalnego. Każdy będzie dostawał pieniądze od państwa na utrzymanie, a ludzie będą mieć więcej czasu na rozwój osobisty, naukę, badania, rodzinę itp. Dlatego kapitalizm przejdzie w sposób naturalny w swego rodzaju ekonomię dobrobytu. Warto zauważyć, że już dziś państwa nazywane państwami dobrobytu, wcale nie przeżywają wielkich kryzysów gospodarczych. Należy jednak pamiętać, że aby taka wizja mogła się spełnić, to wszelka pomoc socjalna nie może opierać się na zadłużaniu państwa, ale przeciwnie - tylko nadwyżka budżetu może być wykorzystana do celów socjalnych.

Dziś komputer potrafi wygrać już w pokera z najlepszymi zawodnikami. Tak więc wkrótce automaty będą mogły przejmować niektóre zadania umysłowe. Gdy roboty przejmą np. pracę polityków, to nastąpi ogromny spadek kosztów i olbrzymia oszczędność. Decyzje będą zawsze szybkie, optymalne (bo oparte na pełnej wiedzy ekonomiczno-socjologicznej), ludzie nie będą się wściekać, nie będzie protestów, strajków itd. - obniżą się koszty społeczne. Również gdyby robot był sędzią, to wydawałby zawsze najbardziej sprawiedliwe, optymalne wyroki w oparciu o całą wiedzę prawniczą. I nikt nie mógłby go posądzać o stronniczość. Oczywiście ktoś to wszystko musi kontrolować. Zawsze będą ludzie, ktorzy będą mieć pracę. Być może większość ludzi będzie musiała być informatykami lub kimś łączącym informatykę z innym zawodem. Fataliści od science-fiction zaczną oczywiście snuć obawy, co to będzie jak robot przejmie rolę informatyka. Ja im proponuję w takim razie, by od  razu podyskutowali, co tu zrobić jak Słońce się wypali.



Źródło:
[1] NOBEL ECONOMIST: 'I don’t think globalisation is anywhere near the threat that robots are'
[2] Who Owns the Robots Rules the World
[3] Seth G. Benzell, Laurence J. Kotlikoff, Guillermo LaGarda, Jeffrey D. Sachs,  Robots Are Us: Some Economics of Human Replacement, 2016. Link: http://www.nber.org/papers/w20941
[4] Bill Gates z rewolucyjnym pomysłem: Opodatkować roboty