Wczoraj zamieściłem wpis pod tytułem "Badanie 3 wybranych strategii analizy technicznej i ich połączenia na przykładzie S&P 500", w którym opisywałem testy zamieszczone w artykule C. Lento "A Combined Signal Approach To Technical Analysis On The S&P 500". Jeśli ktoś to czytał, na pewno zdziwił się, że do obliczenia średniej kroczącej wykorzystano logarytmiczne stopy zwrotu. Mnie też to zdziwiło - powinno używać się średniej cen z n okresów. Na początku sądziłem, że jest okej, bo może chodzi o to, żeby posłużyć się zlogarytmowanym indeksem. Przepisałem więc wzory i tabele z wynikami. Później jednak zacząłem się zastanawiać nad tymi logarytmicznymi stopami zwrotu wraz z ich sygnałami. Doszedłem do wniosku, że to bzdura. Poszukałem w internecie publikacji, w której ktoś użył tego samego wzoru na średnią kroczącą. Nie znalazłem. Wysnułem wniosek, że C. Lento pomimo dużej wiedzy ekonometrycznej nie przyłożył się; być może nie ma dużego pojęcia o analizie technicznej. Przyjrzyjmy się sygnałowi kupna i sprzedaży na MAC-O lub TRB-O. Przecież każdy zaawansowany technik wie, że trzeba użyć pewnych filtrów procentowych bądź czasowych zanim się dokona się transakcji. Tutaj brakuje takowych. Przejrzałem szybko pracę Brocka, Lakonishoka, i LeBarona "Simple Technical Trading Rules and the Stochastic Properties of Stock Returns" (1992), w której wprowadzają właśnie te metody MAC-O i TRB-O. Po pierwsze w tej publikacji Autorzy stosują metodę bez filtru oraz z filtrem 1%. Po drugie wzoru z logarytmicznymi stopami zwrotu na sygnał kupna i sprzedaży w ich pracy nie zobaczyłem. Dlatego też trzeba stwierdzić, że praca Lento zawiera błędy, czyli nie należy jej traktować poważnie i jej cytować. Co ciekawe wikipedia angielska również posługuje się tą samą pracą Lento w haśle Technical analysis. Świadczy to o tym, że należy bardzo uważać na publikacje naukowe. Jeśli Autor nie jest wybitnym autorytetem w swojej dziedzinie (Brock i Lakonishok są), to należy podchodzić od samego początku nieufnie i krytycznie do treści.
.................................................................................
Poniżej można przeczytać wczorajszy wpis:
Powinniśmy pamiętać, że nawet jeśli analiza techniczna pozwala w niektórych przypadkach poprawnie przewidzieć kierunek kursu, to wcale nie daje to jeszcze przewagi na rynku. W poprzednim artykule dowodziłem (po raz kolejny), że indeks SP 500 podlega pamięci długoterminowej. W tym sensie rynek pozostaje nieefektywny lub co najwyżej staje się ułamkowo efektywny. Oznacza to jedynie, że występują długoterminowe trendy, tak iż ryzyko jest (w pewnych okresach) mniejsze niż dla efektywnego rynku. Metoda "kup i trzymaj" (dla rynku akcji) może się więc okazać równie dobra jak analiza techniczna. Aby analiza techniczna stanowiła zyskowną strategię, to musi pokonać metodę kup i trzymaj.
W artykule "A Combined Signal Approach To Technical Analysis On The S&P 500" C. Lento testuje 3 metody analizy technicznej dla S&P 500, w tym metodę łączonych średnich kroczących. Na końcu nawet zostaje przetestowana strategia połączona, tzn. strategia, w której łączy się te oddzielne metody w jedną całość. Nazywa ją Combined Signal Approach (CSA).
Zajmijmy się metodą średnich kroczących krzyżowanych (łączonych), A moving average cross-over (MAC-O). Autor definiuje reguły tradingu w następujący sposób. Sygnał kupna:
Sygnał sprzedaży:
gdzie:
R(i,t) - logarytmiczna stopa zwrotu w krótkim okresie S (1 lub 5 dni)
R(i,t-1) - logarytmiczna stopa zwrotu w długim okresie L (50, 150 lub 200 dni). Do testu zostały użyte kombinacje (1,50), (1,200) i (5,150).
Metoda filtra generuje sygnał kupna i sprzedaży na następującej zasadzie: kupuj gdy cena rośnie f% powyżej ostatniego dołka i sprzedaj gdy cena spada f% poniżej ostatniego szczytu. Do testu zostały użyte parametry: 1%, 2% i 5%.
Ostatnia z trzech strategii to zasięg przebicia, Trading Range Break-out (TRB-O). Odnosi się ona do poziomu wsparcia i oporu. Generuje sygnał kupna gdy cena przebija w górę opór, a sygnał sprzedaży gdy przebija w dół wsparcie. Poziom oporu został zdefiniowany jako lokalne maksimum, a poziom wsparcia jako lokalne minimum. Matematycznie zostało to zapisane:
gdzie
P(t) - cena w okresie t.
Strategia TRB-O została przebadana dla 50, 150 i 200 dni (n).
Test objął okres 1 styczeń 1950 - 19 marzec 2008 (14646 obserwacji). Opierano się tylko na cenach zamknięcia. Metodologię skonstruowano następująco. W przypadku MAC-O jeśli padał sygnał BUY, zajmowano pozycję long, a gdy następował sygnał SELL, sprzedawano instrument i kupowano instrument bez ryzyka, dla którego zakładano roczną stopę procentową 3%. Z kolei w przypadku filtra cenowego i TRB-O zajmowano pozycję long (dla BUY) i short (SELL).
Najważniejsze wyniki zostały przedstawione w poniższej tabeli:
Okazuje się, że po uwzględnieniu kosztów transakcyjnych tylko strategia oparta na średnich kroczących o parametrach 1/200 i 5/150 jest w stanie pokonać metodę "kup i trzymaj" i to nie więcej niż 0,5% rocznie. W przypadku 1/200 roczna nadwyżkowa stopa zwrotu wyniosła 0,5%, a dla 5/150 0,3%.
Skoro pojedynczo działa jedynie MAC-O, to wydaje się, że należy odrzucić TRB-O i metodę filtra. Jednak Autor sugeruje, że połączenie metod w postaci CSA może dać lepsze rezultaty. Wszystkich reguł razem jest 9. Zatem można kombinować je ze sobą. Liczba danych pozwoliła połączyć ze sobą maksymalnie 6 reguł (6/9). W ten sposób otrzymano wyniki:
De facto jedynie strategia 2/9, tj. połączenie 2 reguł przyniosło nadwyżkę 1,6% po odjęciu prowizji maklerskich. Szczerze mówiąc jednak nie wiadomo do końca o co chodziło tutaj Autorowi, bo przecież nie wiadomo które połączenia najlepiej się sprawdziły.
Podsumowując, mimo iż artykuł Lento prowadzi do konkluzji, że metoda średnich kroczących oraz pewne połączenie strategii pokonuje rynek, to uważam, że jest przeciwnie. Nadwyżka 0,5% rocznie ponad "kup i trzymaj" to przecież ciągle bardzo mało. Z kolei pomysł włączenia do strategii metod które pojedynczo się nie sprawdzają, wydaje mi się nietrafny. Nadwyżka 1,6% ponad "kup i trzymaj" (w sumie też niewiele) uzyskana z połączenia 2 nie wiadomo jakich reguł pozostaje tylko teoretyczną ciekawostką.
Literatura:
C. Lento, A Combined Signal Approach To Technical Analysis On The S&P 500, 2008 - praca jest dostępna w Internecie za darmo. Wystarczy wpisać tytuł w Google Scholar.
Pokazywanie postów oznaczonych etykietą analiza techniczna. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą analiza techniczna. Pokaż wszystkie posty
poniedziałek, 20 lutego 2012
niedziela, 15 stycznia 2012
Linie trendu - refleksje
Ostatni wpis Czy analiza techniczna działa? zmieniałem i poprawiałem wielokrotnie. Na przykład wyniki dla BRE Banku zaczęły mnie zastanawiać, bo znacznie się różniły się od pozostałych dużych spółek. Dla wszystkich dużych spółek częstość zmiany kierunku po przecięciu linii trendu wynosiła ponad 55%, a najczęściej ponad 60%. W przypadku BRE dla przecięcia linii trendu rosnącego wyniosło tylko 50% i spadkowego 40%. Przetestowałem więc jeszcze raz BRE Bank i okazało się, że tym razem częstości zbliżyły się do tych, które prezentowały inne duże spółki. Różnica wynika z dwóch powodów. Przede wszystkim za drugim razem podczas testu znalazłem dwa razy więcej obserwacji. Drugą sprawą było to, że - jak mi się wydaje - nabrałem pewnego doświadczenia i "oka technicznego". W analizie technicznej potrzeba dość miękkiego oka na to co się patrzy.
Może podam przykład. Kiedy linia trendu spadkowego zostaje przebita +4%, to zgodnie z punktem 4 oczekuje się wzrostów przez co najmniej ok. tydzień. Ale nie oznacza to, że kurs musi rosnąć w ciągu tego tygodnia. Może tylko stać, nawet przez kilka tygodni i potem znowu zacząć rosnąć, ale ważne by nie spadł poniżej linii, którą niedawno przebił lub po prostu aby nie spadł poniżej ceny zakupu. Minimalna zmiana warunku może diametralnie zmienić wynik testu. A tutaj się właśnie liczą takie niuanse. Potrzebny więc jest albo specjalny program, w którym można byłoby umieścić najbardziej szczegółowe warunki, aby dokonać precyzyjnych oszacowań albo spróbować subiektywnie ocenić sytuację w danym przypadku.
Moja metoda była oczywiście subiektywna. Starałem się wypośrodkować pomiędzy tymi dwoma warunkami. Jeśli uznałem, że kurs za silnie spada pomimo uprzedniego przebicia linii trendu +4% filtru, to oceniałem sytuację jako "porażkę", nawet jeśli później kurs nagle znowu się podniósł - w końcu nie znamy przyszłości, a trader musi się bronić przed stratami.
Z drugiej strony, jeśli kurs spadał, ale za to niezbyt silnie - nawet w ciągu tygodnia od przebicia linii trendu - tak że nie wrócił do punktu kupna, a tym bardziej do linii trendu, to można było zastosować kolejny warunek: oczekiwanie na następny tydzień. Wtedy zaczynamy od nowa. Czyli jeśli w drugim tygodniu kurs rósł - to "sukces". Ale jeśli w tym drugim tygodniu znowu spadał, to znowu pytanie: mocno czy silnie. Ważne by nie spadł poniżej ceny zakupu bądź linii trendu. I potem znowu powtarzamy ów "algorytm". Jednak jeśli po paru tygodniach nie widać wzrostów, to algorytm powinien zostać zatrzymany i sytuacja oceniona jako porażka. Ten sam schemat należy wykorzystać dla przecięcia linii trendu rosnącego.
Im więcej i głębiej analizuję te wykresy, tym silniej dochodzę do wniosku, że w przecięciach wsparć i oporów, czy jak kto woli, linii trendu, tkwi pewien potencjał. Nie chodzi o to, że to są jakieś tam "narzędzia", jak to mawiają technicy. To jest obiektywna metoda przewidywania kursu. Naprawdę chciałem ją obalić, ale dla dużych spółek nie umiałem. Nie wiem czy prawdopodobieństwo jej trafności wynosi 55, 60, 65%, a maksymalnie 70%, ale krótkoterminowa bezwładność kursu wydaje się istnieć. Niemniej pamiętać trzeba, że nawet gdyby w pełni udowodnić jej skuteczność, to nadal nie daje gwarancji ponadprzeciętnej stopy zwrotu.
Może podam przykład. Kiedy linia trendu spadkowego zostaje przebita +4%, to zgodnie z punktem 4 oczekuje się wzrostów przez co najmniej ok. tydzień. Ale nie oznacza to, że kurs musi rosnąć w ciągu tego tygodnia. Może tylko stać, nawet przez kilka tygodni i potem znowu zacząć rosnąć, ale ważne by nie spadł poniżej linii, którą niedawno przebił lub po prostu aby nie spadł poniżej ceny zakupu. Minimalna zmiana warunku może diametralnie zmienić wynik testu. A tutaj się właśnie liczą takie niuanse. Potrzebny więc jest albo specjalny program, w którym można byłoby umieścić najbardziej szczegółowe warunki, aby dokonać precyzyjnych oszacowań albo spróbować subiektywnie ocenić sytuację w danym przypadku.
Moja metoda była oczywiście subiektywna. Starałem się wypośrodkować pomiędzy tymi dwoma warunkami. Jeśli uznałem, że kurs za silnie spada pomimo uprzedniego przebicia linii trendu +4% filtru, to oceniałem sytuację jako "porażkę", nawet jeśli później kurs nagle znowu się podniósł - w końcu nie znamy przyszłości, a trader musi się bronić przed stratami.
Z drugiej strony, jeśli kurs spadał, ale za to niezbyt silnie - nawet w ciągu tygodnia od przebicia linii trendu - tak że nie wrócił do punktu kupna, a tym bardziej do linii trendu, to można było zastosować kolejny warunek: oczekiwanie na następny tydzień. Wtedy zaczynamy od nowa. Czyli jeśli w drugim tygodniu kurs rósł - to "sukces". Ale jeśli w tym drugim tygodniu znowu spadał, to znowu pytanie: mocno czy silnie. Ważne by nie spadł poniżej ceny zakupu bądź linii trendu. I potem znowu powtarzamy ów "algorytm". Jednak jeśli po paru tygodniach nie widać wzrostów, to algorytm powinien zostać zatrzymany i sytuacja oceniona jako porażka. Ten sam schemat należy wykorzystać dla przecięcia linii trendu rosnącego.
Im więcej i głębiej analizuję te wykresy, tym silniej dochodzę do wniosku, że w przecięciach wsparć i oporów, czy jak kto woli, linii trendu, tkwi pewien potencjał. Nie chodzi o to, że to są jakieś tam "narzędzia", jak to mawiają technicy. To jest obiektywna metoda przewidywania kursu. Naprawdę chciałem ją obalić, ale dla dużych spółek nie umiałem. Nie wiem czy prawdopodobieństwo jej trafności wynosi 55, 60, 65%, a maksymalnie 70%, ale krótkoterminowa bezwładność kursu wydaje się istnieć. Niemniej pamiętać trzeba, że nawet gdyby w pełni udowodnić jej skuteczność, to nadal nie daje gwarancji ponadprzeciętnej stopy zwrotu.
Labels:
analiza techniczna
wtorek, 4 października 2011
Czy analiza techniczna działa?
Znawcy analizy technicznej z powątpiewaniem czytają próby odpowiedzi na takie pytania. Jest to zrozumiałe, ponieważ AT stanowi tak rozległe narzędzie, że nie sposób odpowiedzieć na nie jednoznacznie. Można natomiast jednoznacznie odpowiedzieć czy sprawdzają się określone metody AT. W internecie znajdujemy artykuł z 2002 r. o buńczucznym tytule:
Does Technical Analysis Work?
Autorzy A. Yeung, M. T. Pankaj, N. Patel i S. S. Kim sprawdzają skuteczność wybranych metod, takich jak Bollinger Band (w oparciu o 20-dniową średnią kroczącą), Commodity Channel, Fibonnacci Retracement (Fibonacci Raw Score, Fibonacci Range Score), MACD, 5 Day Money Flow, 9 Day RSI, 14 Days Stochastics. Należy zwrócić uwagę na ograniczenia przestrzenne oraz czasowe badań. Badania objęły jedynie indeks S&P 500 w latach 1990-2002. Po uwzględnieniu kosztów transakcyjnych otrzymano wniosek, iż żadna z powyższych metod nie przyniosła ponadprzeciętnych zysków, za wyjątkiem wstęgi Bollingera. Przedstawiono rysunek:
Akurat wstęgę Bollingera darzę największym sceptycyzmem, o czym już kiedyś napomknąłem (Wstęga Bollingera - ujęcie praktyczne).
Tytuł posta jest oczywiście mało sensowny. Spotkałem już różne artykuły, w których konkludują, że niektóre narzędzia analizy technicznej, jak np. przecięcie się szybkiej i wolnej średniej kroczącej daje w niektórych sytuacjach możliwości zarabiania ponad przeciętną.
---------------------------------------------------------------------------
A co z tymi wsparciami i oporami, które atakowałem nazywając "złudzeniem"? Powiem tak, ciężko jest obiektywnie je sprawdzić. Są różnego rodzaju ograniczenia, jak np. jak szerokie okno w miejscach pojawienia się wsparcia/oporu zastosować? W swoich badaniach starałem się zachować okolice 3-4%. Jeśli kurs przebił ten poziom uznawałem, że wsparcie/opór pękł. Można wprowadzać wiele filtrów. Zgodnie z zasadą najważniejsze są trzy pierwsze punkty odbicia trendu - po nich trend może się prędzej załamać. Jeśli więc po dwóch wsparciach/oporach następuje trzecie odbicie na linii trendu, dopiero możemy mówić o tym, że linia trendu się zrealizowała. Należy więc zbadać czy w trzecim punkcie następuje odbicie, które jest istotą linii trendu. Stosowałem także metodę wachlarza. Przykład dla WIG:
Wynik dla WIG (od 1994) okazał się bardzo marniutki. Szukałem linii trendu co najmniej 2-miesięcznych. Zadawałem 4 pytania:
1. Czy odbija od wsparcia (linii trendu rosnącego)?
2. Czy jeśli przecina wsparcie, to przez jakiś czas (zakładałem przynajmniej ok. tydzień) podąża w tym kierunku?
3. Czy odbija od oporu (linii trendu spadkowego)?
4. Czy jeśli przecina opór, to przez jakiś czas (zakładałem przynajmniej ok. tydzień) podąża w tym kierunku?
Częstości dostałem następujące:
Ad 1) 0,5
Ad 2) 0,567
Ad 3) 0,32
Ad 4) 0,59
Istotność statystyczną wyliczałem w oparciu o schemat Bernoulliego. Dla WIG otrzymano brak istotności.
To badanie powtarzałem dla różnych dużych spółek,
Bank Polska Kasa Opieki:
Ad 1) 0,476
Ad 2) 0,667
Ad 3) 0,545
Ad 4) 0,636.
Bank Handlowy w Warszawie:
Ad 1) 0,32
Ad 2) 0,61
Ad 3) 0,35
Ad 4) 0,74
BRE Bank (od 1994):
Ad 1) 0,588 (20/34)
Ad 2) 0,667 (22/33)
Ad 3) 0,364 (12/33)
Ad 4) 0,53 (17/32)
KGHM:
Ad 1) 0,62
Ad 2) 0,70*
Ad 3) 0,42
Ad 4) 0,71*
Getin Holding:
Ad 1) 0,4 (6/15)
Ad 2) 0,6 (9/15)
Ad 3) 0,43 (6/14)
Ad 4) 0,57. (8/14)
Budimex:
Ad 1) 0,58
Ad 2) 0,667
Ad 3) 0,25
Ad 4) 0,583.
Spośród nich jedynie KGHM charakteryzował się niektórymi istotnymi prawdopodobieństwami empirycznymi. Zaznaczone gwiazdką to te istotne.
Należy jednak zwrócić uwagę, że próba dla KGHM objęła zaledwie ok. 30 obserwacji, podobnie dla WIG, a w przypadku wielu innych sporo mniej. Np. dla BHW brak istotności w p. 4 może wynikać z zaledwie 25 obserwacji. Wydaje się, że należy uznać częstość 74% za istotną. Być może przy większej próbce pojawiłaby się istotność, także dla samych "odbić", chociaż w to wątpię. Wsparcia i opory nie mogą raczej służyć do określenia czy w tych miejscach nastąpi odbicie - to czysty przypadek, a więc są w pewnym sensie złudzeniem. Jednakże jeśli nastąpi już to przebicie, to faktycznie sensowne jest zagrać pod zmianę trendu, choćby krótkoterminowego. Generalnie należy jeszcze przebadać mniejsze spółki.
Właśnie sprawdziłem Paged. Kurs spółki jest dość charakterystyczny, bo ma tendencje do spadania (czy też wyniki fin. spółki mają takie tendencje), a czasami potrafi potężnie wybić w górę:
Jak można się domyślić, danych dla pkt-ów 1 i 2 było bardzo mało (zaledwie 9) i częstości nie są istotne statystycznie, natomiast dla pkt-ów 3 i 4 otrzymano 18 danych, czyli też niewiele. Otrzymano następujące częstości:
Ad 1) 55,55% (5/9)
Ad 2) 66,67% (6/9)
Ad 3) 66,67% (12/18)
Ad 4) 72,2% (13/18)
Na oko (na podstawie wykresu) może się wydawać, że skuteczność przebicia linii trendu spadkowego jest spora. Ale pamiętajmy, że założenie dotyczyło poruszania się w kierunku odwrotnym do trendu przynajmniej przez tydzień ( min. 6 dni, nawet 5 jeśli były to spore ruchy) po przebiciu. Ponadto należy wziąć poprawkę na filtr 3-4% wokół linii trendu. A kurs nawet jeśli na chwilę wyszedł ponad linię, to zaraz powracał do niej i czasami dopiero potem znowu odbijał (od tej linii), co sprawia wrażenie, że technika działała. Ale nie było wiadomo, czy rzeczywiście trend się odwrócił. Dobrze widać taką zmyłę w październiku 2010, gdy kurs wybił z trendu spadkowego i wydawałoby się, że pójdzie dalej w górę, ale zatrzymanie wtedy akcji zakończyłoby się bardzo źle.
Drugą małą spółką jaką sprawdziłem jest Lubawa (od 1997 do środka 2011). Jest to typowa spółka mała, gdyż długo i mocno rośnie oraz długo i mocno spada:
Możliwe, że z powodu takich "przedłużonych" ruchów spółek małych, obserwacji jest bardzo mało. W tym przypadku dla każdego z 4-ch punktów poniżej 14. Nie ma sensu mówić oczywiście o istotności stat. Można jedynie przyjrzeć się samym częstościom:
Ad 1) 38,5% (5/13)
Ad 2) 69,2% (9/13)
Ad 3) 50% (6/12)
Ad 4) 40% (4/10)
Trzecią, tym razem średnią spółką, była Dębica (od 1994 do końca 2011):
Wyniki okazują się całkowicie "technicznie" rozczarowujące:
Ad 1) 27,3% (3/11)
Ad 2) 27,3% (3/11)
Ad 3) 31,25% (5/16)
Ad 4) 31,25% (5/16)
Ostatnią spółką jest MNI:
Ad 1) 33,33% (5/15)
Ad 2) 66,66% (10/15)
Ad 3) 43% (6/14)
Ad 4) 50% (7/14)
Zanim podsumuję analizę wsparć i oporów, przypomnę wpis Wsparcia i opory - kolejne złudzenie techników, w którym krytykowałem techników za wprowadzanie złudnych "wsparć" i "oporów" czy raczej linii trendu, stanowiących zwykłe złudzenie.
W istocie wydaje się, że linie trendu nie istnieją (przy założeniu, że trend powinien się utrzymywać co najmniej 2 miesiące) w tym sensie, że zrealizowanie się trzeciego punktu linii trendu jest czysto przypadkowe. Jednakże czym innym jest już przebicie tych obszarów - prawdopodobieństwo zmiany kierunku przynajmniej przez tydzień czasu po tym zdarzeniu jest stosunkowo wysokie (często ponad 55%). Niemniej jak na razie znalazłem tylko jedną spółkę - KGHM - której przebicia są istotne statystycznie. Jedna spółka na GPW to zdecydowanie za mało, by uznać takie narzędzie za obiektywnie opłacalne, choć należy pamiętać, że liczebność próbek w badaniu była bardzo ograniczona.
Does Technical Analysis Work?
Autorzy A. Yeung, M. T. Pankaj, N. Patel i S. S. Kim sprawdzają skuteczność wybranych metod, takich jak Bollinger Band (w oparciu o 20-dniową średnią kroczącą), Commodity Channel, Fibonnacci Retracement (Fibonacci Raw Score, Fibonacci Range Score), MACD, 5 Day Money Flow, 9 Day RSI, 14 Days Stochastics. Należy zwrócić uwagę na ograniczenia przestrzenne oraz czasowe badań. Badania objęły jedynie indeks S&P 500 w latach 1990-2002. Po uwzględnieniu kosztów transakcyjnych otrzymano wniosek, iż żadna z powyższych metod nie przyniosła ponadprzeciętnych zysków, za wyjątkiem wstęgi Bollingera. Przedstawiono rysunek:
Akurat wstęgę Bollingera darzę największym sceptycyzmem, o czym już kiedyś napomknąłem (Wstęga Bollingera - ujęcie praktyczne).
Tytuł posta jest oczywiście mało sensowny. Spotkałem już różne artykuły, w których konkludują, że niektóre narzędzia analizy technicznej, jak np. przecięcie się szybkiej i wolnej średniej kroczącej daje w niektórych sytuacjach możliwości zarabiania ponad przeciętną.
---------------------------------------------------------------------------
A co z tymi wsparciami i oporami, które atakowałem nazywając "złudzeniem"? Powiem tak, ciężko jest obiektywnie je sprawdzić. Są różnego rodzaju ograniczenia, jak np. jak szerokie okno w miejscach pojawienia się wsparcia/oporu zastosować? W swoich badaniach starałem się zachować okolice 3-4%. Jeśli kurs przebił ten poziom uznawałem, że wsparcie/opór pękł. Można wprowadzać wiele filtrów. Zgodnie z zasadą najważniejsze są trzy pierwsze punkty odbicia trendu - po nich trend może się prędzej załamać. Jeśli więc po dwóch wsparciach/oporach następuje trzecie odbicie na linii trendu, dopiero możemy mówić o tym, że linia trendu się zrealizowała. Należy więc zbadać czy w trzecim punkcie następuje odbicie, które jest istotą linii trendu. Stosowałem także metodę wachlarza. Przykład dla WIG:
Wynik dla WIG (od 1994) okazał się bardzo marniutki. Szukałem linii trendu co najmniej 2-miesięcznych. Zadawałem 4 pytania:
1. Czy odbija od wsparcia (linii trendu rosnącego)?
2. Czy jeśli przecina wsparcie, to przez jakiś czas (zakładałem przynajmniej ok. tydzień) podąża w tym kierunku?
3. Czy odbija od oporu (linii trendu spadkowego)?
4. Czy jeśli przecina opór, to przez jakiś czas (zakładałem przynajmniej ok. tydzień) podąża w tym kierunku?
Częstości dostałem następujące:
Ad 1) 0,5
Ad 2) 0,567
Ad 3) 0,32
Ad 4) 0,59
Istotność statystyczną wyliczałem w oparciu o schemat Bernoulliego. Dla WIG otrzymano brak istotności.
To badanie powtarzałem dla różnych dużych spółek,
Bank Polska Kasa Opieki:
Ad 1) 0,476
Ad 2) 0,667
Ad 3) 0,545
Ad 4) 0,636.
Bank Handlowy w Warszawie:
Ad 1) 0,32
Ad 2) 0,61
Ad 3) 0,35
Ad 4) 0,74
BRE Bank (od 1994):
Ad 1) 0,588 (20/34)
Ad 2) 0,667 (22/33)
Ad 3) 0,364 (12/33)
Ad 4) 0,53 (17/32)
KGHM:
Ad 1) 0,62
Ad 2) 0,70*
Ad 3) 0,42
Ad 4) 0,71*
Getin Holding:
Ad 1) 0,4 (6/15)
Ad 2) 0,6 (9/15)
Ad 3) 0,43 (6/14)
Ad 4) 0,57. (8/14)
Budimex:
Ad 1) 0,58
Ad 2) 0,667
Ad 3) 0,25
Ad 4) 0,583.
Spośród nich jedynie KGHM charakteryzował się niektórymi istotnymi prawdopodobieństwami empirycznymi. Zaznaczone gwiazdką to te istotne.
Należy jednak zwrócić uwagę, że próba dla KGHM objęła zaledwie ok. 30 obserwacji, podobnie dla WIG, a w przypadku wielu innych sporo mniej. Np. dla BHW brak istotności w p. 4 może wynikać z zaledwie 25 obserwacji. Wydaje się, że należy uznać częstość 74% za istotną. Być może przy większej próbce pojawiłaby się istotność, także dla samych "odbić", chociaż w to wątpię. Wsparcia i opory nie mogą raczej służyć do określenia czy w tych miejscach nastąpi odbicie - to czysty przypadek, a więc są w pewnym sensie złudzeniem. Jednakże jeśli nastąpi już to przebicie, to faktycznie sensowne jest zagrać pod zmianę trendu, choćby krótkoterminowego. Generalnie należy jeszcze przebadać mniejsze spółki.
Właśnie sprawdziłem Paged. Kurs spółki jest dość charakterystyczny, bo ma tendencje do spadania (czy też wyniki fin. spółki mają takie tendencje), a czasami potrafi potężnie wybić w górę:
Jak można się domyślić, danych dla pkt-ów 1 i 2 było bardzo mało (zaledwie 9) i częstości nie są istotne statystycznie, natomiast dla pkt-ów 3 i 4 otrzymano 18 danych, czyli też niewiele. Otrzymano następujące częstości:
Ad 1) 55,55% (5/9)
Ad 2) 66,67% (6/9)
Ad 3) 66,67% (12/18)
Ad 4) 72,2% (13/18)
Na oko (na podstawie wykresu) może się wydawać, że skuteczność przebicia linii trendu spadkowego jest spora. Ale pamiętajmy, że założenie dotyczyło poruszania się w kierunku odwrotnym do trendu przynajmniej przez tydzień ( min. 6 dni, nawet 5 jeśli były to spore ruchy) po przebiciu. Ponadto należy wziąć poprawkę na filtr 3-4% wokół linii trendu. A kurs nawet jeśli na chwilę wyszedł ponad linię, to zaraz powracał do niej i czasami dopiero potem znowu odbijał (od tej linii), co sprawia wrażenie, że technika działała. Ale nie było wiadomo, czy rzeczywiście trend się odwrócił. Dobrze widać taką zmyłę w październiku 2010, gdy kurs wybił z trendu spadkowego i wydawałoby się, że pójdzie dalej w górę, ale zatrzymanie wtedy akcji zakończyłoby się bardzo źle.
Drugą małą spółką jaką sprawdziłem jest Lubawa (od 1997 do środka 2011). Jest to typowa spółka mała, gdyż długo i mocno rośnie oraz długo i mocno spada:
Możliwe, że z powodu takich "przedłużonych" ruchów spółek małych, obserwacji jest bardzo mało. W tym przypadku dla każdego z 4-ch punktów poniżej 14. Nie ma sensu mówić oczywiście o istotności stat. Można jedynie przyjrzeć się samym częstościom:
Ad 1) 38,5% (5/13)
Ad 2) 69,2% (9/13)
Ad 3) 50% (6/12)
Ad 4) 40% (4/10)
Trzecią, tym razem średnią spółką, była Dębica (od 1994 do końca 2011):
Wyniki okazują się całkowicie "technicznie" rozczarowujące:
Ad 1) 27,3% (3/11)
Ad 2) 27,3% (3/11)
Ad 3) 31,25% (5/16)
Ad 4) 31,25% (5/16)
Ostatnią spółką jest MNI:
Ad 1) 33,33% (5/15)
Ad 2) 66,66% (10/15)
Ad 3) 43% (6/14)
Ad 4) 50% (7/14)
Zanim podsumuję analizę wsparć i oporów, przypomnę wpis Wsparcia i opory - kolejne złudzenie techników, w którym krytykowałem techników za wprowadzanie złudnych "wsparć" i "oporów" czy raczej linii trendu, stanowiących zwykłe złudzenie.
W istocie wydaje się, że linie trendu nie istnieją (przy założeniu, że trend powinien się utrzymywać co najmniej 2 miesiące) w tym sensie, że zrealizowanie się trzeciego punktu linii trendu jest czysto przypadkowe. Jednakże czym innym jest już przebicie tych obszarów - prawdopodobieństwo zmiany kierunku przynajmniej przez tydzień czasu po tym zdarzeniu jest stosunkowo wysokie (często ponad 55%). Niemniej jak na razie znalazłem tylko jedną spółkę - KGHM - której przebicia są istotne statystycznie. Jedna spółka na GPW to zdecydowanie za mało, by uznać takie narzędzie za obiektywnie opłacalne, choć należy pamiętać, że liczebność próbek w badaniu była bardzo ograniczona.
wtorek, 8 marca 2011
Narzędzia analizy technicznej to nie metody tradingu??? Część 2
Po napisaniu ostatniego wpisu "Narzędzia analizy technicznej to nie metody tradingu???" stwierdzam, że pozostał niedokończony i dlatego dziś go rozwinę. Jednocześnie dopisuję do jego tytułu "Część 1".
Przeciwstawiając się artykułowi Narzędzia analizy technicznej a metody tradingu głośno krzyczałem, narzędzia analizy technicznej są metodami tradingu. Przeciwstawiłem się mu nie tyle z powodu rozróżnienia narzędzi AT od jej metod, ale z powodu mętności w odpowiedzi na pytanie czy narzędzia AT pozwalają zarabiać (ponadprzeciętnie). Bo można oczywiście powiedzieć, że jest sobie pewne pojęcie-narzędzie, które samo w sobie nie jest metodą. Średnia jest narzędziem statystyki i ekonometrii, a nie jest metodą. Podobnie średnia jest narzędziem AT. Ale w statystyce i ekonometrii nie ma miejsca na jakieś zabawy w szukanie subiektywnych znaczeń - wszystko ma jednoznaczną interpretację. A podejście do AT jest często takie: patrzcie, to może dać jednym sygnał kupna, a drugim sygnał sprzedaży. (I wszyscy będą zadowoleni). Ta sprzeczność właśnie mnie razi w owym artykule. Bo albo wskaźnik ma swoją interpretację i pozwala konkretnie przewidzieć kurs, albo nie ma jednoznacznej interpretacji i nie pozwala przewidzieć kursu.
Podam przykład, aby wyraźnie zobaczyć o czym mówię. Załóżmy, że RSI jest narzędziem, a nie metodą. Możemy jednak to narzędzie użyć na dwa sposoby. Pierwsza metoda: Jeśli RSI wskazuje poziomy wykupienia i wyprzedania, to sygnalizuje odpowiednie zwroty na rynku. Druga metoda: poziomy wykupienia (wyprzedania) RSI sygnalizują jedynie siłę trendu rosnącego (spadkowego).
W rzeczywistości w takiej sytuacji powstaje tylko jedna jedyna racjonalna strategia, tj. jednoznaczna interpretacja - zawsze w punktach zwrotnych należy wykorzystać wskaźnik i to niezależnie od horyzontu inwestycyjnego, a potem znów wykorzystać trend długoterminowy. Przecież wszystko można sprawdzić - jak długo należy trzymać lub nie trzymać walor od momentu sygnału. Dwa dni? Dobrze, w to w takim razie w momencie generowania sygnału kupna (sprzedaży) kupuję (sprzedaję) ("pierwszy sposób"), a po dwóch dniach sprzedaję (kupuję), nastawiając się na trend długoterminowy ("drugi sposób"). W konsekwencji - powtórzę - powstaje jedna jedyna strategia - jedna metoda tradingu. RSI jest więc metodą. To samo rozumowanie można przeprowadzić dla wszelkich narzędzi. W ten sposób właśnie dowodzę, że narzędzia AT - aby pozostać niesprzeczne i zobiektywizowane - muszą stanowić jednocześnie metodę tradingu.
Być może poprzednio nie wyjaśniłem wszystkiego w pełni. Ale z drugiej strony miałem przeświadczenie, że blog czytają ludzie, którym nie trzeba wykładać takich banalnych rzeczy i że to wszystko wiedzą. Tak czy owak, na wszelki wypadek to podkreślam.
Na koniec jeszcze szybko wspomnę, że komentator o nicku Lucky uświadomił mi trochę niechcący, że dotychczas źle rozumiałem technikę wsparć i oporów. Mianowicie uznawałem, że prawdopodobieństwo ma tu zasadnicze znaczenie. Napisałem w części 1 artykułu:
jeśli coś definiujemy jako wsparcie lub opór to ma spełniać swą rolę, tzn. w ponad 50% przypadkach wsparcie ma zatrzymać spadek kursu, a opór wzrost kursu.
Teraz jednak już rozumiem, że nie chodzi o samo prawdopodobieństwo, ale o wartość oczekiwaną zysku. Prawdopodobieństwo odbicia od wsparć/oporów/linii trendu może wynieść 0,5, ale odbicie może być większe niż potencjalna strata. Cały mój test stoi na głowie. Obliczenie wartości oczekiwanej będzie o wiele trudniejsze. Trzeba tu objąć parę dodatkowych czynników (przede wszystkim problem zasięgu ruchu). Zysk oczekiwany trzeba w końcu porównać zyskiem z metody "kup i trzymaj". Sam dodatni zysk na podstawie AT wcale nie świadczy o skuteczności metody.
Jutro albo pojutrze wstawiam ważną notkę związaną z tymi problemami.
Przeciwstawiając się artykułowi Narzędzia analizy technicznej a metody tradingu głośno krzyczałem, narzędzia analizy technicznej są metodami tradingu. Przeciwstawiłem się mu nie tyle z powodu rozróżnienia narzędzi AT od jej metod, ale z powodu mętności w odpowiedzi na pytanie czy narzędzia AT pozwalają zarabiać (ponadprzeciętnie). Bo można oczywiście powiedzieć, że jest sobie pewne pojęcie-narzędzie, które samo w sobie nie jest metodą. Średnia jest narzędziem statystyki i ekonometrii, a nie jest metodą. Podobnie średnia jest narzędziem AT. Ale w statystyce i ekonometrii nie ma miejsca na jakieś zabawy w szukanie subiektywnych znaczeń - wszystko ma jednoznaczną interpretację. A podejście do AT jest często takie: patrzcie, to może dać jednym sygnał kupna, a drugim sygnał sprzedaży. (I wszyscy będą zadowoleni). Ta sprzeczność właśnie mnie razi w owym artykule. Bo albo wskaźnik ma swoją interpretację i pozwala konkretnie przewidzieć kurs, albo nie ma jednoznacznej interpretacji i nie pozwala przewidzieć kursu.
Podam przykład, aby wyraźnie zobaczyć o czym mówię. Załóżmy, że RSI jest narzędziem, a nie metodą. Możemy jednak to narzędzie użyć na dwa sposoby. Pierwsza metoda: Jeśli RSI wskazuje poziomy wykupienia i wyprzedania, to sygnalizuje odpowiednie zwroty na rynku. Druga metoda: poziomy wykupienia (wyprzedania) RSI sygnalizują jedynie siłę trendu rosnącego (spadkowego).
W rzeczywistości w takiej sytuacji powstaje tylko jedna jedyna racjonalna strategia, tj. jednoznaczna interpretacja - zawsze w punktach zwrotnych należy wykorzystać wskaźnik i to niezależnie od horyzontu inwestycyjnego, a potem znów wykorzystać trend długoterminowy. Przecież wszystko można sprawdzić - jak długo należy trzymać lub nie trzymać walor od momentu sygnału. Dwa dni? Dobrze, w to w takim razie w momencie generowania sygnału kupna (sprzedaży) kupuję (sprzedaję) ("pierwszy sposób"), a po dwóch dniach sprzedaję (kupuję), nastawiając się na trend długoterminowy ("drugi sposób"). W konsekwencji - powtórzę - powstaje jedna jedyna strategia - jedna metoda tradingu. RSI jest więc metodą. To samo rozumowanie można przeprowadzić dla wszelkich narzędzi. W ten sposób właśnie dowodzę, że narzędzia AT - aby pozostać niesprzeczne i zobiektywizowane - muszą stanowić jednocześnie metodę tradingu.
Być może poprzednio nie wyjaśniłem wszystkiego w pełni. Ale z drugiej strony miałem przeświadczenie, że blog czytają ludzie, którym nie trzeba wykładać takich banalnych rzeczy i że to wszystko wiedzą. Tak czy owak, na wszelki wypadek to podkreślam.
Na koniec jeszcze szybko wspomnę, że komentator o nicku Lucky uświadomił mi trochę niechcący, że dotychczas źle rozumiałem technikę wsparć i oporów. Mianowicie uznawałem, że prawdopodobieństwo ma tu zasadnicze znaczenie. Napisałem w części 1 artykułu:
jeśli coś definiujemy jako wsparcie lub opór to ma spełniać swą rolę, tzn. w ponad 50% przypadkach wsparcie ma zatrzymać spadek kursu, a opór wzrost kursu.
Teraz jednak już rozumiem, że nie chodzi o samo prawdopodobieństwo, ale o wartość oczekiwaną zysku. Prawdopodobieństwo odbicia od wsparć/oporów/linii trendu może wynieść 0,5, ale odbicie może być większe niż potencjalna strata. Cały mój test stoi na głowie. Obliczenie wartości oczekiwanej będzie o wiele trudniejsze. Trzeba tu objąć parę dodatkowych czynników (przede wszystkim problem zasięgu ruchu). Zysk oczekiwany trzeba w końcu porównać zyskiem z metody "kup i trzymaj". Sam dodatni zysk na podstawie AT wcale nie świadczy o skuteczności metody.
Jutro albo pojutrze wstawiam ważną notkę związaną z tymi problemami.
Labels:
analiza techniczna
wtorek, 1 marca 2011
Narzędzia analizy technicznej to nie metody tradingu??? Część 1
Dostałem ostatnio kilka komentarzy użytkownika o nicku theblitz w kwestii rozumienia narzędzi analizy technicznej, w tym wsparć i oporów czy linii trendu. Powiem szczerze, że dopiero niedawno się dowiedziałem z książki Murphy'ego, że wsparcia i opory to nie to samo co linie trendu. Ale ja będę nazywał linię trendu rosnącego wsparciem, a linię trendu spadkowego oporem. W horyzontalnym trendzie natomiast mamy zarówno wsparcie jak i opór.
Dostaję zatem taki oto komentarz:
Już ten komentarz wskazuje na niezbyt ścisły sposób rozumowania analityków technicznych. Właściwie to nawet tego zdania dobrze nie rozumiem. Czy testy są po to by coś przełamywać? Czy raczej to wsparcia i opory są po to by przełamywać same siebie? Brak logiki jest tu bardzo widoczny: jeśli coś definiujemy jako wsparcie lub opór to ma spełniać swą rolę, tzn. w ponad 50% przypadkach wsparcie ma zatrzymać spadek kursu, a opór wzrost kursu. Dodatkowe warunki mogą jedynie zwiększać precyzję tych narzędzi (tj. skuteczność).
Kolejne zdanie:
Jeśli technika wsparć i oporów sama w sobie jest niewystarczająca, bo należy ją weryfikować z innymi technikami, to znaczy, że nie można jej traktować jako oddzielną technikę, a jedynie z jakimś dodatkowym warunkiem. Zatem wsparcie samo nie wspiera a opór wcale nie opiera. Czyli nie jest to wsparcie (opór), tylko jest to wsparcie (opór) pod warunkiem że...
To oznacza, że znowu pojęcia się technikom pomyliły. Powinniśmy mieć bowiem nazwę wsparcie warunkowe i opór warunkowy. Nie wiem czy coś takiego w ogóle jest.
No i najlepsze. Theblitz podaje link do artykułu:
Narzędzia analizy technicznej a metody tradingu
Zacytujmy fragment:
Cali technicy. Zamiast powiedzieć o co chodzi, to mącą do kwadratu. Narzędzia to nie są metody? Są składową metody? Czy trudno powiedzieć wprost, że sama w sobie nie działa, ale dopiero w połączeniu z innymi technikami? Że działa przy pewnych warunkach?
A może jeszcze o coś innego chodzi? Kolejny fragment lepiej wyjaśnia:
Kompletny brak logiki. Jeśli jedni zajmują pozycję na wsparciu lub oporze, to znaczy, że z prawdopodobieństwem > 0,5 kurs odbije się od wsparcia lub oporu. I to nie jest metoda? A to wyjście przez (day)traderów, to niby co? Wychodzą, bo tak im pokazuje kreska? Wychodzą, bo mają takie narzędzie (do wychodzenia)? Nie zweryfikują czy to jest opłacalne?
Ten fragment mnie powala:
Czy Autor wie w ogóle co to jest efektywność rynku? Czy wie jak do niej dochodzi? Czy wie co się stanie, jeśli wielu zastosuje narzędzie identyfikacji zwrotów? Uważa, że nadal będzie działać? Sprawdzał to osobiście?
Analiza techniczna nazywa się tak, bo jej narzędzia są pewnymi technikami, które w rzeczy samej stanowią strategie przewidywania kursu i zarabiania pieniędzy. Są więc metodami - i mogą być nieskuteczne. Nazywanie ich narzędziami wydaje się właśnie błędne, bo sugeruje to, że zawsze będą odznaczać się skutecznością, jeśli się tylko je odpowiednio zastosuje. A to bzdura.
Nie twierdzę, że AT jest do bani, o nie. Ale gdy ktoś twierdzi, że to nie tak, bo to tylko narzędzie, które każdy inaczej może wykorzystać, bo to sztuka, a nie nauka... to myślę sobie: co ten człowiek robi na giełdzie? Powinien tworzyć wiersze... I później wszystko się wyjaśnia: no tak, przecież pisze e-booki o AT!
PS. Test robię od początku, aby sprawdzić także czy po przełamaniu wsparcia i oporu następuje faktycznie znaczące wybicie z trendu.
Dostaję zatem taki oto komentarz:
Nie bardzo rozumiem po co robić testy oporów i wparć skoro z natury rzeczy są one po to by je przełamywać.
Już ten komentarz wskazuje na niezbyt ścisły sposób rozumowania analityków technicznych. Właściwie to nawet tego zdania dobrze nie rozumiem. Czy testy są po to by coś przełamywać? Czy raczej to wsparcia i opory są po to by przełamywać same siebie? Brak logiki jest tu bardzo widoczny: jeśli coś definiujemy jako wsparcie lub opór to ma spełniać swą rolę, tzn. w ponad 50% przypadkach wsparcie ma zatrzymać spadek kursu, a opór wzrost kursu. Dodatkowe warunki mogą jedynie zwiększać precyzję tych narzędzi (tj. skuteczność).
Kolejne zdanie:
Jeśli już tak bardzo chce Pan popracować i przebadać dogłębnie wsparcia i opory proponuję wyznaczyć ich poziomy tak by potwierdzały je przynajmniej dwie techniki
Jeśli technika wsparć i oporów sama w sobie jest niewystarczająca, bo należy ją weryfikować z innymi technikami, to znaczy, że nie można jej traktować jako oddzielną technikę, a jedynie z jakimś dodatkowym warunkiem. Zatem wsparcie samo nie wspiera a opór wcale nie opiera. Czyli nie jest to wsparcie (opór), tylko jest to wsparcie (opór) pod warunkiem że...
To oznacza, że znowu pojęcia się technikom pomyliły. Powinniśmy mieć bowiem nazwę wsparcie warunkowe i opór warunkowy. Nie wiem czy coś takiego w ogóle jest.
No i najlepsze. Theblitz podaje link do artykułu:
Narzędzia analizy technicznej a metody tradingu
Zacytujmy fragment:
Zdarzyło mi się niejednokrotnie otrzymywać pytania w stylu: Czy na średnich da się zarabiać, czy linie trendu mają jakąś wartość, czy strategia oparta o RSI ma sens, czy metoda Andrewsa dobrze działa itd. W związku z tym chciałbym, abyśmy sobie pewne rzeczy usystematyzowali, bo każde z wymienionych pytań nie ma najmniejszego sensu bez jakiegokolwiek szerszego kontekstu. Dlaczego? Otóż dlatego, że pytania są o narzędzia. Narzędzia same w sobie nie są metodą. Narzędzia są wykorzystywane w budowie metody, są składową metody, planu, strategii.
Cali technicy. Zamiast powiedzieć o co chodzi, to mącą do kwadratu. Narzędzia to nie są metody? Są składową metody? Czy trudno powiedzieć wprost, że sama w sobie nie działa, ale dopiero w połączeniu z innymi technikami? Że działa przy pewnych warunkach?
A może jeszcze o coś innego chodzi? Kolejny fragment lepiej wyjaśnia:
Zawsze, zanim zapytasz kogoś, zapytaj siebie o co pytasz. Brzmi to stwierdzenie co najmniej dziwnie. Ale dla jednych linia trendu służy jedynie do definicji trendu, innym pozwala zajmować pozycje na linii trendu, dla innych służy do zamykania pozycji zawartych przeciwko trendowi, a dla jeszcze innych posłuży ona do identyfikacji zwrotów na wykresie rangowym. Linia trendu nie jest więc metodą, jest narzędziem. Narzędziem które po pierwsze trzeba zdefiniować (np. ilość i dokładność odbić od linii) a następnie ustalić jak będzie wykorzystywana.
Kompletny brak logiki. Jeśli jedni zajmują pozycję na wsparciu lub oporze, to znaczy, że z prawdopodobieństwem > 0,5 kurs odbije się od wsparcia lub oporu. I to nie jest metoda? A to wyjście przez (day)traderów, to niby co? Wychodzą, bo tak im pokazuje kreska? Wychodzą, bo mają takie narzędzie (do wychodzenia)? Nie zweryfikują czy to jest opłacalne?
Ten fragment mnie powala:
dla jeszcze innych posłuży ona do identyfikacji zwrotów na wykresie rangowym.
Czy Autor wie w ogóle co to jest efektywność rynku? Czy wie jak do niej dochodzi? Czy wie co się stanie, jeśli wielu zastosuje narzędzie identyfikacji zwrotów? Uważa, że nadal będzie działać? Sprawdzał to osobiście?
Analiza techniczna nazywa się tak, bo jej narzędzia są pewnymi technikami, które w rzeczy samej stanowią strategie przewidywania kursu i zarabiania pieniędzy. Są więc metodami - i mogą być nieskuteczne. Nazywanie ich narzędziami wydaje się właśnie błędne, bo sugeruje to, że zawsze będą odznaczać się skutecznością, jeśli się tylko je odpowiednio zastosuje. A to bzdura.
Nie twierdzę, że AT jest do bani, o nie. Ale gdy ktoś twierdzi, że to nie tak, bo to tylko narzędzie, które każdy inaczej może wykorzystać, bo to sztuka, a nie nauka... to myślę sobie: co ten człowiek robi na giełdzie? Powinien tworzyć wiersze... I później wszystko się wyjaśnia: no tak, przecież pisze e-booki o AT!
PS. Test robię od początku, aby sprawdzić także czy po przełamaniu wsparcia i oporu następuje faktycznie znaczące wybicie z trendu.
Labels:
analiza techniczna
piątek, 19 marca 2010
Trend make you pent
Ponieważ trend is your friend, obejrzyjmy:
Pamiętacie je? Ileż to godzin spędziliście na oglądaniu ich z każdej perspektywy tylko po to żeby mieć pewność, że macie do czynienia z trendem.
Problem z nimi jest tylko jeden: zostały wygenerowane przez generator liczb pseudolosowych. Każdy z powyższych wykresów jest błądzeniem przypadkowym - standardowym procesem ruchu Browna. Zmiany cen i stopy zwrotu w tym procesie mają rozkład normalny o wartości oczekiwanej równej 0 i wariancji równej 1. Czyli prawdopodobieństwo wzrostu jest zawsze równe prawdopodobieństwu spadku i równa się 0,5. Czysty przypadek.
Mówicie, że pewnie chodzi o zbyt małą liczbę obserwacji - co to jest 200. No to weźmy 3000 obserwacji:
A tu poniżej już w ogóle dziwactwo:
Oczywiście taki wykres dostaniemy rzadziej niż na przykład:
Ale chciałem pokazać, że tamten nie jest mało prawdopodobny. 3000 obserwacji, a to nadal podąża w jednym kierunku. Wszystkie wykresy są wygenerowane przez ten sam proces: szansa 50:50.
Powiecie, że generator liczb pseudolosowych może trochę oszukiwać. Jednak testy mówią jednoznacznie, że nie ma podstaw by odrzucić hipotezę o normalności rozkładów stóp zwrotu tych procesów.
Jakie tu więc czary działają? Naukowcy jeszcze dość niedawno nie potrafili tego zrozumieć - w kontekście cząsteczek pyłu zawieszonych w cieczy bez przerwy się poruszających. Zabawne jest to, że przeciętni ludzie po tylu latach nadal tego nie rozumieją, choć cząsteczką może być coś innego, na przykład kurs akcji.
Dzięki Einsteinowi i Smoluchowskiemu wiemy, że droga cząsteczki w równowadze termodynamicznej jest proporcjonalna do pierwiastka z czasu. Cząsteczki gazu lub cieczy w dłuższym czasie pokonują dłuższą drogę.
Żeby tego było mało, zobaczmy dwa przykłady geometrycznego procesu ruchu Browna:
Również w tym procesie stopy zwrotu mają rozkład Gaussa i wartość oczekiwaną równą 0 oraz pewną oczywiście dodatnią wariancję. Nie ma tu żadnego trendu, nadal szansa to pół na pół. Co więcej, łatwo można określić czy kurs będzie dążył do nieskończoności czy do zera, czy nie będzie dążył do żadnej granicy.
Ale uwaga, tutaj trzeba być ostrożnym. To że kurs czy cząsteczka oddala się coraz bardziej od stanu wyjściowego, nie znaczy wcale, że nigdy tam nie wróci. Mało tego. Z fantastycznego twierdzenia Poincare'go o powrotach wynika, że wróci. A nawet jeszcze lepiej.
"Interpretacja fizyczna tego twierdzenia dla modelu dyfuzji gazu brzmi dość paradoksalnie i pozornie przeczy II zasadzie termodynamiki: Jeśli do pojemnika wpuścimy dwa różne gazy (początkowo będą one rozdzielone), to zgodnie z II zasadą po pewnym czasie nastąpi ich dokładne i bezpowrotne wymieszanie. Twierdzenie Poincaré jednak mówi, że w pewnym momencie układ wróci jednak do stanu zbliżonego do początkowego, czyli do sytuacji, w której gazy te znowu są rozdzielone. Paradoks ten można wyjaśnić w taki sposób, że po pierwsze czas powrotu w twierdzeniu Poincaré jest bardzo duży, po drugie, układ fizyczny nigdy nie jest dokładnie odizolowany od losowych czynników zewnętrznych, zatem nie przebiega stale dokładnie według tej samej transformacji i po pewnym czasie jego zachowanie odchyla się od matematycznego układu dynamicznego (II zasada właśnie uwzględnia tę nieregularność). Zanim nastąpi teoretyczny czas powrotu układu, odchylenie to będzie tak duże, że faktyczny układ nie powróci w pobliże stanu wyjściowego." (http://www.im.pwr.wroc.pl/~downar/polish/dokumenty/uklady.html)
No jeszcze ostatni przykład geometrycznego procesu ruchu Browna:
Poznajecie tę figurę?
W poprzednim poście wykazywałem istnienie fraktalności rynku, która miała przyczyniać się do kształtowania się trendów, tj. sytuacji, gdy prawdopodobieństwo tego samego znaku zmiany ceny co w poprzednim okresie jest większe od 0,5. Ale nie jest to sprawa tak oczywista, jak się z pozoru wydaje. Dlatego w tym poście chciałem pokazać, że wzrokowo nie jesteśmy w stanie oszacować czy mamy do czynienia z przypadkiem czy czymś więcej. Intuicja i oko niewiele tu pomogą. Analiza techniczna polegająca jedynie na prognozowaniu cen w oparciu o sam wykres kursu wydaje się być skazana na porażkę.
Pamiętacie je? Ileż to godzin spędziliście na oglądaniu ich z każdej perspektywy tylko po to żeby mieć pewność, że macie do czynienia z trendem.
Problem z nimi jest tylko jeden: zostały wygenerowane przez generator liczb pseudolosowych. Każdy z powyższych wykresów jest błądzeniem przypadkowym - standardowym procesem ruchu Browna. Zmiany cen i stopy zwrotu w tym procesie mają rozkład normalny o wartości oczekiwanej równej 0 i wariancji równej 1. Czyli prawdopodobieństwo wzrostu jest zawsze równe prawdopodobieństwu spadku i równa się 0,5. Czysty przypadek.
Mówicie, że pewnie chodzi o zbyt małą liczbę obserwacji - co to jest 200. No to weźmy 3000 obserwacji:
A tu poniżej już w ogóle dziwactwo:
Oczywiście taki wykres dostaniemy rzadziej niż na przykład:
Ale chciałem pokazać, że tamten nie jest mało prawdopodobny. 3000 obserwacji, a to nadal podąża w jednym kierunku. Wszystkie wykresy są wygenerowane przez ten sam proces: szansa 50:50.
Powiecie, że generator liczb pseudolosowych może trochę oszukiwać. Jednak testy mówią jednoznacznie, że nie ma podstaw by odrzucić hipotezę o normalności rozkładów stóp zwrotu tych procesów.
Jakie tu więc czary działają? Naukowcy jeszcze dość niedawno nie potrafili tego zrozumieć - w kontekście cząsteczek pyłu zawieszonych w cieczy bez przerwy się poruszających. Zabawne jest to, że przeciętni ludzie po tylu latach nadal tego nie rozumieją, choć cząsteczką może być coś innego, na przykład kurs akcji.
Dzięki Einsteinowi i Smoluchowskiemu wiemy, że droga cząsteczki w równowadze termodynamicznej jest proporcjonalna do pierwiastka z czasu. Cząsteczki gazu lub cieczy w dłuższym czasie pokonują dłuższą drogę.
Żeby tego było mało, zobaczmy dwa przykłady geometrycznego procesu ruchu Browna:
Również w tym procesie stopy zwrotu mają rozkład Gaussa i wartość oczekiwaną równą 0 oraz pewną oczywiście dodatnią wariancję. Nie ma tu żadnego trendu, nadal szansa to pół na pół. Co więcej, łatwo można określić czy kurs będzie dążył do nieskończoności czy do zera, czy nie będzie dążył do żadnej granicy.
Ale uwaga, tutaj trzeba być ostrożnym. To że kurs czy cząsteczka oddala się coraz bardziej od stanu wyjściowego, nie znaczy wcale, że nigdy tam nie wróci. Mało tego. Z fantastycznego twierdzenia Poincare'go o powrotach wynika, że wróci. A nawet jeszcze lepiej.
"Interpretacja fizyczna tego twierdzenia dla modelu dyfuzji gazu brzmi dość paradoksalnie i pozornie przeczy II zasadzie termodynamiki: Jeśli do pojemnika wpuścimy dwa różne gazy (początkowo będą one rozdzielone), to zgodnie z II zasadą po pewnym czasie nastąpi ich dokładne i bezpowrotne wymieszanie. Twierdzenie Poincaré jednak mówi, że w pewnym momencie układ wróci jednak do stanu zbliżonego do początkowego, czyli do sytuacji, w której gazy te znowu są rozdzielone. Paradoks ten można wyjaśnić w taki sposób, że po pierwsze czas powrotu w twierdzeniu Poincaré jest bardzo duży, po drugie, układ fizyczny nigdy nie jest dokładnie odizolowany od losowych czynników zewnętrznych, zatem nie przebiega stale dokładnie według tej samej transformacji i po pewnym czasie jego zachowanie odchyla się od matematycznego układu dynamicznego (II zasada właśnie uwzględnia tę nieregularność). Zanim nastąpi teoretyczny czas powrotu układu, odchylenie to będzie tak duże, że faktyczny układ nie powróci w pobliże stanu wyjściowego." (http://www.im.pwr.wroc.pl/~downar/polish/dokumenty/uklady.html)
No jeszcze ostatni przykład geometrycznego procesu ruchu Browna:
Poznajecie tę figurę?
W poprzednim poście wykazywałem istnienie fraktalności rynku, która miała przyczyniać się do kształtowania się trendów, tj. sytuacji, gdy prawdopodobieństwo tego samego znaku zmiany ceny co w poprzednim okresie jest większe od 0,5. Ale nie jest to sprawa tak oczywista, jak się z pozoru wydaje. Dlatego w tym poście chciałem pokazać, że wzrokowo nie jesteśmy w stanie oszacować czy mamy do czynienia z przypadkiem czy czymś więcej. Intuicja i oko niewiele tu pomogą. Analiza techniczna polegająca jedynie na prognozowaniu cen w oparciu o sam wykres kursu wydaje się być skazana na porażkę.
Labels:
analiza techniczna
sobota, 8 sierpnia 2009
Fibonacci zaskakuje
Analiza stosunków kolejnych lokalnych ekstremów, jaką niedawno przedstawiłem, posiada jeden poważny mankament: dzielone zostały wartości indeksu WIG20, a nie jego ruchy. Sądziłem, że jest to dobry pomysł, bo pozwalało to na obliczenie logarytmicznych stóp zwrotu i dodawanie ich do siebie.
Jednakże jeśli trend rosnący jest liniowy, to stopy zwrotu dla każdej następnej wartości początkowej będą coraz mniejsze. 1100/1000=1,1, ale 2100/2000=1,05. Średni stosunek 1,12 nie będzie zachowany w dłuższym okresie czasu (natomiast na dziś może się sprawdzić).
Dlatego zwolennicy porządku giełdowego robią inaczej: szukają głównego trendu, jeśli następuje korekta, obliczają wielkość ruchu, czyli różnicę pomiędzy lokalnym maksimum a minimum danego trendu, następnie często zakładają siłę korekty wynoszącą 38% tego trendu i obliczają o ile punktów korekta zniesie indeks lub kurs.
Dlatego też zrobiłem to samo, aby sprawdzić hipotezę porządku. Wynik? Znów 1:0 dla zwolenników Fibonacciego.
Wziąłem pod uwagę wszystkie znaczące korekty danego trendu WIG20 (notowania dzienne) od 10.03.2000 r. do 10.07.2009 r. Na przykład w dniu 6.03.03 r. powstało minimum, które wyniosło 1069,7, a następnie 01.09.03 maksimum 1712,15. Powstała korekta trwająca do 21.11.03 - zakończona na 1446,3. 1712,15-1069,7=642,5. Następnie 1712,15-1446,3=265,9. Stosunek 265,9/642,5=0,41.
Oto pełne wyniki:
1. 474,1/1491,8 = 0,32
2. 268,2/907 = 0,296
3. 168/526 = 0,32
4. 212/421 = 0,5
5. 265,9/642,5 = 0,41
6. 223,87/402,07 = 0,56
7. 261,7/467 = 0,56
8. 761/1467 = 0,52
9. 507,5/1337,5 = 0,38
10. 207,5/1041,9 = 0,2
11. 340,2/644,2 = 0,53
12. 317/842,3 = 0,376
13. 250,56/703,2 = 0,356
Średnia arytmetyczna współczynników: 0,41.
Ostatnia nasza korekta to praktycznie książkowy przykład geometrii Fibonacciego: maksimum lokalne (początek korekty) to 2041, początek hossy to 1337,78. 2041-1337,78 = 703,2. Korekta hossy zakończona na 1790,44. 2041-1790,44 = 250,56. Stąd w nr (13) 250,56/703,2 = 0,36.
Nie starałem się o zachowanie wyjątkowej dokładności (trochę z niewiary w tę metodę), a pomimo tego wynik odchylił się zaledwie o 3 punkty procentowe od pożądanej wartości 38%. Na 13 obserwacji 4, czyli 30% było bardzo blisko tej wartości.
Można mieć wrażenie, że rynek oddala i przybliża się do wartości 0,38, po to, aby pozostały zakres ruchu wynosił w uśrednieniu 62%.
Jednakże jeśli trend rosnący jest liniowy, to stopy zwrotu dla każdej następnej wartości początkowej będą coraz mniejsze. 1100/1000=1,1, ale 2100/2000=1,05. Średni stosunek 1,12 nie będzie zachowany w dłuższym okresie czasu (natomiast na dziś może się sprawdzić).
Dlatego zwolennicy porządku giełdowego robią inaczej: szukają głównego trendu, jeśli następuje korekta, obliczają wielkość ruchu, czyli różnicę pomiędzy lokalnym maksimum a minimum danego trendu, następnie często zakładają siłę korekty wynoszącą 38% tego trendu i obliczają o ile punktów korekta zniesie indeks lub kurs.
Dlatego też zrobiłem to samo, aby sprawdzić hipotezę porządku. Wynik? Znów 1:0 dla zwolenników Fibonacciego.
Wziąłem pod uwagę wszystkie znaczące korekty danego trendu WIG20 (notowania dzienne) od 10.03.2000 r. do 10.07.2009 r. Na przykład w dniu 6.03.03 r. powstało minimum, które wyniosło 1069,7, a następnie 01.09.03 maksimum 1712,15. Powstała korekta trwająca do 21.11.03 - zakończona na 1446,3. 1712,15-1069,7=642,5. Następnie 1712,15-1446,3=265,9. Stosunek 265,9/642,5=0,41.
Oto pełne wyniki:
1. 474,1/1491,8 = 0,32
2. 268,2/907 = 0,296
3. 168/526 = 0,32
4. 212/421 = 0,5
5. 265,9/642,5 = 0,41
6. 223,87/402,07 = 0,56
7. 261,7/467 = 0,56
8. 761/1467 = 0,52
9. 507,5/1337,5 = 0,38
10. 207,5/1041,9 = 0,2
11. 340,2/644,2 = 0,53
12. 317/842,3 = 0,376
13. 250,56/703,2 = 0,356
Średnia arytmetyczna współczynników: 0,41.
Ostatnia nasza korekta to praktycznie książkowy przykład geometrii Fibonacciego: maksimum lokalne (początek korekty) to 2041, początek hossy to 1337,78. 2041-1337,78 = 703,2. Korekta hossy zakończona na 1790,44. 2041-1790,44 = 250,56. Stąd w nr (13) 250,56/703,2 = 0,36.
Nie starałem się o zachowanie wyjątkowej dokładności (trochę z niewiary w tę metodę), a pomimo tego wynik odchylił się zaledwie o 3 punkty procentowe od pożądanej wartości 38%. Na 13 obserwacji 4, czyli 30% było bardzo blisko tej wartości.
Można mieć wrażenie, że rynek oddala i przybliża się do wartości 0,38, po to, aby pozostały zakres ruchu wynosił w uśrednieniu 62%.
Labels:
analiza techniczna
poniedziałek, 27 lipca 2009
O fraktalnej naturze liczby Phi. Dlaczego liczba ta jest lepsza niż inne?
Jak na razie nie udaje mi się napisać wpisu o cyklach i fraktalach. Im więcej o tym myślę i czytam, tym więcej dostrzegam subtelności. Nie jest to prosty temat. Pojawia się na przykład problem liczby Phi, (1+5^0,5)/2=1,618, wynikającej z ciągu Fibonacciego, która jest arytmetycznym fraktalem
Każdą liczbę rzeczywistą można zapisać w postaci
gdzie ai - pewna liczba naturalna. Ale Phi okazuje się najbardziej "fraktalny", ponieważ dla ai = 1 wzór ten zbiega najwolniej do swojej granicy ze wszystkich innych liczb (fraktal dąży w nieskończoności do 1,618). Złota proporcja związana z liczbą Phi jest optymalna, bo na przykład ograniczona przestrzeń może być dzięki niej wypełniona najbardziej wydajnie w porównaniu z innymi proporcjami. Wynika to właśnie z faktu, że wzór 1+1/(1+1/(... aby osiągnąć granicę (1+5^0,5)/2, musi zostać "nasycony" największą ilością "podułamków". Rekurencyjne wypełnianie otoczenia pewnego stałego punktu będzie maksymalne. Stąd liczbę Fibonacciego uważa się czasami za liczbę magiczną.
Aby zrozumieć, o co tu chodzi warto zobaczyć, jak powstaje wzór 1+1/(1+1/(... Ciąg Fibonacciego jest określony następująco:
Jeśli będziemy dzielić każdy kolejny wyraz przez poprzedni, to taki ciąg ilorazów będzie dążył do liczby 1,618...
Możemy zapisać:
Widać, że w końcowym wyniku mianownik drugiego składnika jest identyczny co początkowe wyrażenie [b(n-2)-b(n-1)]/[b(n-3)-b(n-3)], z tym że cyfra indeksu przesunęła się o 1. Można zatem mianownik przedstawić jako końcowy wynik pierwszego przekształcenia, co w sumie daje:
Można więc powtarzać przedstawioną operację w nieskończoność, co da nam wzór 1+1/(1+1/(...
A teraz zobaczmy, jak powstaje ciąg Fibonacciego przez rysowanie kolejnych kwadratów o długościach występujących w ciągu:
Jeśli rozpatrujemy ciąg rosnących rozmiarów kwadratów, aby dowolny ciąg zapełnił jak największą przestrzeń, stosunek długości boków musi zmierzać do liczby 1,618..., gdyż wtedy uzyskujemy najwolniejszą zbieżność do tej granicy. Ciąg będzie musiał "wykonać" najwięcej iteracji, czyli liczba kwadratów o rosnących długościach boków będzie rosła.
Z powyższego wynika, że jeśli rozpatrujemy pewien ograniczony obszar, to dla ciągu Fibonacciego zostanie on bardzo szybko wypełniony kwadratami. Jest to więc bardzo wydajny pod względem czasu sposób wykorzystania danej przestrzeni.
Pozwolę sobie zacytować Piotra Lasonia, który wskazuje przykład maksymalnych korzyści wynikających z istnienia ciągu Fibonacciego w świecie przyrody.
Ciąg Fibonacciego i złote proporcje są bardzo dobrze widoczne również w świecie flory. Zjawisko zwane spiralną filotaksją cechuje bardzo wiele gatunków drzew i roślin. W przypadku drzew chodzi tutaj o strukturę gałęzi układających się spiralnie wokół pnia, w świecie roślin mamy na myśli liście. Gdyby ponumerować gałęzie zgodnie z wysokością na jakiej wyrosły wówczas okaże się, że liczba gałęzi sąsiadujących pionowo jest liczbą Fibonacciego, a ponadto liczba gałęzi pomiędzy gałęziami sąsiadującymi pionowo również jest liczbą Fibonacciego. Jeśli spojrzymy w dół na roślinę wówczas zauważymy, że liście wzajemnie się nie zasłaniają, co umożliwia maksymalne wykorzystanie energii słońca oraz zebranie największej ilości deszczu, który spływa po liściach do pnia i korzenia. Reguła spiralnej filotaksji umożliwia ponadto maksymalne wykorzystanie posiadanego miejsca. (Op. cit. http://www.open-mind.pl/Ideas/LiczbyM1.php, P. Lasoń, Liczby magiczne cz. II: Asembler Natury)
Jeśli rynek kapitałowy dąży do maksymalnego wypełniania swojej przestrzeni kapitału, to można doszukiwać się za pomocą dość racjonalnych przesłanek takich proporcji na rynkach. "Dość" oznacza, że jednak ciągle pozostaje to intuicyjną hipotezą. Udowodniono już, że na rynkach występują multifraktale czyli sploty fraktali, a więc fraktale rynkowe zmieniają swoje parametry w czasie. Dlatego można się doszukiwać określonych złotych proporcji, ale nie należy ich brać zbytnio na serio, po pierwsze dlatego, że fraktale o których mowa są to losowe fraktale, które dotyczą rozkładu prawdopodobieństwa, po drugie nawet te losowe fraktale w przyszłości mogą nie obowiązywać.
Każdą liczbę rzeczywistą można zapisać w postaci
gdzie ai - pewna liczba naturalna. Ale Phi okazuje się najbardziej "fraktalny", ponieważ dla ai = 1 wzór ten zbiega najwolniej do swojej granicy ze wszystkich innych liczb (fraktal dąży w nieskończoności do 1,618). Złota proporcja związana z liczbą Phi jest optymalna, bo na przykład ograniczona przestrzeń może być dzięki niej wypełniona najbardziej wydajnie w porównaniu z innymi proporcjami. Wynika to właśnie z faktu, że wzór 1+1/(1+1/(... aby osiągnąć granicę (1+5^0,5)/2, musi zostać "nasycony" największą ilością "podułamków". Rekurencyjne wypełnianie otoczenia pewnego stałego punktu będzie maksymalne. Stąd liczbę Fibonacciego uważa się czasami za liczbę magiczną.
Aby zrozumieć, o co tu chodzi warto zobaczyć, jak powstaje wzór 1+1/(1+1/(... Ciąg Fibonacciego jest określony następująco:
Jeśli będziemy dzielić każdy kolejny wyraz przez poprzedni, to taki ciąg ilorazów będzie dążył do liczby 1,618...
Możemy zapisać:
Widać, że w końcowym wyniku mianownik drugiego składnika jest identyczny co początkowe wyrażenie [b(n-2)-b(n-1)]/[b(n-3)-b(n-3)], z tym że cyfra indeksu przesunęła się o 1. Można zatem mianownik przedstawić jako końcowy wynik pierwszego przekształcenia, co w sumie daje:
Można więc powtarzać przedstawioną operację w nieskończoność, co da nam wzór 1+1/(1+1/(...
A teraz zobaczmy, jak powstaje ciąg Fibonacciego przez rysowanie kolejnych kwadratów o długościach występujących w ciągu:
Jeśli rozpatrujemy ciąg rosnących rozmiarów kwadratów, aby dowolny ciąg zapełnił jak największą przestrzeń, stosunek długości boków musi zmierzać do liczby 1,618..., gdyż wtedy uzyskujemy najwolniejszą zbieżność do tej granicy. Ciąg będzie musiał "wykonać" najwięcej iteracji, czyli liczba kwadratów o rosnących długościach boków będzie rosła.
Z powyższego wynika, że jeśli rozpatrujemy pewien ograniczony obszar, to dla ciągu Fibonacciego zostanie on bardzo szybko wypełniony kwadratami. Jest to więc bardzo wydajny pod względem czasu sposób wykorzystania danej przestrzeni.
Pozwolę sobie zacytować Piotra Lasonia, który wskazuje przykład maksymalnych korzyści wynikających z istnienia ciągu Fibonacciego w świecie przyrody.
Ciąg Fibonacciego i złote proporcje są bardzo dobrze widoczne również w świecie flory. Zjawisko zwane spiralną filotaksją cechuje bardzo wiele gatunków drzew i roślin. W przypadku drzew chodzi tutaj o strukturę gałęzi układających się spiralnie wokół pnia, w świecie roślin mamy na myśli liście. Gdyby ponumerować gałęzie zgodnie z wysokością na jakiej wyrosły wówczas okaże się, że liczba gałęzi sąsiadujących pionowo jest liczbą Fibonacciego, a ponadto liczba gałęzi pomiędzy gałęziami sąsiadującymi pionowo również jest liczbą Fibonacciego. Jeśli spojrzymy w dół na roślinę wówczas zauważymy, że liście wzajemnie się nie zasłaniają, co umożliwia maksymalne wykorzystanie energii słońca oraz zebranie największej ilości deszczu, który spływa po liściach do pnia i korzenia. Reguła spiralnej filotaksji umożliwia ponadto maksymalne wykorzystanie posiadanego miejsca. (Op. cit. http://www.open-mind.pl/Ideas/LiczbyM1.php, P. Lasoń, Liczby magiczne cz. II: Asembler Natury)
Jeśli rynek kapitałowy dąży do maksymalnego wypełniania swojej przestrzeni kapitału, to można doszukiwać się za pomocą dość racjonalnych przesłanek takich proporcji na rynkach. "Dość" oznacza, że jednak ciągle pozostaje to intuicyjną hipotezą. Udowodniono już, że na rynkach występują multifraktale czyli sploty fraktali, a więc fraktale rynkowe zmieniają swoje parametry w czasie. Dlatego można się doszukiwać określonych złotych proporcji, ale nie należy ich brać zbytnio na serio, po pierwsze dlatego, że fraktale o których mowa są to losowe fraktale, które dotyczą rozkładu prawdopodobieństwa, po drugie nawet te losowe fraktale w przyszłości mogą nie obowiązywać.
Labels:
analiza techniczna,
fraktale
poniedziałek, 6 lipca 2009
Dlaczego to (raczej) tylko korekta?
Na giełdzie obserwujemy ostatnio spadki, które musiały wreszcie przyjść: prognozowałem je w poście "Hossa się zaczęła. Ale wkrótce spadki przyjdą". I jeszcze raz przytoczę to, co stwierdziłem wtedy: Hossę uzasadniam tym, że ludzie i duże instytucje grające na giełdzie, stopniowo wchodzą, gdyż po tym, co zaszło, boją się ryzykować. Nie są więc jeszcze tak pazerni, jak będą pod koniec tej hossy.
Korekta, moim zdaniem, świadczy paradoksalnie o trwaniu rynku byka. Część inwestorów się wykrusza, zaczyna się bać, nie ma u nich jeszcze tzw. nadmiernej pewności siebie. Również niektóre systemy mechaniczne, oparte na analizie technicznej generują sygnał sprzedaży. Na przykład popatrzmy na utworzoną ostatnio dywergencję na INGBSK (pod wykresem kursu RSI i STS):
Warto zastanowić się nad sprzedażą ING, by przeznaczyć na pewien okres pieniądze gdzie indziej, a potem taniej odkupić.
Jeśli jednak ktoś ma cierpliwość, to sądzę, że może nie wykonywać żadnego ruchu i czekać na dalsze wzrosty.
Spróbuję uszczegółowić argumentację swojego przypuszczenia. Od początku zakładam, że gracze są nadal "powściągliwi".
Pomińmy elementy mechaniczne (techniczne) i fundamentalne. Skoro uważam, że gracze ciągle się boją (choć już nie tak bardzo jak wcześniej), to logiczne jest, że szybciej sprzedają akcje. Na ich miejsce wchodzą inni, którzy również się boją i szybko sprzedają. Jednak ze względu na fakt, że po pierwsze nie wchodzą od razu z dużym kapitałem, po drugie szybko realizują zysk, to spadek cen akcji, choć cykliczny, jest słaby. Jeśli pojawiają się straty, to również są małe. Powoduje to, że generalnie spadki cen akcji są słabe. Właśnie dzięki temu, że występują cykliczne małe spadki, akcje posiadają potencjał wzrostu.
Dokonując inwersji, dostaniemy, że duże spadki na giełdzie przychodzą wtedy, gdy gracze przestają się bać, są agresywni i nadmiernie pewni siebie. Powoduje to bowiem dwoistą sytuację: pazerność wywołuje silne wzrosty i jednocześnie pazerność wywołuje chęć realizacji wysokich zysków.
Wystarczy, że zabraknie (nawet chwilowo) kapitału podtrzymującego trend, a spowoduje to lawinę w dół.
Oczywiście jest tu mowa o długoterminowym charakterze giełdy. Wydaje się, że każdy okres można podzielić na krótsze okresy, dla których powinniśmy otrzymywać ten sam schemat (swego rodzaju fraktalność). Powyższy wykres ING pokazuje, że w średnim lub krótkim okresie inwestorzy już poczuli pewność siebie. To powinno sprowokować minibessę.
Sądzę, że obserwujemy dziś na WIG-ach minibessę, po której przyjdzie dalsza część hossy.
Korekta, moim zdaniem, świadczy paradoksalnie o trwaniu rynku byka. Część inwestorów się wykrusza, zaczyna się bać, nie ma u nich jeszcze tzw. nadmiernej pewności siebie. Również niektóre systemy mechaniczne, oparte na analizie technicznej generują sygnał sprzedaży. Na przykład popatrzmy na utworzoną ostatnio dywergencję na INGBSK (pod wykresem kursu RSI i STS):
Warto zastanowić się nad sprzedażą ING, by przeznaczyć na pewien okres pieniądze gdzie indziej, a potem taniej odkupić.
Jeśli jednak ktoś ma cierpliwość, to sądzę, że może nie wykonywać żadnego ruchu i czekać na dalsze wzrosty.
Spróbuję uszczegółowić argumentację swojego przypuszczenia. Od początku zakładam, że gracze są nadal "powściągliwi".
Pomińmy elementy mechaniczne (techniczne) i fundamentalne. Skoro uważam, że gracze ciągle się boją (choć już nie tak bardzo jak wcześniej), to logiczne jest, że szybciej sprzedają akcje. Na ich miejsce wchodzą inni, którzy również się boją i szybko sprzedają. Jednak ze względu na fakt, że po pierwsze nie wchodzą od razu z dużym kapitałem, po drugie szybko realizują zysk, to spadek cen akcji, choć cykliczny, jest słaby. Jeśli pojawiają się straty, to również są małe. Powoduje to, że generalnie spadki cen akcji są słabe. Właśnie dzięki temu, że występują cykliczne małe spadki, akcje posiadają potencjał wzrostu.
Dokonując inwersji, dostaniemy, że duże spadki na giełdzie przychodzą wtedy, gdy gracze przestają się bać, są agresywni i nadmiernie pewni siebie. Powoduje to bowiem dwoistą sytuację: pazerność wywołuje silne wzrosty i jednocześnie pazerność wywołuje chęć realizacji wysokich zysków.
Wystarczy, że zabraknie (nawet chwilowo) kapitału podtrzymującego trend, a spowoduje to lawinę w dół.
Oczywiście jest tu mowa o długoterminowym charakterze giełdy. Wydaje się, że każdy okres można podzielić na krótsze okresy, dla których powinniśmy otrzymywać ten sam schemat (swego rodzaju fraktalność). Powyższy wykres ING pokazuje, że w średnim lub krótkim okresie inwestorzy już poczuli pewność siebie. To powinno sprowokować minibessę.
Sądzę, że obserwujemy dziś na WIG-ach minibessę, po której przyjdzie dalsza część hossy.
niedziela, 28 czerwca 2009
Oscylator stochastyczny w praktyce
Popatrzmy na poniższy fragment wykresu Lotosu:
Zarówno RSI jak i STS wykazują dywergencję w stosunku do kursu spółki. Zgodnie z teorią powinny nastąpić teraz spadki. A co się stało?
Nastąpił potężny wzrost i dopiero daleko potem spadki, których nie można tłumaczyć "opóźnieniem". Co ciekawe, dodatkowo wolumen silnie spadł w początkowym okresie, co powinno potwierdzać prognozę spadku trendu. Po tym spadku wolumenu nastąpił silny wzrost kursu, któremu już towarzyszył wzrost wolumenu.
Teoria kompletnie się nie sprawdziła.
A to przykład PKNORLEN:
Również można dostrzec dywergencję i idealną sytuację do kupna akcji. A tu psikus...
I jeszcze na koniec przykład PKOBP:
Tutaj trend zwyżkujący okazał się dużo lepszym miernikiem prognozy niż dość wysublimowana koncepcja dywergencji.
Zgodnie z kryterium falsyfikacjonizmu Poppera, aby teoria mogła być uznana za naukową, "musi być możliwe obalenie empirycznego systemu naukowego przez doświadczenie" (Karl R. Popper, Logika odkrycia naukowego, W-wa 1977, s. 40). Popper uznaje, że "dla metody empirycznej charakterystyczne jest to, że system podlegający sprawdzaniu dostępny jest falsyfikacji na wszystkie dające się pomyśleć sposoby. Cel tej metody polega nie na ratowaniu życia nie dających się utrzymać systemów, lecz przeciwnie, na rzuceniu ich wszystkich w wir najzaciekliwszej walki o przetrwanie i wybranie tego, który w porównaniu z innymi okaże się najlepiej przystosowany." (Op. cit., ibidem, s. 41). Warto tu odnotować, że Popper spogląda realistycznie na metody badawcze (które mogą być zawierać błędy lub też występować pewne zewnętrzne zakłócenia). Stwierdza, że nie wystarczy jedno wydarzenie, aby obalić całą teorię. Musi wystąpić zjawisko powtarzalne, obalające teorię. (Por. ibidem, s. 74).
Sądzę, że trzy przykłady łamania teorii już o czymś świadczą. Czy to znaczy, że w rozpatrywanym kontekście analiza techniczna została obalona? Nie. Po pierwsze zostało jedynie obalone stanowisko, że analiza techniczna zawsze się sprawdza. Powtarzam jednak, że AT jest nauką statystyczną, jej przewidywania są prognozami odnotowywanymi z danym prawdopodobieństwem. Oznacza to, że aby obalić AT należy wykazać, że częstość jej niesprawdzania się wynosi co najmniej 50%. Gdy na przykład pobieżnie badałem metodę RSI dla INGBSK, stwierdziłem, że jej poprawność jest większa od 50%. Być może, gdybym wykonał dokładniejsze badania, wyszłoby mi blisko 50:50, ale na dziś zakładam, że RSI (dla ING) jest dość dobrym wskaźnikiem trendu. Opis testu jest zawarty w poście "RSI w praktyce". Co więcej, gdy ostatnio dokonałem tego typu analiz dla innych spółek, wyniki okazały się zbliżone: poprawność sygnałów RSI w sensie co najmniej kilku dni naprzód mieści się w przedziale 55-60%.
Po drugie, moje analizy zawierały, podobnie jak w przypadku metody RSI, pewne założenia: linia %K jest 15-okresowa, %D jest 5-okresowa, a poziom wykupienia to 80 i wyprzedaży 20. Zawsze można kalibrować parametrami.
Jak to więc wygląda dla STS?
Doszedłem do kilku ciekawych wniosków. Pierwszy jest taki, że nie ma co zawracać sobie głowy samymi poziomami wykupienia i wyprzedaży. Do tego lepiej nadaje się RSI. STS jest bardzo wrażliwy na skrajne wartości, co wynika z jego konstrukcji. Ale wiemy, że w przypadku STS poziomy wykupienia i wyprzedaży są jedynie dodatkiem. Istotne są dywergencje i punkty przecięcia linii %K z %D.
Według Murphy'ego sygnał występuje, gdy zarówno występuje dywergencja, jak i przecięcie obu linii. Jednak dywergencje są stosunkowo rzadkie. Ostatnia cena zamknięcia we wzorze STS sprawia, że wskaźnik ten porusza się najczęściej tak jak kurs, wobec czego najczęściej kolejne ekstrema kursu są kolejnymi ekstremami wskaźnika.
Dlatego - oto drugi wniosek - zrobiłem analizę oddzielną dla dywergencji oraz dla punktów przecięcia się linii K i D.
Dywergencje:
Sporządziłem analizę dla INGBSK od początku roku 2000 do końca czerwca 2009. Znalazłem zaledwie 22 widocznych na oko dywergencji dla notowań dziennych. Ale spośród tych 22 sygnałów, aż 16/18 dało prawidłowy sygnał. Zapis 16/18 oznacza, że do dwóch nie jestem do końca przekonany. Tak czy inaczej wyszło na to, że istnieje ponad 70% szansy, że dywergencja daje trafną prognozę. Szczerze mówiąc, sam się dziwię, że wynik jest aż tak pozytywny. Ale tak mi wyszło. Przy czym należy dodać, że tylko 8 sygnałów dotyczyło kupna, z czego 1 był niepoprawny, a 2 były nie do końca przekonujące.
Punkty przecięcia linii K i D:
Sporządziłem analizę dla INGBSK od początku roku 2004 do końca czerwca 2009 (notowania dzienne). Pozytywny sygnał wystąpił, gdy co najmniej kilka dni naprzód kurs ruszał tak, jak wskazywał STS w okolicach poziomów kupna i wyprzedaży. Wynik znów zaskakuje: na 91 sygnałów 55 sygnałów było poprawnych (60%) i 36 fałszywych (40%). 60% pewności to bardzo dużo na giełdzie.
Zdaję sobie jednak sprawę z pewnej subiektywności tego badania. Nie wiem również czy dla innych spółek wyniki są aż tak zadowalające.
Trzeci wniosek to swego rodzaju odkrycie. Popatrzmy na poniższy wykres:
Występuje dywergencja, którą zapoczątkowuje przecięcie od dołu linii D przez K. Zgodnie z dywergencją kurs, pomimo okresu spadku, potem zaczyna wspinaczkę. Co z tego wynika? Obrońcy AT zawsze znajdą sposób, by wykazać prawidłowość swojej teorii. Pomimo, że przecięcie się K i D powinno prognozować wzrost kursu, to jeszcze należy uwzględnić występowanie dywergencji pozytywnej, oznaczającej, że dopiero wkrótce zaczną się wzrosty. Zauważmy: aby wystąpił sygnał kupna, linia K musi przeciąć niemalejącą linię D i dalej ruszać w górę. Jeśli jednak tak się właśnie dzieje, a kurs spada (czyli wydaje się, że STS nie działa), oznacza to, że powstała dywergencja (czyli jednak wskaźnik działa)! Oczywiście, skoro ta powstała, to wzrost kursu nastąpi trochę później. W końcu kiedyś będzie korekta. Jeśli jednak korekta tak szybko nie następuje, jak powinna, to co się stanie? Oczywiście linia K przetnie linię D, ale tym razem od góry, dając sygnał sprzedaży... Jak by nie patrzeć, zawsze AT zwycięża, ile tylko zmienimy punkt widzenia.
Pomimo wskazanej kontrowersji, należy przyznać, że skoro oddzieliłem w swoim badaniu problem dywergencji od punktów przecięć K i D i zarówno jedna, jak i druga metoda przyniosła odpowiedź, że generowane przez nią sygnały nie są "idealnie" losowe (w sensie istnienia prawdopodobieństwa 50:50), na dziś mój subiektywny (na przykład nie uwzględniam prowizji) wniosek samego mnie zaskakuje: oscylator stochastyczny w okresie badawczym mógł przynieść ponadprzeciętne (czyli większe od metody kup i trzymaj) krótkookresowe zyski.
Zarówno RSI jak i STS wykazują dywergencję w stosunku do kursu spółki. Zgodnie z teorią powinny nastąpić teraz spadki. A co się stało?
Nastąpił potężny wzrost i dopiero daleko potem spadki, których nie można tłumaczyć "opóźnieniem". Co ciekawe, dodatkowo wolumen silnie spadł w początkowym okresie, co powinno potwierdzać prognozę spadku trendu. Po tym spadku wolumenu nastąpił silny wzrost kursu, któremu już towarzyszył wzrost wolumenu.
Teoria kompletnie się nie sprawdziła.
A to przykład PKNORLEN:
Również można dostrzec dywergencję i idealną sytuację do kupna akcji. A tu psikus...
I jeszcze na koniec przykład PKOBP:
Tutaj trend zwyżkujący okazał się dużo lepszym miernikiem prognozy niż dość wysublimowana koncepcja dywergencji.
Zgodnie z kryterium falsyfikacjonizmu Poppera, aby teoria mogła być uznana za naukową, "musi być możliwe obalenie empirycznego systemu naukowego przez doświadczenie" (Karl R. Popper, Logika odkrycia naukowego, W-wa 1977, s. 40). Popper uznaje, że "dla metody empirycznej charakterystyczne jest to, że system podlegający sprawdzaniu dostępny jest falsyfikacji na wszystkie dające się pomyśleć sposoby. Cel tej metody polega nie na ratowaniu życia nie dających się utrzymać systemów, lecz przeciwnie, na rzuceniu ich wszystkich w wir najzaciekliwszej walki o przetrwanie i wybranie tego, który w porównaniu z innymi okaże się najlepiej przystosowany." (Op. cit., ibidem, s. 41). Warto tu odnotować, że Popper spogląda realistycznie na metody badawcze (które mogą być zawierać błędy lub też występować pewne zewnętrzne zakłócenia). Stwierdza, że nie wystarczy jedno wydarzenie, aby obalić całą teorię. Musi wystąpić zjawisko powtarzalne, obalające teorię. (Por. ibidem, s. 74).
Sądzę, że trzy przykłady łamania teorii już o czymś świadczą. Czy to znaczy, że w rozpatrywanym kontekście analiza techniczna została obalona? Nie. Po pierwsze zostało jedynie obalone stanowisko, że analiza techniczna zawsze się sprawdza. Powtarzam jednak, że AT jest nauką statystyczną, jej przewidywania są prognozami odnotowywanymi z danym prawdopodobieństwem. Oznacza to, że aby obalić AT należy wykazać, że częstość jej niesprawdzania się wynosi co najmniej 50%. Gdy na przykład pobieżnie badałem metodę RSI dla INGBSK, stwierdziłem, że jej poprawność jest większa od 50%. Być może, gdybym wykonał dokładniejsze badania, wyszłoby mi blisko 50:50, ale na dziś zakładam, że RSI (dla ING) jest dość dobrym wskaźnikiem trendu. Opis testu jest zawarty w poście "RSI w praktyce". Co więcej, gdy ostatnio dokonałem tego typu analiz dla innych spółek, wyniki okazały się zbliżone: poprawność sygnałów RSI w sensie co najmniej kilku dni naprzód mieści się w przedziale 55-60%.
Po drugie, moje analizy zawierały, podobnie jak w przypadku metody RSI, pewne założenia: linia %K jest 15-okresowa, %D jest 5-okresowa, a poziom wykupienia to 80 i wyprzedaży 20. Zawsze można kalibrować parametrami.
Jak to więc wygląda dla STS?
Doszedłem do kilku ciekawych wniosków. Pierwszy jest taki, że nie ma co zawracać sobie głowy samymi poziomami wykupienia i wyprzedaży. Do tego lepiej nadaje się RSI. STS jest bardzo wrażliwy na skrajne wartości, co wynika z jego konstrukcji. Ale wiemy, że w przypadku STS poziomy wykupienia i wyprzedaży są jedynie dodatkiem. Istotne są dywergencje i punkty przecięcia linii %K z %D.
Według Murphy'ego sygnał występuje, gdy zarówno występuje dywergencja, jak i przecięcie obu linii. Jednak dywergencje są stosunkowo rzadkie. Ostatnia cena zamknięcia we wzorze STS sprawia, że wskaźnik ten porusza się najczęściej tak jak kurs, wobec czego najczęściej kolejne ekstrema kursu są kolejnymi ekstremami wskaźnika.
Dlatego - oto drugi wniosek - zrobiłem analizę oddzielną dla dywergencji oraz dla punktów przecięcia się linii K i D.
Dywergencje:
Sporządziłem analizę dla INGBSK od początku roku 2000 do końca czerwca 2009. Znalazłem zaledwie 22 widocznych na oko dywergencji dla notowań dziennych. Ale spośród tych 22 sygnałów, aż 16/18 dało prawidłowy sygnał. Zapis 16/18 oznacza, że do dwóch nie jestem do końca przekonany. Tak czy inaczej wyszło na to, że istnieje ponad 70% szansy, że dywergencja daje trafną prognozę. Szczerze mówiąc, sam się dziwię, że wynik jest aż tak pozytywny. Ale tak mi wyszło. Przy czym należy dodać, że tylko 8 sygnałów dotyczyło kupna, z czego 1 był niepoprawny, a 2 były nie do końca przekonujące.
Punkty przecięcia linii K i D:
Sporządziłem analizę dla INGBSK od początku roku 2004 do końca czerwca 2009 (notowania dzienne). Pozytywny sygnał wystąpił, gdy co najmniej kilka dni naprzód kurs ruszał tak, jak wskazywał STS w okolicach poziomów kupna i wyprzedaży. Wynik znów zaskakuje: na 91 sygnałów 55 sygnałów było poprawnych (60%) i 36 fałszywych (40%). 60% pewności to bardzo dużo na giełdzie.
Zdaję sobie jednak sprawę z pewnej subiektywności tego badania. Nie wiem również czy dla innych spółek wyniki są aż tak zadowalające.
Trzeci wniosek to swego rodzaju odkrycie. Popatrzmy na poniższy wykres:
Występuje dywergencja, którą zapoczątkowuje przecięcie od dołu linii D przez K. Zgodnie z dywergencją kurs, pomimo okresu spadku, potem zaczyna wspinaczkę. Co z tego wynika? Obrońcy AT zawsze znajdą sposób, by wykazać prawidłowość swojej teorii. Pomimo, że przecięcie się K i D powinno prognozować wzrost kursu, to jeszcze należy uwzględnić występowanie dywergencji pozytywnej, oznaczającej, że dopiero wkrótce zaczną się wzrosty. Zauważmy: aby wystąpił sygnał kupna, linia K musi przeciąć niemalejącą linię D i dalej ruszać w górę. Jeśli jednak tak się właśnie dzieje, a kurs spada (czyli wydaje się, że STS nie działa), oznacza to, że powstała dywergencja (czyli jednak wskaźnik działa)! Oczywiście, skoro ta powstała, to wzrost kursu nastąpi trochę później. W końcu kiedyś będzie korekta. Jeśli jednak korekta tak szybko nie następuje, jak powinna, to co się stanie? Oczywiście linia K przetnie linię D, ale tym razem od góry, dając sygnał sprzedaży... Jak by nie patrzeć, zawsze AT zwycięża, ile tylko zmienimy punkt widzenia.
Pomimo wskazanej kontrowersji, należy przyznać, że skoro oddzieliłem w swoim badaniu problem dywergencji od punktów przecięć K i D i zarówno jedna, jak i druga metoda przyniosła odpowiedź, że generowane przez nią sygnały nie są "idealnie" losowe (w sensie istnienia prawdopodobieństwa 50:50), na dziś mój subiektywny (na przykład nie uwzględniam prowizji) wniosek samego mnie zaskakuje: oscylator stochastyczny w okresie badawczym mógł przynieść ponadprzeciętne (czyli większe od metody kup i trzymaj) krótkookresowe zyski.
sobota, 27 czerwca 2009
Oscylator stochastyczny
1. Czym jest oscylator stochastyczny?
Analitycy techniczni na co dzień, bez zastanowienia, używają tzw. oscylatora stochastycznego. My się jednak przyjrzymy bardziej szczegółowo znaczeniu tego narzędzia. Najpierw poznamy definicję słów tworzących tę nazwę.
Oscylator - układ fiz. (mech., elektr.), wykonujący drgania wokół położenia równowagi trwałej(http://encyklopedia.pwn.pl)
Proces stochastyczny - rodzina zmiennych losowych określonych na pewnej przestrzeni probabilistycznej o wartościach w pewnej przestrzeni mierzalnej (op. cit. http://pl.wikipedia.org/wiki/Proces_stochastyczny).
Tak więc, oscylator stochastyczny (Stochastic - STS) jest narzędziem wykrywającym losowe wahania zmiennej wokół poziomu równowagi.
Na marginesie dodam, że niestety w analizie technicznej tworzone są pojęcia mieszające się ze sobą, które stają się pogmatwane. Na przykład J.J. Murphy w "Analizie technicznej rynków finansowych" dokładnie omawia różne typy oscylatorów i jednym z nich jest oscylator stochastyczny. Jest dla mnie nieporozumieniem nazywanie jednego oscylatora stochastycznym a innych nie. W zasadzie wszystkie oscylatory analizy technicznej są stochastyczne, gdyż analiza techniczna opiera się na statystyce. Kogo bowiem obchodzi, że jakiś autor nazwał swój wskaźnik tak a nie inaczej? Gdyby tak miało być w matematyce, to ta dziedzina kompletnie by się załamała pod ciężarem niejednolitości i niejednoznaczności. Analiza techniczna w obecnej formie jest zdecydowanie niedoskonała. Paradoksalnie właśnie przez to ma wielu zwolenników, bo przecież każdy wskaźnik może być interpretowany na własny sposób.
"Wskaźnik STS bazuje na spostrzeżeniu, że podczas trendów wzrostowych ceny zamknięcia kształtują się na ogół blisko górnej granicy swych wahań, zaś w trendach spadkowych zbliżają się do dolnej granicy tego zakresu. W tym oscylatorze używa się dwóch linii- %K i %D." (http://pl.wikipedia.org/wiki/Oscylator_stochastyczny).
Wzór na linię %K:
Murphy za x wstawia 14.
%D to 3-okresowa średnia linii %K
2. Interpretacja
Interpretacja pozostaje podobna jak w przypadku RSI: stosuje się zarówno pojęcie poziomu wykupienia/wyprzedania, jak i dywergencji. Zauważmy, że gdy ostatnia cena zamknięcia będzie się zbliżać do maksimum, ułamek będzie dążył do 1 (100%). Gdy cena będzie się zbliżać do minimum, ułamek będzie dążył do 0. Za poziom wykupienia najczęściej bierze się 80, za poziom wyprzedania 20. Większy zasięg poziomów niż dla RSI wynika z tego, że STS jest zbyt wrażliwy na zmiany, co wynika z jego konstrukcji.
Ponadto w interpretacji uwzględnia się dodatkowo linię %D, czego nie ma w metodzie RSI; Murphy pisze nawet, że %D jest ważniejsza od %K. Jeśli została utworzona dywergencja pomiędzy ceną akcji a linią %D (tzn. cena akcji i %D średnio rzecz biorąc zachowują się przeciwnie), wówczas "sygnał kupna lub sprzedaży pojawia się w chwili, gdy szybsza linia K przecina wolniejszą linię D" (J.J. Murphy, ibidem, s. 216).
3. Różnica pomiędzy STS a RSI
Różnica pomiędzy STS a RSI polega po pierwsze na tym, że we wzorze STS występują nie zmiany ceny, ale jej konkretne wartości: ostatnia cena zamknięcia, najniższa i najwyższa cena w danym okresie. Dlatego właśnie zakres wahań jest przedstawiony jako różnica zmiennych (tutaj cen) a nie suma (zmian cen), co było słuszne dla RSI. Po drugie %K w przeciwieństwie do RSI nie opiera się w ogóle na średnich, co znaczy przyjęcie założenia, że same ceny mają wpływ na przyszłość. RSI okazuje się bardziej stochastyczny niż STS!
4. Czy to ma sens?
Aby rozwiązać powyższy problem, w metodzie STS stosuje się uśrednioną linię %K, czyli %D, choć ta ostatnia to nic innego jak wygładzenie linii %K. W końcu łączy się obydwie linie - jeżeli K przecina od dołu rosnącą linię D, możemy się spodziewać zwyżki kursu, jeśli K przecina od góry opadającą D - zniżki. W tej konstrukcji nie ma niczego zaczarowanego. W analizie technicznej uznaje się, że jeśli szybszy wskaźnik przecina w danym kierunku wolniejszy, to znaczy, że powstaje lub umacnia się dany trend. Przyjmuje się konwencję, że, statystycznie rzecz biorąc, jeśli wolniejsza średnia wskaźnika podąża w danym kierunku, a sam wskaźnik ją przecina, to znaczy, że sam "chce iść" w tym kierunku (coś na zasadzie siły bezwładności). Należy jednak pamiętać, że wszelkie określenia, jak "chce iść" są personifikacją stworzoną dla potrzeb intuicyjnego zrozumienia zagadnień, które w rzeczywistości są suchą analizą statystyczną.
Czysty statystyk prawdopodobnie pogardziłby STS i jego interpretacją. Co to za proces stochastyczny, który przyjmuje za wiarygodne konkretne wartości zmiennej losowej? Linia %D nieco poprawia tę sytuację, ale przecież w interpretacji K ma przebijać D. Z drugiej strony o punkcie przebicia linii D przez K można myśleć nie jak o faktycznym punkcie, od którego umacnia się trend, lecz jak o pewnej reprezentacji umacniania się trendu.
Wspomnę tutaj o Tharpie i jego bardzo znanej książce "Giełda, wolność i pieniądze. Poradnik spekulanta". Tharp na początku swojej książki przedstawia obciążenia oceny sytuacji rynkowej, czyli heurystyki. Temat heurystyk jest długi i wkrótce go poruszę. Jedną z heurystyk jest złudzenie reprezentacji. "Ludzie zakładają, że, gdy coś ma reprezentować coś innego, jest ono w rzeczywistości tym, co reprezentuje".
Musimy więc zdystansować się do wiedzy, którą wtłaczają nam do głowy podręczniki analizy technicznej. Punkt przecięcia D i K powinien nas informować, że kurs akcji, indeks znajduje się w pewnym obszarze "prowzrostowym" ("prospadkowym"), to znaczy mającym tendencję do wzrostu (spadku). Tendencja wiąże się z pojęciem prawdopodobieństwa. Jeśli częstości historyczne wskazują na powtarzalność określonych schematów, prawdopodobieństwo ich pojawienia się wzrasta. Identycznie powinniśmy odnosić się do analogicznych postulatów AT, na przykład kiedy rosnący (spadający) kurs akcji przebija rosnącą (spadającą) średnią 15, 30 i 45-dniową, co winno świadczyć o formowaniu/wzmacnianiu trendu.
5. Podsumowanie.
STS stanowi narzędzie, które informuje o oscylacjach kursu pomiędzy poziomem minimum a maksimum danego okresu. Składa się z dwóch linii: %K oraz jej średniej %D. Teoretycznie %K jest gorsze od RSI, gdyż jego konstrukcja opiera się na dwóch skrajnych wartościach ceny w pewnym okresie, co może prowadzić do wielu błędnych sygnałów. Istnienie trendów samo w sobie kreuje kolejne maksima albo minima. Mało sugestywne jest więc założenie, że dwie skrajne wartości ceny z niedalekiej przeszłości będą mieć znaczenie dla fluktuacji w niedalekiej przyszłości, gdy trwa trend. Mimo wszystko, jeśli wielu uczestników używa tego narzędzia, może zadziałać na zasadzie samospełniającej się przepowiedni. Z pewnością STS pomocny może być w sytuacji, gdy trend jest horyzontalny. Należy również dodać, że dość przekonująca jest uśredniona linia K, czyli D, która może zastępować wstęgę Bollingera.
Analitycy techniczni na co dzień, bez zastanowienia, używają tzw. oscylatora stochastycznego. My się jednak przyjrzymy bardziej szczegółowo znaczeniu tego narzędzia. Najpierw poznamy definicję słów tworzących tę nazwę.
Oscylator - układ fiz. (mech., elektr.), wykonujący drgania wokół położenia równowagi trwałej(http://encyklopedia.pwn.pl)
Proces stochastyczny - rodzina zmiennych losowych określonych na pewnej przestrzeni probabilistycznej o wartościach w pewnej przestrzeni mierzalnej (op. cit. http://pl.wikipedia.org/wiki/Proces_stochastyczny).
Tak więc, oscylator stochastyczny (Stochastic - STS) jest narzędziem wykrywającym losowe wahania zmiennej wokół poziomu równowagi.
Na marginesie dodam, że niestety w analizie technicznej tworzone są pojęcia mieszające się ze sobą, które stają się pogmatwane. Na przykład J.J. Murphy w "Analizie technicznej rynków finansowych" dokładnie omawia różne typy oscylatorów i jednym z nich jest oscylator stochastyczny. Jest dla mnie nieporozumieniem nazywanie jednego oscylatora stochastycznym a innych nie. W zasadzie wszystkie oscylatory analizy technicznej są stochastyczne, gdyż analiza techniczna opiera się na statystyce. Kogo bowiem obchodzi, że jakiś autor nazwał swój wskaźnik tak a nie inaczej? Gdyby tak miało być w matematyce, to ta dziedzina kompletnie by się załamała pod ciężarem niejednolitości i niejednoznaczności. Analiza techniczna w obecnej formie jest zdecydowanie niedoskonała. Paradoksalnie właśnie przez to ma wielu zwolenników, bo przecież każdy wskaźnik może być interpretowany na własny sposób.
"Wskaźnik STS bazuje na spostrzeżeniu, że podczas trendów wzrostowych ceny zamknięcia kształtują się na ogół blisko górnej granicy swych wahań, zaś w trendach spadkowych zbliżają się do dolnej granicy tego zakresu. W tym oscylatorze używa się dwóch linii- %K i %D." (http://pl.wikipedia.org/wiki/Oscylator_stochastyczny).
Wzór na linię %K:
Murphy za x wstawia 14.
%D to 3-okresowa średnia linii %K
2. Interpretacja
Interpretacja pozostaje podobna jak w przypadku RSI: stosuje się zarówno pojęcie poziomu wykupienia/wyprzedania, jak i dywergencji. Zauważmy, że gdy ostatnia cena zamknięcia będzie się zbliżać do maksimum, ułamek będzie dążył do 1 (100%). Gdy cena będzie się zbliżać do minimum, ułamek będzie dążył do 0. Za poziom wykupienia najczęściej bierze się 80, za poziom wyprzedania 20. Większy zasięg poziomów niż dla RSI wynika z tego, że STS jest zbyt wrażliwy na zmiany, co wynika z jego konstrukcji.
Ponadto w interpretacji uwzględnia się dodatkowo linię %D, czego nie ma w metodzie RSI; Murphy pisze nawet, że %D jest ważniejsza od %K. Jeśli została utworzona dywergencja pomiędzy ceną akcji a linią %D (tzn. cena akcji i %D średnio rzecz biorąc zachowują się przeciwnie), wówczas "sygnał kupna lub sprzedaży pojawia się w chwili, gdy szybsza linia K przecina wolniejszą linię D" (J.J. Murphy, ibidem, s. 216).
3. Różnica pomiędzy STS a RSI
Różnica pomiędzy STS a RSI polega po pierwsze na tym, że we wzorze STS występują nie zmiany ceny, ale jej konkretne wartości: ostatnia cena zamknięcia, najniższa i najwyższa cena w danym okresie. Dlatego właśnie zakres wahań jest przedstawiony jako różnica zmiennych (tutaj cen) a nie suma (zmian cen), co było słuszne dla RSI. Po drugie %K w przeciwieństwie do RSI nie opiera się w ogóle na średnich, co znaczy przyjęcie założenia, że same ceny mają wpływ na przyszłość. RSI okazuje się bardziej stochastyczny niż STS!
4. Czy to ma sens?
Aby rozwiązać powyższy problem, w metodzie STS stosuje się uśrednioną linię %K, czyli %D, choć ta ostatnia to nic innego jak wygładzenie linii %K. W końcu łączy się obydwie linie - jeżeli K przecina od dołu rosnącą linię D, możemy się spodziewać zwyżki kursu, jeśli K przecina od góry opadającą D - zniżki. W tej konstrukcji nie ma niczego zaczarowanego. W analizie technicznej uznaje się, że jeśli szybszy wskaźnik przecina w danym kierunku wolniejszy, to znaczy, że powstaje lub umacnia się dany trend. Przyjmuje się konwencję, że, statystycznie rzecz biorąc, jeśli wolniejsza średnia wskaźnika podąża w danym kierunku, a sam wskaźnik ją przecina, to znaczy, że sam "chce iść" w tym kierunku (coś na zasadzie siły bezwładności). Należy jednak pamiętać, że wszelkie określenia, jak "chce iść" są personifikacją stworzoną dla potrzeb intuicyjnego zrozumienia zagadnień, które w rzeczywistości są suchą analizą statystyczną.
Czysty statystyk prawdopodobnie pogardziłby STS i jego interpretacją. Co to za proces stochastyczny, który przyjmuje za wiarygodne konkretne wartości zmiennej losowej? Linia %D nieco poprawia tę sytuację, ale przecież w interpretacji K ma przebijać D. Z drugiej strony o punkcie przebicia linii D przez K można myśleć nie jak o faktycznym punkcie, od którego umacnia się trend, lecz jak o pewnej reprezentacji umacniania się trendu.
Wspomnę tutaj o Tharpie i jego bardzo znanej książce "Giełda, wolność i pieniądze. Poradnik spekulanta". Tharp na początku swojej książki przedstawia obciążenia oceny sytuacji rynkowej, czyli heurystyki. Temat heurystyk jest długi i wkrótce go poruszę. Jedną z heurystyk jest złudzenie reprezentacji. "Ludzie zakładają, że, gdy coś ma reprezentować coś innego, jest ono w rzeczywistości tym, co reprezentuje".
Musimy więc zdystansować się do wiedzy, którą wtłaczają nam do głowy podręczniki analizy technicznej. Punkt przecięcia D i K powinien nas informować, że kurs akcji, indeks znajduje się w pewnym obszarze "prowzrostowym" ("prospadkowym"), to znaczy mającym tendencję do wzrostu (spadku). Tendencja wiąże się z pojęciem prawdopodobieństwa. Jeśli częstości historyczne wskazują na powtarzalność określonych schematów, prawdopodobieństwo ich pojawienia się wzrasta. Identycznie powinniśmy odnosić się do analogicznych postulatów AT, na przykład kiedy rosnący (spadający) kurs akcji przebija rosnącą (spadającą) średnią 15, 30 i 45-dniową, co winno świadczyć o formowaniu/wzmacnianiu trendu.
5. Podsumowanie.
STS stanowi narzędzie, które informuje o oscylacjach kursu pomiędzy poziomem minimum a maksimum danego okresu. Składa się z dwóch linii: %K oraz jej średniej %D. Teoretycznie %K jest gorsze od RSI, gdyż jego konstrukcja opiera się na dwóch skrajnych wartościach ceny w pewnym okresie, co może prowadzić do wielu błędnych sygnałów. Istnienie trendów samo w sobie kreuje kolejne maksima albo minima. Mało sugestywne jest więc założenie, że dwie skrajne wartości ceny z niedalekiej przeszłości będą mieć znaczenie dla fluktuacji w niedalekiej przyszłości, gdy trwa trend. Mimo wszystko, jeśli wielu uczestników używa tego narzędzia, może zadziałać na zasadzie samospełniającej się przepowiedni. Z pewnością STS pomocny może być w sytuacji, gdy trend jest horyzontalny. Należy również dodać, że dość przekonująca jest uśredniona linia K, czyli D, która może zastępować wstęgę Bollingera.
Labels:
analiza techniczna,
oscylator stochastyczny,
RSI
piątek, 19 czerwca 2009
Sprzedać czy nie sprzedać
Długo zastanawiałem się, czy sprzedać INGBSK. Z jednej strony RSI pokazuje stan wykupienia akcji. Na marginesie dodam, że zdaniem J.J. Murphy'ego "pierwsze pojawienie się oscylatora w strefie wykupienia lub wyprzedania jest zwykle tylko ostrzeżeniem. Sygnałem wymagającym szczególnej uwagi jest drugie wejście oscylatora w tę niebezpieczną strefę." Poniższy wykres pokazuje, że obecnie mamy do czynienia z drugą fazą. Z drugiej strony kurs wreszcie przebił długookresowy trend spadkowy.
Niby trend jest ważniejszy, ale właśnie - paradoksalnie - to on powoduje duże straty spekulantów. Ostatni 3,5-miesięczny trend nie był spokojny, jednolity. Gdzieś w połowie tego okresu nachylenie wzrostu nagle wzrosło. Gwałtowne wzrosty powodują gwałtowne spadki. Oto przykłady kursu ING z bliższej i dalszej przeszłości, począwszy od końca hossy 2007:
Wczoraj okazałem się zachłanny, chcąc dziś sprzedać ING po 365. Kurs otworzył się na 359 i dalej spadał. Dziś więc wydałem na jutro polecenie sprzedaży za 359.
Moje wątpliwości nie polegają na tym, że ING spadnie, bo tego jestem niemal pewien, ale na tym, że spadek może być krótki ze względu na przebicie linii trendu niedźwiedzia.
Oczywiście nie byłoby problemu, gdyby nie koszty transakcyjne. Nie ma sensu sprzedawać tylko dlatego, że się oczekuje chwilowych spadków. Nie ma wątpliwości, że decyzja o momencie sprzedaży jest dużo trudniejsza niż o momencie kupna.
Pomyślałem więc o teorii wyjaśniającej, dlaczego niektóre wskaźniki, jak RSI lepiej sygnalizują kupno niż sprzedaż (o kilka punktów procentowych). Być może gracze mniej chętnie sprzedają akcje ze względu na koszty transakcyjne. Gdy kupują akcje, to wchodzą na rynek z konkretnym celem zarabiania i prowizję wliczają w koszty inwestycji. Ale gdy już posiadają akcje i widzą, że ceny ciągle rosną, działają zgodnie ze schematem: "Pozwalam zyskom rosnąć" i tak szybko nie wychodzą z rynku, pomimo oznak przesilenia, gdyż nie chcą płacić niepotrzebnie prowizji maklerskich. Powoduje to, że albo granice wykupienia i wyprzedaży są asymetryczne: wyprzedaż w okolicy 30%, wykupienia powyżej 70%, na przykład 80-85%, albo - tak jak pisze Murphy - realne spadki dokonują się po dotarciu RSI kilka razy z rzędu w strefę wykupienia 70.
Gdyby przyjąć poziom 80 jako poziom wykupienia, to faktycznie ING powinienem dalej trzymać. Ale swoją koncepcję powinienem najpierw zweryfikować na podstawie częstości sygnałów z przeszłości, a potem decydować. Patrząc na oko, kalibracja przedziałem 80-85 daje dość dobre rezultaty, filtrując błędne sygnały sprzedaży. Gdyby jednak przyjąć, że RSI musi kilka razy pokonać wartość 70, to już powinienem się zastanawiać nad sprzedażą. Mimo wszystko zaryzykuję i sprzedam (stopa zwrotu ok. 60% w 2 miesiące to nie jest źle).
Niby trend jest ważniejszy, ale właśnie - paradoksalnie - to on powoduje duże straty spekulantów. Ostatni 3,5-miesięczny trend nie był spokojny, jednolity. Gdzieś w połowie tego okresu nachylenie wzrostu nagle wzrosło. Gwałtowne wzrosty powodują gwałtowne spadki. Oto przykłady kursu ING z bliższej i dalszej przeszłości, począwszy od końca hossy 2007:
Wczoraj okazałem się zachłanny, chcąc dziś sprzedać ING po 365. Kurs otworzył się na 359 i dalej spadał. Dziś więc wydałem na jutro polecenie sprzedaży za 359.
Moje wątpliwości nie polegają na tym, że ING spadnie, bo tego jestem niemal pewien, ale na tym, że spadek może być krótki ze względu na przebicie linii trendu niedźwiedzia.
Oczywiście nie byłoby problemu, gdyby nie koszty transakcyjne. Nie ma sensu sprzedawać tylko dlatego, że się oczekuje chwilowych spadków. Nie ma wątpliwości, że decyzja o momencie sprzedaży jest dużo trudniejsza niż o momencie kupna.
Pomyślałem więc o teorii wyjaśniającej, dlaczego niektóre wskaźniki, jak RSI lepiej sygnalizują kupno niż sprzedaż (o kilka punktów procentowych). Być może gracze mniej chętnie sprzedają akcje ze względu na koszty transakcyjne. Gdy kupują akcje, to wchodzą na rynek z konkretnym celem zarabiania i prowizję wliczają w koszty inwestycji. Ale gdy już posiadają akcje i widzą, że ceny ciągle rosną, działają zgodnie ze schematem: "Pozwalam zyskom rosnąć" i tak szybko nie wychodzą z rynku, pomimo oznak przesilenia, gdyż nie chcą płacić niepotrzebnie prowizji maklerskich. Powoduje to, że albo granice wykupienia i wyprzedaży są asymetryczne: wyprzedaż w okolicy 30%, wykupienia powyżej 70%, na przykład 80-85%, albo - tak jak pisze Murphy - realne spadki dokonują się po dotarciu RSI kilka razy z rzędu w strefę wykupienia 70.
Gdyby przyjąć poziom 80 jako poziom wykupienia, to faktycznie ING powinienem dalej trzymać. Ale swoją koncepcję powinienem najpierw zweryfikować na podstawie częstości sygnałów z przeszłości, a potem decydować. Patrząc na oko, kalibracja przedziałem 80-85 daje dość dobre rezultaty, filtrując błędne sygnały sprzedaży. Gdyby jednak przyjąć, że RSI musi kilka razy pokonać wartość 70, to już powinienem się zastanawiać nad sprzedażą. Mimo wszystko zaryzykuję i sprzedam (stopa zwrotu ok. 60% w 2 miesiące to nie jest źle).
Labels:
analiza techniczna,
RSI,
wskaźniki
piątek, 5 czerwca 2009
Wstęga Bollingera - ujęcie praktyczne
Poprzedni wywód o wstędze Bollingera miał charakter teoretyczny. Obecnie skupię się na przekonaniu czytelników, że wstęga jest słabym miernikiem analizy technicznej. Oto wykres WIG20 w przeciągu 2 ostatnich lat (początek czerwca 2007-początek czerwca 2009), wraz z nałożoną nań wstęgą Bollingera i odchyleniem standardowym indeksu:
Czerwony wykres to 20-dniowa wstęga Bollingera, czyli ta sugerowana przez J.J. Murphy'ego. Niebieski wykres to 20-dniowe odchylenie standardowe, a czarny to WIG20. Pierwszy rzut oka może dać przeświadczenie, że wstęga jest wspaniałym miernikiem, bowiem indeks prawie zawsze pozostaje w jej obrębie.
Jest to błędne myślenie. Nieświadomie używamy heurystyk, które często sprowadzają nasze sądy na manowce.
Porównajmy wykres WIG20, wstęgi i odchylenia standardowego. Zauważamy, że gdy tylko indeks zmienia kierunek krótkoterminowego trendu, odchylenie standardowe wzrasta. A ponieważ wzrasta, to cała wstęga rozszerza się. Kurs może iść więc zarówno w górę, jak i w dół, a wstęga go obejmie. Im kurs silniej zmieni kierunek, tym większe prawdopodobieństwo, że nastąpi korekta - zmiana w przeciwną stronę. Ale odchylenie standardowe już szybciej rośnie i wstęga mocniej zwiększa zasięg, co powoduje, że niezależnie od kierunku zwrotu, kurs pozostanie w obrębie wstęgi. Jest to tym bardziej prawdopodobne, gdy wstęga zawiera dwa odchylenia standardowe. Nie ma to jednak wiele wspólnego z rozkładem normalnym, tylko ogólnym rachunkiem prawdopodobieństwa.
Używanie odchylenia standardowego jako miary zmienności samo w sobie zwiększa prawdopodobieństwo, że "ogarniemy" obszar wartości zmiennej. Nie jest to jednak podyktowane teoretyczną podstawą (jeśli rozkład gęstości nie jest normalny), a jedynie matematyczną ekwilibrystyką. Odchylenie to jest przypadkiem tzw. średniej potęgowej, w której wyrazy podnosi się do k-tej potęgi, dzieli przez liczbę wyrazów i z całości wyciąga pierwiastek k-tego rzędu. Oczywiste, że im większe k, tym większa powstanie średnia, a więc większe prawdopodobieństwo objęcia empirycznej zmienności. Stąd wydaje się, że odchylenie standardowe "działa", choć w rzeczywistości można byłoby użyć na przykład czwartej czy szóstej potęgi zamiast drugiej.
Jak duże jest prawdopodobieństwo, że wartość zmiennej trafi w obszar danego momentu centralnego niezależnie od rozkładu gęstości prawdopodobieństwa? Wprowadźmy twierdzenie Czebyszewa i jego szczególny przypadek - twierdzenie Markowa.
Twierdzenie Czebyszewa (Źródło: Wikipedia)
Dla każdej zmiennej losowej, X spełniającej warunek P{X<0}=0, o wartości oczekiwanej E(X), dla każdego e > 0 (e = epsilon) zachodzi:
Jeśli za wartość oczekiwaną indeksu WIG20 przyjmiemy średnią kroczącą = 1900 pkt, to prawdopodobieństwo, że indeks przekroczy na przykład e=2000 pkt jest mniejsze od 1900/2000=0,95.
Zauważmy, że jeśli e = wartość oczekiwana zmiennej X, to prawdopodobieństwo jej przekroczenia jest mniejsze od 1, jeśli e = 2*wartość oczekiwana, mniejsze od 0,5 itd.
Twierdzenie Markowa:
Dla każdej zmiennej losowej X o wartości oczekiwanej E(X) i dla każdego e>0 oraz p>0:
Dowód:
Nierówność Markowa wynika bezpośrednio z podstawienia w Nierówności Czebyszewa |X|^p zamiast X oraz e^p zamiast e.
Jest tak ponieważ |X|^p > e^p <=> X > e.
Gdy więc za p podstawimy 2, dostaniemy relację pomiędzy odchyleniem przeciętnym a wariancją. Czy jednak czemuś to konkretnemu służy? Nie bardzo, znów sztuka dla sztuki. Wystarczyłoby posługiwać się samym odchyleniem przeciętnym (twierdzeniem Czebyszewa) i stwierdzić, że prawdopodobieństwo przekroczenia dwóch odchyleń przeciętnych jest mniejsze niż 0,5, a trzech 0,33.
Ale jeśli chcemy, możemy tego samego podstawienia dokonać dla dowolnego momentu centralnego, a więc też ich pierwiastków. Tak więc prawdopodobieństwo, że odległość kursu od jego średniej kroczącej przekroczy na przykład dwa odchylenia standardowe jest mniejsze niż 0,5, a trzy mniejsze od 0,33. Tym samym dowodzimy, że (niezależnie od rozkładu gęstości prawdopodobieństwa kursu) prawdopodobieństwo, że kurs znajdzie się w zasięgu wstęgi Bollingera przy założeniu stałości średniej kroczącej, jest większe niż 0,5. Z poprzednich rozważań wynika, że prawdopodobieństwo to będzie większe niż w przypadku odchylenia przeciętnego. Nie zmienia to jednak faktu, że podejście oparte na odchyleniu standardowym pozostaje w tym kontekście sztuką dla sztuki.
Czerwony wykres to 20-dniowa wstęga Bollingera, czyli ta sugerowana przez J.J. Murphy'ego. Niebieski wykres to 20-dniowe odchylenie standardowe, a czarny to WIG20. Pierwszy rzut oka może dać przeświadczenie, że wstęga jest wspaniałym miernikiem, bowiem indeks prawie zawsze pozostaje w jej obrębie.
Jest to błędne myślenie. Nieświadomie używamy heurystyk, które często sprowadzają nasze sądy na manowce.
Porównajmy wykres WIG20, wstęgi i odchylenia standardowego. Zauważamy, że gdy tylko indeks zmienia kierunek krótkoterminowego trendu, odchylenie standardowe wzrasta. A ponieważ wzrasta, to cała wstęga rozszerza się. Kurs może iść więc zarówno w górę, jak i w dół, a wstęga go obejmie. Im kurs silniej zmieni kierunek, tym większe prawdopodobieństwo, że nastąpi korekta - zmiana w przeciwną stronę. Ale odchylenie standardowe już szybciej rośnie i wstęga mocniej zwiększa zasięg, co powoduje, że niezależnie od kierunku zwrotu, kurs pozostanie w obrębie wstęgi. Jest to tym bardziej prawdopodobne, gdy wstęga zawiera dwa odchylenia standardowe. Nie ma to jednak wiele wspólnego z rozkładem normalnym, tylko ogólnym rachunkiem prawdopodobieństwa.
Używanie odchylenia standardowego jako miary zmienności samo w sobie zwiększa prawdopodobieństwo, że "ogarniemy" obszar wartości zmiennej. Nie jest to jednak podyktowane teoretyczną podstawą (jeśli rozkład gęstości nie jest normalny), a jedynie matematyczną ekwilibrystyką. Odchylenie to jest przypadkiem tzw. średniej potęgowej, w której wyrazy podnosi się do k-tej potęgi, dzieli przez liczbę wyrazów i z całości wyciąga pierwiastek k-tego rzędu. Oczywiste, że im większe k, tym większa powstanie średnia, a więc większe prawdopodobieństwo objęcia empirycznej zmienności. Stąd wydaje się, że odchylenie standardowe "działa", choć w rzeczywistości można byłoby użyć na przykład czwartej czy szóstej potęgi zamiast drugiej.
Jak duże jest prawdopodobieństwo, że wartość zmiennej trafi w obszar danego momentu centralnego niezależnie od rozkładu gęstości prawdopodobieństwa? Wprowadźmy twierdzenie Czebyszewa i jego szczególny przypadek - twierdzenie Markowa.
Twierdzenie Czebyszewa (Źródło: Wikipedia)
Dla każdej zmiennej losowej, X spełniającej warunek P{X<0}=0, o wartości oczekiwanej E(X), dla każdego e > 0 (e = epsilon) zachodzi:
Jeśli za wartość oczekiwaną indeksu WIG20 przyjmiemy średnią kroczącą = 1900 pkt, to prawdopodobieństwo, że indeks przekroczy na przykład e=2000 pkt jest mniejsze od 1900/2000=0,95.
Zauważmy, że jeśli e = wartość oczekiwana zmiennej X, to prawdopodobieństwo jej przekroczenia jest mniejsze od 1, jeśli e = 2*wartość oczekiwana, mniejsze od 0,5 itd.
Twierdzenie Markowa:
Dla każdej zmiennej losowej X o wartości oczekiwanej E(X) i dla każdego e>0 oraz p>0:
Dowód:
Nierówność Markowa wynika bezpośrednio z podstawienia w Nierówności Czebyszewa |X|^p zamiast X oraz e^p zamiast e.
Jest tak ponieważ |X|^p > e^p <=> X > e.
Gdy więc za p podstawimy 2, dostaniemy relację pomiędzy odchyleniem przeciętnym a wariancją. Czy jednak czemuś to konkretnemu służy? Nie bardzo, znów sztuka dla sztuki. Wystarczyłoby posługiwać się samym odchyleniem przeciętnym (twierdzeniem Czebyszewa) i stwierdzić, że prawdopodobieństwo przekroczenia dwóch odchyleń przeciętnych jest mniejsze niż 0,5, a trzech 0,33.
Ale jeśli chcemy, możemy tego samego podstawienia dokonać dla dowolnego momentu centralnego, a więc też ich pierwiastków. Tak więc prawdopodobieństwo, że odległość kursu od jego średniej kroczącej przekroczy na przykład dwa odchylenia standardowe jest mniejsze niż 0,5, a trzy mniejsze od 0,33. Tym samym dowodzimy, że (niezależnie od rozkładu gęstości prawdopodobieństwa kursu) prawdopodobieństwo, że kurs znajdzie się w zasięgu wstęgi Bollingera przy założeniu stałości średniej kroczącej, jest większe niż 0,5. Z poprzednich rozważań wynika, że prawdopodobieństwo to będzie większe niż w przypadku odchylenia przeciętnego. Nie zmienia to jednak faktu, że podejście oparte na odchyleniu standardowym pozostaje w tym kontekście sztuką dla sztuki.
Labels:
analiza techniczna,
wskaźniki
czwartek, 4 czerwca 2009
Czym jest wstęga Bollingera oraz problem z odchyleniem standardowym
Zgodnie z zapowiedzią omówię znany wskaźnik techniczny, wstęgę Bollingera. Wstęga Bollingera jest związana z odchyleniem standardowym ceny instrumentu finansowego. Jak wiemy odchylenie standardowe uważa się za miernik zmienności zmiennej losowej. Stanowi pierwiastek kwadratowy z wariancji zmiennej losowej.
Wstęga Bollingera składa się z dwóch części: linii górnej, czyli sumy średniej kroczącej (SK(C(t),n), gdzie C(t) to cena w okresie t, n to liczba okresów branych pod uwagę) i odchylenia standardowego ceny waloru oraz linii dolnej, czyli różnicy średniej kroczącej i odchylenia standardowego ceny waloru. Na portalu bossa.pl wzór na wstęgę Bollingera jest następujący:
Dlaczego odchylenie standardowe jest pomnożone przez 2? J.J. Murphy w "Analizie technicznej rynków finansowych" stwierdza, że "przy stosowaniu dwóch odchyleń standardowych 95 procent danych cenowych znajdzie się pomiędzy dwiema wstęgami." Autor jednak tej kwestii nie rozszerza. W rzeczywistości będzie to prawda tylko w sytuacji, gdy rozkład gęstości prawdopodobieństwa zmiennej losowej będzie rozkładem normalnym. Wówczas około 68% wartości zmiennej znajduje się w odległości jednego odchylenia standardowego od średniej, około 95,5% w odległości dwóch odchyleń standardowych i około 99,7% w odległości trzech (reguła trzech sigm). (Patrz wikipedia http://pl.wikipedia.org/wiki/Rozk%C5%82ad_normalny). Zauważmy więc, że jeśli średnia krocząca ma mieć rozkład normalny, to "już bardziej losowa" być nie może. Trochę to zaprzecza idei analizy technicznej o tym, że ceny - a więc i ich średnie - nie zachowują się losowo.
Poza tym zakłada się, że w pewnym przedziale czasowym średnia krocząca kursu jako wartość oczekiwana jest stała. W rzeczywistości wiemy, że parametry rozkładu kursów zmieniają się, czyli same są zmiennymi. Idea odchylenia standardowego wydaje się więc tu sztuczna, bo ono nie istnieje jako wartość. Na tym rzecz polega, że średnia krocząca kroczy, nie może więc być stała. Po prostu sztucznie zakłada się pewien okres względnej stałości parametrów rozkładu. Murphy stwierdza, że najczęściej używa się 20-dniowej średniej. Myślę, że 20 dni to może być trochę za dużo. I faktycznie, gdy się przyjrzymy wykresom kursów i indeksów zobaczymy, że przy n=20 dla wstęgi kurs często przekracza jej wartość, choć zaraz wraca w jej obręb - jest to jednak efekt dopasowania się wstęgi do kursu.
Ogólniejszą wątpliwość stanowi używanie narzędzia, jakim jest odchylenie standardowe. W statystyce wprowadza się jego definicję bez żadnego uzasadnienia, choć jego wzór nie jest banalny. Bardziej intuicyjnym jest przecież odchylenie przeciętne, które bezpośrednio ukazuje odchylenie od średniej raz w jedną, raz w drugą stronę.
Wydaje się, że teoretyczne uzasadnienie odchylenia standardowego jest dwojakie:
1. wykorzystuje się je w metodzie najmniejszych kwadratów oraz innych zadaniach optymalizacyjnych (wariancja daje się łatwo różniczkować);
2. postać funkcji gęstości rozkładu normalnego zawiera parametr odchylenia standardowego.
Jednak ani kurs akcji, ani jego stopa zwrotu nie podlega rozkładowi normalnemu. Kurs obiera często kierunek dół lub góra i wówczas na długo nie powraca do poprzednich poziomów. Wartość oczekiwana i wariancja są zmienne w czasie (niestacjonarne) i są jedynie funkcjami czasu. Okazuje się również, że podobna sytuacja występuje dla samych stóp zwrotu. Choć rozkłady stóp zwrotu przypominają już bardziej rozkład normalny, to nadal pojawiają się tzw. grube ogony - często występują wartości, które dla rozkładu normalnego są bardzo mało prawdopodobne. Opieranie się na Centralnych Twierdzeniach Granicznych (np. Lindenberga-Levy'ego), które uzasadniają założenie normalności, jest błędne, gdyż twierdzenia te same przyjmują pewne ekonomicznie nierealne założenia, np. stałość rozkładów prawdopodobieństwa zmiennych w próbie losowej.
Istnieje oczywiście ścisła zależność pomiędzy dowolnymi funkcjami gęstości prawdopodobieństwa a momentami zmiennej losowej (drugi moment centralny to wariancja). Elementem łączącym jest funkcja charakterystyczna zmiennej losowej. Funkcja charakterystyczna zmiennej losowej X jest to wartość oczekiwana funkcji exp(itX), gdzie i - jednostka urojona, t - zmienna rzeczywista. Można zatem ją zapisać jako:
A stąd dla rozkładu ciągłego zachodzi:
gdzie f(x) to funkcja gęstości prawdopodobieństwa.
Łatwo zauważyć, że pierwsza pochodna funkcji charakterystycznej musi dać po prostu i*[całka z (x*exp(itx)*funkcja gęstości)]. Po podstawieniu t=0 i podzieleniu tego wyrażenia przez i, dostaniemy pierwszy moment zwykły, czyli wartość oczekiwaną E(X).
Druga pochodna wynosi
i^2*[całka z (x^2*exp(itx)*funkcja gęstości)]. Znów podstawiając t=0 i dzieląc tym razem całe wyrażenie przez i^2, dostaniemy drugi moment zwykły, E(X^2).
W sumie zauważamy, że zachodzi wzór:
Tylko że nawet takie matematyczne wygibasy nie dają bezpośredniego wzoru na odchylenie standardowe. Należy dopiero wykorzystać wzór na wariancję V(X)=E(X^2)-[E(X)]^2, co wymaga tylko podstawienia, gdyż wcześniej obliczyliśmy pierwszy i drugi moment zwykły. W ten sposób dowodzi się, że parametr zawarty we wzorze funkcji gęstości rozkładu normalnego świadczący o odchyleniu zmiennej X od wartości oczekiwanej jest równy właśnie odchyleniu standardowemu.
Ewentualną sztuczką jest od początku poszukiwanie V(Y), gdzie Y=X-E(X). Jeśli E(X)=0, to V(Y)=V(X). I oczywiście na koniec wyciągamy pierwiastek kwadratowy z wariancji.
Nie ma w tych zależnościach niczego nadzwyczajnego. Po prostu funkcja exp jest interesująca w tym sensie, że pochodna z niej lub całka zawsze daje znowu ją samą. Niewielka zmiana jej argumentu prowadzi do zmiany wartości exp i ta zmiana jest znów opisana funkcją exp. Wtedy różniczkowana exp mająca stałą w wykładniku będzie dawać coraz "większe" pochodne. I robi się ten x, potem x^2 itd. Żeby to wszystko działało trzeba dodatkowo usunąć samą f. exp podstawiając 0 za t i jeszcze całość podzielić przez i^k (a więc pozbyć się liczb urojonych) oraz wyciągnąć pierwiastek k-tego rzędu. Mam więc wrażenie, że momenty zmiennej losowej powstają z tych zależności trochę przypadkowo.
Wniosek jest więc taki, że wstęga Bollingera to sztuka dla sztuki i lepiej się nią nie sugerować zbyt poważnie (czyli że kurs pozostanie we wstędze lub że wybicie ze wstęgi świadczy o nowym trendzie - takie są bowiem interpretacje tego wskaźnika). Wynika to przede wszystkim z faktu braku normalności rozkładu stóp zwrotu, a tym bardziej kursów akcji.
------------------------------------------------------------------------------------
P.S. Na marginesie dodam, że wariancja jest powszechnie uznawana za analogon momentu bezwładności używanego w fizyce. (Stąd właśnie nazwa moment). Jego wzór dla punktu materialnego wyraża się I = m*r^2, gdzie m - masa punktu, a r - odległość punktu od środka układu (ciężkości). Gdy zsumujemy wszystkie I, dostaniemy moment bezwładności całego ciała (zbioru punktów). To właśnie przypomina wariancję. Problem polega na tym, że statystyka jest nauką "statyczną", nie możemy w niej traktować zdarzeń w postaci punktów materialnych poruszających się z pewną prędkością. A właśnie moment bezwładności ciała tego wymaga. Choć, gdy tylko zamienimy pojęcie masy ciała na prawdopodobieństwo zdarzenia wzór na moment bezwładności jest identyczny jak wzór na wariancję, to gdy głębiej wejrzymy, skąd bierze się moment bezwładności, uznamy, że obie miary nie są izomorficzne. Moment bezwładności wynika bowiem z istnienia energii kinetycznej ciała. Energia kinetyczna to iloczyn masy i kwadratu prędkości ciała podzielony przez 2. Jeśli ciało porusza się ruchem obrotowym, to jego prędkość można przedstawić jako iloczyn jego prędkości kątowej i promienia wodzącego po torze ruchu. Podwójne różniczkowanie po prędkości kątowej doprowadzi do wzoru na moment bezwładności (widać od razu skąd bierze się kwadrat promienia). Ponieważ różniczka to bardzo mała zmiana, to właśnie dostajemy bardzo małą zmianę prędkości, tak że w sumie jest to moment (ponieważ prędkość^2=droga^2/czas^2, to gdy podwójnie zróżniczkujemy po prędkości kątowej, droga i czas zupełnie znikną ze wzoru).
Oto moje wyjaśnienie genezy tego słowa. Teraz widać więc, że nazwa moment w statystyce jest nieadekwatna, gdyż wariancja nie wiąże się z prędkością. Pomijam, że w statystyce wprowadza się momenty różnych rzędów, a w fizyce jakoś funkcjonuje jedynie moment bezwładności. I jakoś statystycy się nad tym nie zastanawiają.
Wstęga Bollingera składa się z dwóch części: linii górnej, czyli sumy średniej kroczącej (SK(C(t),n), gdzie C(t) to cena w okresie t, n to liczba okresów branych pod uwagę) i odchylenia standardowego ceny waloru oraz linii dolnej, czyli różnicy średniej kroczącej i odchylenia standardowego ceny waloru. Na portalu bossa.pl wzór na wstęgę Bollingera jest następujący:
Dlaczego odchylenie standardowe jest pomnożone przez 2? J.J. Murphy w "Analizie technicznej rynków finansowych" stwierdza, że "przy stosowaniu dwóch odchyleń standardowych 95 procent danych cenowych znajdzie się pomiędzy dwiema wstęgami." Autor jednak tej kwestii nie rozszerza. W rzeczywistości będzie to prawda tylko w sytuacji, gdy rozkład gęstości prawdopodobieństwa zmiennej losowej będzie rozkładem normalnym. Wówczas około 68% wartości zmiennej znajduje się w odległości jednego odchylenia standardowego od średniej, około 95,5% w odległości dwóch odchyleń standardowych i około 99,7% w odległości trzech (reguła trzech sigm). (Patrz wikipedia http://pl.wikipedia.org/wiki/Rozk%C5%82ad_normalny). Zauważmy więc, że jeśli średnia krocząca ma mieć rozkład normalny, to "już bardziej losowa" być nie może. Trochę to zaprzecza idei analizy technicznej o tym, że ceny - a więc i ich średnie - nie zachowują się losowo.
Poza tym zakłada się, że w pewnym przedziale czasowym średnia krocząca kursu jako wartość oczekiwana jest stała. W rzeczywistości wiemy, że parametry rozkładu kursów zmieniają się, czyli same są zmiennymi. Idea odchylenia standardowego wydaje się więc tu sztuczna, bo ono nie istnieje jako wartość. Na tym rzecz polega, że średnia krocząca kroczy, nie może więc być stała. Po prostu sztucznie zakłada się pewien okres względnej stałości parametrów rozkładu. Murphy stwierdza, że najczęściej używa się 20-dniowej średniej. Myślę, że 20 dni to może być trochę za dużo. I faktycznie, gdy się przyjrzymy wykresom kursów i indeksów zobaczymy, że przy n=20 dla wstęgi kurs często przekracza jej wartość, choć zaraz wraca w jej obręb - jest to jednak efekt dopasowania się wstęgi do kursu.
Ogólniejszą wątpliwość stanowi używanie narzędzia, jakim jest odchylenie standardowe. W statystyce wprowadza się jego definicję bez żadnego uzasadnienia, choć jego wzór nie jest banalny. Bardziej intuicyjnym jest przecież odchylenie przeciętne, które bezpośrednio ukazuje odchylenie od średniej raz w jedną, raz w drugą stronę.
Wydaje się, że teoretyczne uzasadnienie odchylenia standardowego jest dwojakie:
1. wykorzystuje się je w metodzie najmniejszych kwadratów oraz innych zadaniach optymalizacyjnych (wariancja daje się łatwo różniczkować);
2. postać funkcji gęstości rozkładu normalnego zawiera parametr odchylenia standardowego.
Jednak ani kurs akcji, ani jego stopa zwrotu nie podlega rozkładowi normalnemu. Kurs obiera często kierunek dół lub góra i wówczas na długo nie powraca do poprzednich poziomów. Wartość oczekiwana i wariancja są zmienne w czasie (niestacjonarne) i są jedynie funkcjami czasu. Okazuje się również, że podobna sytuacja występuje dla samych stóp zwrotu. Choć rozkłady stóp zwrotu przypominają już bardziej rozkład normalny, to nadal pojawiają się tzw. grube ogony - często występują wartości, które dla rozkładu normalnego są bardzo mało prawdopodobne. Opieranie się na Centralnych Twierdzeniach Granicznych (np. Lindenberga-Levy'ego), które uzasadniają założenie normalności, jest błędne, gdyż twierdzenia te same przyjmują pewne ekonomicznie nierealne założenia, np. stałość rozkładów prawdopodobieństwa zmiennych w próbie losowej.
Istnieje oczywiście ścisła zależność pomiędzy dowolnymi funkcjami gęstości prawdopodobieństwa a momentami zmiennej losowej (drugi moment centralny to wariancja). Elementem łączącym jest funkcja charakterystyczna zmiennej losowej. Funkcja charakterystyczna zmiennej losowej X jest to wartość oczekiwana funkcji exp(itX), gdzie i - jednostka urojona, t - zmienna rzeczywista. Można zatem ją zapisać jako:
A stąd dla rozkładu ciągłego zachodzi:
gdzie f(x) to funkcja gęstości prawdopodobieństwa.
Łatwo zauważyć, że pierwsza pochodna funkcji charakterystycznej musi dać po prostu i*[całka z (x*exp(itx)*funkcja gęstości)]. Po podstawieniu t=0 i podzieleniu tego wyrażenia przez i, dostaniemy pierwszy moment zwykły, czyli wartość oczekiwaną E(X).
Druga pochodna wynosi
i^2*[całka z (x^2*exp(itx)*funkcja gęstości)]. Znów podstawiając t=0 i dzieląc tym razem całe wyrażenie przez i^2, dostaniemy drugi moment zwykły, E(X^2).
W sumie zauważamy, że zachodzi wzór:
Tylko że nawet takie matematyczne wygibasy nie dają bezpośredniego wzoru na odchylenie standardowe. Należy dopiero wykorzystać wzór na wariancję V(X)=E(X^2)-[E(X)]^2, co wymaga tylko podstawienia, gdyż wcześniej obliczyliśmy pierwszy i drugi moment zwykły. W ten sposób dowodzi się, że parametr zawarty we wzorze funkcji gęstości rozkładu normalnego świadczący o odchyleniu zmiennej X od wartości oczekiwanej jest równy właśnie odchyleniu standardowemu.
Ewentualną sztuczką jest od początku poszukiwanie V(Y), gdzie Y=X-E(X). Jeśli E(X)=0, to V(Y)=V(X). I oczywiście na koniec wyciągamy pierwiastek kwadratowy z wariancji.
Nie ma w tych zależnościach niczego nadzwyczajnego. Po prostu funkcja exp jest interesująca w tym sensie, że pochodna z niej lub całka zawsze daje znowu ją samą. Niewielka zmiana jej argumentu prowadzi do zmiany wartości exp i ta zmiana jest znów opisana funkcją exp. Wtedy różniczkowana exp mająca stałą w wykładniku będzie dawać coraz "większe" pochodne. I robi się ten x, potem x^2 itd. Żeby to wszystko działało trzeba dodatkowo usunąć samą f. exp podstawiając 0 za t i jeszcze całość podzielić przez i^k (a więc pozbyć się liczb urojonych) oraz wyciągnąć pierwiastek k-tego rzędu. Mam więc wrażenie, że momenty zmiennej losowej powstają z tych zależności trochę przypadkowo.
Wniosek jest więc taki, że wstęga Bollingera to sztuka dla sztuki i lepiej się nią nie sugerować zbyt poważnie (czyli że kurs pozostanie we wstędze lub że wybicie ze wstęgi świadczy o nowym trendzie - takie są bowiem interpretacje tego wskaźnika). Wynika to przede wszystkim z faktu braku normalności rozkładu stóp zwrotu, a tym bardziej kursów akcji.
------------------------------------------------------------------------------------
P.S. Na marginesie dodam, że wariancja jest powszechnie uznawana za analogon momentu bezwładności używanego w fizyce. (Stąd właśnie nazwa moment). Jego wzór dla punktu materialnego wyraża się I = m*r^2, gdzie m - masa punktu, a r - odległość punktu od środka układu (ciężkości). Gdy zsumujemy wszystkie I, dostaniemy moment bezwładności całego ciała (zbioru punktów). To właśnie przypomina wariancję. Problem polega na tym, że statystyka jest nauką "statyczną", nie możemy w niej traktować zdarzeń w postaci punktów materialnych poruszających się z pewną prędkością. A właśnie moment bezwładności ciała tego wymaga. Choć, gdy tylko zamienimy pojęcie masy ciała na prawdopodobieństwo zdarzenia wzór na moment bezwładności jest identyczny jak wzór na wariancję, to gdy głębiej wejrzymy, skąd bierze się moment bezwładności, uznamy, że obie miary nie są izomorficzne. Moment bezwładności wynika bowiem z istnienia energii kinetycznej ciała. Energia kinetyczna to iloczyn masy i kwadratu prędkości ciała podzielony przez 2. Jeśli ciało porusza się ruchem obrotowym, to jego prędkość można przedstawić jako iloczyn jego prędkości kątowej i promienia wodzącego po torze ruchu. Podwójne różniczkowanie po prędkości kątowej doprowadzi do wzoru na moment bezwładności (widać od razu skąd bierze się kwadrat promienia). Ponieważ różniczka to bardzo mała zmiana, to właśnie dostajemy bardzo małą zmianę prędkości, tak że w sumie jest to moment (ponieważ prędkość^2=droga^2/czas^2, to gdy podwójnie zróżniczkujemy po prędkości kątowej, droga i czas zupełnie znikną ze wzoru).
Oto moje wyjaśnienie genezy tego słowa. Teraz widać więc, że nazwa moment w statystyce jest nieadekwatna, gdyż wariancja nie wiąże się z prędkością. Pomijam, że w statystyce wprowadza się momenty różnych rzędów, a w fizyce jakoś funkcjonuje jedynie moment bezwładności. I jakoś statystycy się nad tym nie zastanawiają.
Labels:
analiza techniczna,
wskaźniki
Subskrybuj:
Posty (Atom)