Znawcy analizy technicznej z powątpiewaniem czytają próby odpowiedzi na takie pytania. Jest to zrozumiałe, ponieważ AT stanowi tak rozległe narzędzie, że nie sposób odpowiedzieć na nie jednoznacznie. Można natomiast jednoznacznie odpowiedzieć czy sprawdzają się określone metody AT. W internecie znajdujemy artykuł z 2002 r. o buńczucznym tytule:
Does Technical Analysis Work?
Autorzy A. Yeung, M. T. Pankaj, N. Patel i S. S. Kim sprawdzają skuteczność wybranych metod, takich jak Bollinger Band (w oparciu o 20-dniową średnią kroczącą), Commodity Channel, Fibonnacci Retracement (Fibonacci Raw Score, Fibonacci Range Score), MACD, 5 Day Money Flow, 9 Day RSI, 14 Days Stochastics. Należy zwrócić uwagę na ograniczenia przestrzenne oraz czasowe badań. Badania objęły jedynie indeks S&P 500 w latach 1990-2002. Po uwzględnieniu kosztów transakcyjnych otrzymano wniosek, iż żadna z powyższych metod nie przyniosła ponadprzeciętnych zysków, za wyjątkiem wstęgi Bollingera. Przedstawiono rysunek:
Akurat wstęgę Bollingera darzę największym sceptycyzmem, o czym już kiedyś napomknąłem (Wstęga Bollingera - ujęcie praktyczne).
Tytuł posta jest oczywiście mało sensowny. Spotkałem już różne artykuły, w których konkludują, że niektóre narzędzia analizy technicznej, jak np. przecięcie się szybkiej i wolnej średniej kroczącej daje w niektórych sytuacjach możliwości zarabiania ponad przeciętną.
---------------------------------------------------------------------------
A co z tymi wsparciami i oporami, które atakowałem nazywając "złudzeniem"? Powiem tak, ciężko jest obiektywnie je sprawdzić. Są różnego rodzaju ograniczenia, jak np. jak szerokie okno w miejscach pojawienia się wsparcia/oporu zastosować? W swoich badaniach starałem się zachować okolice 3-4%. Jeśli kurs przebił ten poziom uznawałem, że wsparcie/opór pękł. Można wprowadzać wiele filtrów. Zgodnie z zasadą najważniejsze są trzy pierwsze punkty odbicia trendu - po nich trend może się prędzej załamać. Jeśli więc po dwóch wsparciach/oporach następuje trzecie odbicie na linii trendu, dopiero możemy mówić o tym, że linia trendu się zrealizowała. Należy więc zbadać czy w trzecim punkcie następuje odbicie, które jest istotą linii trendu. Stosowałem także metodę wachlarza. Przykład dla WIG:
Wynik dla WIG (od 1994) okazał się bardzo marniutki. Szukałem linii trendu co najmniej 2-miesięcznych. Zadawałem 4 pytania:
1. Czy odbija od wsparcia (linii trendu rosnącego)?
2. Czy jeśli przecina wsparcie, to przez jakiś czas (zakładałem przynajmniej ok. tydzień) podąża w tym kierunku?
3. Czy odbija od oporu (linii trendu spadkowego)?
4. Czy jeśli przecina opór, to przez jakiś czas (zakładałem przynajmniej ok. tydzień) podąża w tym kierunku?
Częstości dostałem następujące:
Ad 1) 0,5
Ad 2) 0,567
Ad 3) 0,32
Ad 4) 0,59
Istotność statystyczną wyliczałem w oparciu o schemat Bernoulliego. Dla WIG otrzymano brak istotności.
To badanie powtarzałem dla różnych dużych spółek,
Bank Polska Kasa Opieki:
Ad 1) 0,476
Ad 2) 0,667
Ad 3) 0,545
Ad 4) 0,636.
Bank Handlowy w Warszawie:
Ad 1) 0,32
Ad 2) 0,61
Ad 3) 0,35
Ad 4) 0,74
BRE Bank (od 1994):
Ad 1) 0,588 (20/34)
Ad 2) 0,667 (22/33)
Ad 3) 0,364 (12/33)
Ad 4) 0,53 (17/32)
KGHM:
Ad 1) 0,62
Ad 2) 0,70*
Ad 3) 0,42
Ad 4) 0,71*
Getin Holding:
Ad 1) 0,4 (6/15)
Ad 2) 0,6 (9/15)
Ad 3) 0,43 (6/14)
Ad 4) 0,57. (8/14)
Budimex:
Ad 1) 0,58
Ad 2) 0,667
Ad 3) 0,25
Ad 4) 0,583.
Spośród nich jedynie KGHM charakteryzował się niektórymi istotnymi prawdopodobieństwami empirycznymi. Zaznaczone gwiazdką to te istotne.
Należy jednak zwrócić uwagę, że próba dla KGHM objęła zaledwie ok. 30 obserwacji, podobnie dla WIG, a w przypadku wielu innych sporo mniej. Np. dla BHW brak istotności w p. 4 może wynikać z zaledwie 25 obserwacji. Wydaje się, że należy uznać częstość 74% za istotną. Być może przy większej próbce pojawiłaby się istotność, także dla samych "odbić", chociaż w to wątpię. Wsparcia i opory nie mogą raczej służyć do określenia czy w tych miejscach nastąpi odbicie - to czysty przypadek, a więc są w pewnym sensie złudzeniem. Jednakże jeśli nastąpi już to przebicie, to faktycznie sensowne jest zagrać pod zmianę trendu, choćby krótkoterminowego. Generalnie należy jeszcze przebadać mniejsze spółki.
Właśnie sprawdziłem Paged. Kurs spółki jest dość charakterystyczny, bo ma tendencje do spadania (czy też wyniki fin. spółki mają takie tendencje), a czasami potrafi potężnie wybić w górę:
Jak można się domyślić, danych dla pkt-ów 1 i 2 było bardzo mało (zaledwie 9) i częstości nie są istotne statystycznie, natomiast dla pkt-ów 3 i 4 otrzymano 18 danych, czyli też niewiele. Otrzymano następujące częstości:
Ad 1) 55,55% (5/9)
Ad 2) 66,67% (6/9)
Ad 3) 66,67% (12/18)
Ad 4) 72,2% (13/18)
Na oko (na podstawie wykresu) może się wydawać, że skuteczność przebicia linii trendu spadkowego jest spora. Ale pamiętajmy, że założenie dotyczyło poruszania się w kierunku odwrotnym do trendu przynajmniej przez tydzień ( min. 6 dni, nawet 5 jeśli były to spore ruchy) po przebiciu. Ponadto należy wziąć poprawkę na filtr 3-4% wokół linii trendu. A kurs nawet jeśli na chwilę wyszedł ponad linię, to zaraz powracał do niej i czasami dopiero potem znowu odbijał (od tej linii), co sprawia wrażenie, że technika działała. Ale nie było wiadomo, czy rzeczywiście trend się odwrócił. Dobrze widać taką zmyłę w październiku 2010, gdy kurs wybił z trendu spadkowego i wydawałoby się, że pójdzie dalej w górę, ale zatrzymanie wtedy akcji zakończyłoby się bardzo źle.
Drugą małą spółką jaką sprawdziłem jest Lubawa (od 1997 do środka 2011). Jest to typowa spółka mała, gdyż długo i mocno rośnie oraz długo i mocno spada:
Możliwe, że z powodu takich "przedłużonych" ruchów spółek małych, obserwacji jest bardzo mało. W tym przypadku dla każdego z 4-ch punktów poniżej 14. Nie ma sensu mówić oczywiście o istotności stat. Można jedynie przyjrzeć się samym częstościom:
Ad 1) 38,5% (5/13)
Ad 2) 69,2% (9/13)
Ad 3) 50% (6/12)
Ad 4) 40% (4/10)
Trzecią, tym razem średnią spółką, była Dębica (od 1994 do końca 2011):
Wyniki okazują się całkowicie "technicznie" rozczarowujące:
Ad 1) 27,3% (3/11)
Ad 2) 27,3% (3/11)
Ad 3) 31,25% (5/16)
Ad 4) 31,25% (5/16)
Ostatnią spółką jest MNI:
Ad 1) 33,33% (5/15)
Ad 2) 66,66% (10/15)
Ad 3) 43% (6/14)
Ad 4) 50% (7/14)
Zanim podsumuję analizę wsparć i oporów, przypomnę wpis Wsparcia i opory - kolejne złudzenie techników, w którym krytykowałem techników za wprowadzanie złudnych "wsparć" i "oporów" czy raczej linii trendu, stanowiących zwykłe złudzenie.
W istocie wydaje się, że linie trendu nie istnieją (przy założeniu, że trend powinien się utrzymywać co najmniej 2 miesiące) w tym sensie, że zrealizowanie się trzeciego punktu linii trendu jest czysto przypadkowe. Jednakże czym innym jest już przebicie tych obszarów - prawdopodobieństwo zmiany kierunku przynajmniej przez tydzień czasu po tym zdarzeniu jest stosunkowo wysokie (często ponad 55%). Niemniej jak na razie znalazłem tylko jedną spółkę - KGHM - której przebicia są istotne statystycznie. Jedna spółka na GPW to zdecydowanie za mało, by uznać takie narzędzie za obiektywnie opłacalne, choć należy pamiętać, że liczebność próbek w badaniu była bardzo ograniczona.
wtorek, 4 października 2011
Subskrybuj:
Komentarze do posta (Atom)
Słów kilka w temacie - analiza techniczna wielką manipulacją:
OdpowiedzUsuńhttp://na-plus.blogspot.com/2011/06/analiza-techniczna-wielka-manipulacja.html
Czesc,
OdpowiedzUsuńtroche sie dziwie ze BB (uzyty anty-trendowo) dal tak dobre wyniki, oczywiscie zakladam ze testy byly dobrze zrobione.. jak zauwazyles odpowiedzia moze byc krotki okres, najwartosciowsze z pedefa "Reference" ;)
co do testow lini trendu, ciezko to zakodowac wiec badajac prawdopodobnie oceniasz wizualnie zachowanie cen.. oczywiscie jest to uciazliwe i niestety mniej wiarygodne niz test przy uzyciu kodu ;)
"Słów kilka w temacie - analiza techniczna wielką manipulacją:
OdpowiedzUsuńhttp://na-plus.blogspot.com/2011/06/analiza-techniczna-wielka-manipulacja.html "
Z tekstu wynika coś przewrotnego - nie jest manipulacją, bo działa. Co za różnica kto co kreuje, skoro można skutecznie to wykorzystywać? Już pisałem kiedyś w rozmowie tutaj na blogu, że AT może być jak najbardziej skuteczna jako narzędzie do zmniejszenia ryzyka. Skoro w danym momencie wychodzę z rynku, bo dostaję sygnał sprzedaży, to naturalnie spada ryzyko - nie mam przez jakiś czas ryzykownego aktywa w portfelu. Nie znaczy to jednak, że zwiększam zysk. Z mojego badania (właściwie pseudobadania) wynika, że np. odbicia są wszędzie przypadkowe, ale tylko przy danych założeniach: ukształtowania trendu min. 2 m-ce, żadnych filtrów, wskaźników itp. Nie analizowałem bardzo krótkich przedziałów czasu, np. do 2 tygodni. Liczba obserwacji (linii trendu) też nie była zbyt duża (ok. 30). Dlatego też od samego początku informuję, że to raczej tylko badanko, które dla AT-owców nie musi mieć znaczenia.
Jedno zdanie w Twoim blogu jest przesadzone: "Analiza techniczna działa i z tym nie ma co dyskutować." Jak widać jest z czym dyskutować.
@Darkh, Witam
OdpowiedzUsuńZwrócę tylko uwagę, że nie uwzględniłem w żaden sposób kosztów transakcyjnych, ani samej możliwości "ponadprzeciętnego zarabiania". Przeciętne zarabianie na KGHM to ok. 23-28% (z dywidendą), bo uwzlgędnia duże ryzyko inwestycji. Spory przedział. Czy przeciętny trader więcej przeciętnie zarabia na rok? Jedynie tak naprawdę co, to pokazałem, że empiryczne prawdopodobieństwo kontynuacji kierunku po przebiciu wynosi ok. 0,7 - ale wcale nie wiadomo kiedy należy wtedy wejść czy wyjść. Stwierdziłem, że po ok. tygodnia jest to min. okres. Nie anlizowałem sytuacji typu: kupuję, gdy następuje jakiekolwiek przebicie oporu i sprzedaję, gdy następuje jakiekolwiek przebicie wsparcia - to bardzo męczące tak sprawdzać. (Przypominam, że wsparcia i opory badałem tylko dla dłuższych trendów, tj. min. 2 miesiące). Czyli równie dobrze po tym tygodniu ruch mógł zawrócić w drugą stronę (wtedy z zysków nici), jak i kontynuować dalej trend. Zakładając to drugie, inwestor który uzyskał ponadprzeciętne wyniki na chwilę (tj. przy niskim ryzyku w stos. do oczekiwanego zysku), w dalszym etapie już je traci. Może być tak, że ten kto siedzi ciągle na akcjach (buy&hold) zarobi więcej w dłuższym czasie niż trader wykorzystujący AT. Aby stwierdzić, czy metoda przynosi ponadprzeciętne zyski, należałoby zbadać stopę zwrotu z inwestycji po ucięciu kosztów trans. i porównać z buy&hold.
"co do testow lini trendu, ciezko to zakodowac wiec badajac prawdopodobnie oceniasz wizualnie zachowanie cen.. oczywiscie jest to uciazliwe i niestety mniej wiarygodne niz test przy uzyciu kodu ;) "
Dlatego nie sugerowałbym się tym badaniem zbytnio, co najwyżej zachęcam do samodzielnej oceny. Nawet nieco wieksza liczba obserwacji może zmienić wyniki. Doza subiektywizmu spada, jeśli kilka osób ocenia ten sam wykres i porównuje wyniki lub jedna osoba ocenia ten sam wykres powtórnie po jakimś czasie.
Tak to zrozumiale ze analizowales zachowanie ceny w zetknieciu z linia trendu bez kosztow i poslizgow, nie deprecjonuje tez w zadnym momencie twoich poszukiwan, po prostu zeby w cos uwierzyc musze to sprawdzic, a poniewaz nie potrafie, w rozsadny sposob zakodowac badania ktore przeprowadziles.. traktuje wiec twoj wpis, jak i sama linie trendu wylacznie jako ciekawostke, dodatkowy slaczek na wykresie ;)
OdpowiedzUsuńWrocmy jednak na chwile do KGHM, jesli twoje badania sa prawidlowe to jak rozumiem miecka powinna zachowywac sie bardziej "trendowo" od pozostalych zbadanych spolek.. wiec na zdrowy rozsadek rowniez stopy zwrotu z systemow trendowych(chocby srednie czy jakies linie regresji) powinny byc lepsze niz na pozostalych walorach (a to mozna juz latwo sprawdzic)
poniewazn "na-plus" prosi sie o koment:
zdanie "analiza techniczna dziala" to klamstwo
AT to nie wytrych ( Graal tez nie), to tylko narzedzie ktorym sie poslugujesz i od ciebie zalezy jak go uzyjesz, co zreszta sam napisales "Wsparcia, opory, zniesienia, formacje - to jest świat, który mnie fascynuje.." - wszystkie techniki ktore opisales to nie sa obiektywne narzedzia i nie beda dzialaly w kazdych rekach !!! a skoro tak, to znaczy ze AT dziala warunkowo, wiec jak dla mnie nie dziala ;]
"Wrocmy jednak na chwile do KGHM, jesli twoje badania sa prawidlowe to jak rozumiem miecka powinna zachowywac sie bardziej "trendowo" od pozostalych zbadanych spolek.. wiec na zdrowy rozsadek rowniez stopy zwrotu z systemow trendowych(chocby srednie czy jakies linie regresji) powinny byc lepsze niz na pozostalych walorach (a to mozna juz latwo sprawdzic)"
OdpowiedzUsuńAle co to znaczy bardziej trendowo? To co jedynie "dowiodłem" (subiektywnie), to to, że KGHM po przecięciu linii trendu zmienia przez jakiś czas kierunek. Przyjąłem min. tydzień. Po tygodniu mógł wrócić do pierwotnego trendu. Musiałem przyjąć jakiś minimalny okres zmiany kierunku. AR(1) dla KGH od 1998 jest lekko dodatni (dla GARCH) i wynosi ok. 0,05 - istotny stat. Ale to nie jest żaden dowód, bo dla WIG od 1994 AR(1) = 0,13, więc można byłoby powiedzieć, że WIG zachowuje się bardziej trendowo. Jednak stała stopa zwrotu dla modelu AR(1)-GARCH(1) stopy zwrotu KGH = ok. 0,136%, a dla WIG zero, co rekompensuje gorszy AR. AR(2) nie występuje, brak korelacji 2-go i wyższych rzędów dla WIG i KGHM. W sumie najlepiej jeszce sprawdzić dla 2 i 3-dniowych stóp zwrotu. Bo jesli tydzień ma być takim minimum kierunku trendu, to logiczne, że 2-3 dniowe stopy zwrotu powinny to odzwierciedlać w AR. Zaraz sprawdzę.
Tak faktycznie zaznaczyles "gwiazdka" przeciecia (wiec slowo "trendowo" nie na miejscu), ale zaciekawily mnie te wnioski w week wrzuce na backtesty kilka spolek i sprawdze wyniki
OdpowiedzUsuń(jesli podasz maila doprecyzujemy warunki badania i wysle wyniki, o ile prof soft postawie, niedawna przeprowadzke na win7 ;/)
"Bo jesli tydzień ma być takim minimum kierunku trendu, to logiczne, że 2-3 dniowe stopy zwrotu powinny to odzwierciedlać w AR."
OdpowiedzUsuńChyba z logiką na bakier, bo nic nie znalazłem. Żadnych AR-ów w 2d i 3dniowych stopach KGH. Problem jest chyba zbyt złożony dla prostej statystyki, nie występuje nawet długa pamięć i chyba tylko sieci neuronowe albo algorytmy genetyczne mogłyby coś tu znaleźć. Ale ich jeszcze nie umiem używać.
gieldowy.racjonalista@gmail.com - tutaj możesz wysyłać wyniki.
Prawdopodobienstwo, ze przewidze kierunek dnia dla danego rynku wynosi 50%, tak?
OdpowiedzUsuńMam system, ktory w calym tescie dla wszystkich rynkow osiagnal 79920 dni zyskownych i 73185 dni stratnych. Po podstawieniu danych do proby Bernoulliego wychodzi prawdopodobienstwo 9*10^-68
Jak to rozumiec?
Poczytaj najpierw tutaj:
OdpowiedzUsuńhttp://pl.wikipedia.org/wiki/P-warto%C5%9B%C4%87
Nie używa się samego schematu Bernoulliego, bo im większa próba N, tym mniejsza szansa, że zdarzy się dokładnie k sukcesów. Należy zastosować sumę schematów Bernoulliego, dla k, k+1, k+2,..., n sukcesów. Wtedy można będzie uzyskać p-wartość. Dla KGHM w przypadku (2), tj. przebicia wsparcia było to tak:
k = 19
n = 27
k/n = 0,7 -> to co zapisane
Stosując odpowiednio sumę schematów B. (każdy schemat od 19 do 27 sukcesów) dostaję p-wartość = 0.026. Poziom istotności ustalamy na poziomie 0,05. ponieważ 0.026 < 0.05, to znaczy, że próba nie jest losowa (czy raczej odrzucamy hipotezę o losowości).
W przypadku (1), tj. odbicia od wsparcia dostałem k = 18 przy n = 29. k/n = 0,62. Wydaje się dużo i wystarczająco, ale podstawiając dostaniemy p-wartość = 0,132 > 0,05, czyli jest nieistotny stat.
Być może zrobię następnym razem wpis o tym jak to się dokładnie wylicza.
Jeśli ktoś chce na oko, liczyć, już mówię jak należy podejść. Przy próbie ok. n = 50, potrzeba min. k= 32 sukcesów aby próba była nielosowa, czyli sygnał istotny stat (64%). Jesli n = 100, potrzebujemy k=60 (60%). Przy n =200, k = 113 (56,5%). Przy n=500, zaledwie k=269 (53,8%), a przy n=1000, już tylko k=527 (52,7%).
Jeśli chodzi o Twój system, to jak podstawisz k/n = 52,2%. Czyli to nie jest dużo, ale istotne statyst. Tyle że o kosztach trans. trzeba pamiętać.
OdpowiedzUsuńNo tak, ale u mnie n jest ponad 150 tysiecy. Jakiego wtedy potrzeba k (bo pisales 52.7% przy 1000). Druga sprawa z prowizjami - mozna nie uwzgledniac ale wtedy k sie zwiekszy, wiec to wcale nie jest oszukiwanie.
OdpowiedzUsuńLucky sorry pomyłka... polska wikipedia namieszała. W angielskiej jest poprawnie:
OdpowiedzUsuńhttp://en.wikipedia.org/wiki/P-value
Trzeba przemnożyć tamtą p-wartość przez 2. Pierwsza była jednostronna, a musi być dwustronna. Sprawdziłem zresztą hipotezę o rozkładzie dwumianowym w programie do stat. Daje te same wyniki, tj. gdy pomnożymy przez 2.
Czyli jeszcze raz. Dla KGHM dostaję istotne wyniki przy alfa = 0,05, bo chociaż 0.026*2 = 0,052 > 0,05, to różnica minimalna. Poza tym trzeba pamiętać, że przy mniejszej liczbie obserwacji trzeba trochę zwiekszyć alfa, więc wynik dla KGH jest istotny. Natomiast sytuacja się grubo zmienia dla większych n. To jeszcze raz:
przy próbie ok. n = 50, potrzeba min. k= 33 sukcesów aby próba była nielosowa, czyli sygnał istotny stat (66%). Jesli n = 100, potrzebujemy k=61 (61%). Przy n =200, k = 115 (57,5%). Przy n=500, k=273 (54,6%), a przy n=1000, już tylko k=532 (53,2%).
Dla Twojego systemu, tj. przy n = 153105 minimalny procent to 50,3%. U Ciebie to 52,7%. Masz Graala :)
"Masz Graala" :)
OdpowiedzUsuńTo wcale nie jest taki swietny system, mysle, ze sa lepsze, tylko ten mi bardzo pasuje i dlatego go uzywam. A wymagane k wynika z duzej ilosci przetestowanych danych (ponad 20 rynkow, okolo 40 lat).
To jak to jest z ta analiza techniczna, dziala?
Tak jak mówię, procent skuteczności nie wystarczy, to tylko wstęp do głębszego badania. Rzecz się sprowadza do obliczenia średniej stopy zwrotu po odjęciu kosztów trans. i porównaniu z buy&hold. Co z tego, że skuteczność byłaby > 0,5 skoro np. liczba sygnałów byłaby niska na rok i przeciętna byłaby niewiele wieksza lub nawet równa buy&hold dla danego rynku czy segmentu.
OdpowiedzUsuńPrzy porownywalnym obsunieciu skladana roczna stopa zwrotu jest zdecydowanie wieksza niz buy & hold. To akurat nie problem, takich systemow jest masa. Ale mnie zastanawia jeszcze co innego: jak w obliczeniach istotnosci uwzglednic liczbe regul/parametrow systemu? Bo jesli mam np 4000 transakcji, to co innego jesli sa 4 reguly (wskaznik, filtr, rozmiar sl, ryzyko na transakcje) symetryczne dla short i long, a co innego jesli mamy 4000 regul. Odpowiednio zwiekszajac liczbe regul mozna wychodowac Graala nawet dla danych zupelnie losowych.
OdpowiedzUsuń"Przy porownywalnym obsunieciu skladana roczna stopa zwrotu jest zdecydowanie wieksza niz buy & hold. To akurat nie problem, takich systemow jest masa."
OdpowiedzUsuńTo bardzo mocne sformułowanie "masa". Nie chodzi o buy&hold, lecz o buy&hold dla DANEGO RYNKU LUB SEGMENTU. Na walorze takim jak KGHM stopa zwrotu z buy&hold wynosi > 20% i < 30%. Jeśli grasz na WIG-u, to faktycznie ok. 11%. Ale to jest średniorocznie w dłuższym terminie. Jeśli porównujesz swoje wyniki w danym okresie z wig, to nie bierzesz średniej wig, tylko stopę zwrotu w tym okresie wig.
Napisałeś, że testowałeś na różnych rynkach. Moim zdaniem powinieneś skupić się na mniejszej liczbie obserwacji, tj. jednym rynku bądź jednym segmencie jak wyżej. Wtedy oceń rezultaty. Może się okazać, że skuteczność sygnałów jest powyżej średniej na jakimś jednym walorze, a reszta poniżej.
"Ale mnie zastanawia jeszcze co innego: jak w obliczeniach istotnosci uwzglednic liczbe regul/parametrow systemu? Bo jesli mam np 4000 transakcji, to co innego jesli sa 4 reguly (wskaznik, filtr, rozmiar sl, ryzyko na transakcje) symetryczne dla short i long, a co innego jesli mamy 4000 regul. Odpowiednio zwiekszajac liczbe regul mozna wychodowac Graala nawet dla danych zupelnie losowych."
Tego nie rozumiem. Sygnał pada wtedy, gdy są spełnione określone warunki, czy będzie ich 4 czy 4000 to bez znaczenia. Pada więc sygnał kupna, zawarcie transakcji, następnie pada sygnał sprzedaży, zawarcie transakcji. Stopę zwrotu obliczamy ze wzoru który wyprowadziłem z kosztami transakcji. Logarytmuje się stopę zwrotu. Powtarzamy operację tyle razy ile padnie sygnałów kupna i sprzedaży. Składana stopa zwrotu jest obliczona z sumy logarytmicznych stóp zwrotu. Sumę tę zamieniamy z powrotem na arytmetyczną. (Wzór na nią też już podawałem w komentarzach do jednego z wpisów o sezonowości). I taką porównujemy z otrzymaną z buy&hold (po ucięciu kosztów trans) otrzymaną w danym okresie.
Inną sprawą jest pytanie jak obliczyć istotność stat. takiej stopy zwrotu w por. z buy&hold. Trzeba sprawdzić czy wartość oczekiwana ze strategii aktywnej istotnie różni się od wartości oczekiwanej ze strategii pasywnej. Czyli nie jest to weryfikacja hipotezy o wartości przeciętnej w populacji generalnej tylko weryfikacja hipotezy o równości wartości przeciętnych dwóch próbek. Oczywiście im wiekszy zakres czasowy danych, tym druga hipoteza zbliża się do pierwszej.
"Odpowiednio zwiekszajac liczbe regul mozna wychodowac Graala nawet dla danych zupelnie losowych."
Z losowych reguł dostajesz los, a to, że los może być lepszy od buy&hold to oczywiste, bo to los. Ale nie będzie nigdy lepszy w długim terminie, bo buy&hold to też los, ale nie taki zwykły: wartość oczekiwaną ma dodatnią (CAPM).
Duzo tekstu, sprobuje.
OdpowiedzUsuń"Nie chodzi o buy&hold, lecz o buy&hold dla DANEGO RYNKU LUB SEGMENTU" A moim zdaniem nie. Nie zauwazasz jednej rzeczy - piszac buy&hold zakladasz na poczatku buy a nie sell. Skad wiesz, ze ma wieksze szanse rosnac i dlaczego kupno zakladasz za strategie pasywna? Jak sobie wyobrazasz buy&hold np dla eurusd? Czy dla usdeur tez bedzie buy&hold bedzie strategia pasywna?
"Moim zdaniem powinieneś skupić się na mniejszej liczbie obserwacji" - to jest droga do bankructwa. Rozne rynki maja nieefektywnosci na rozne sposoby, czasami nieefektywnosci sie powtarzaja na roznych rynkach. Jesli znajde system dzialajacy na wielu rynkach to znaczy, ze znalazlem nieefektywnosc wspolna dla tych rynkow a wiec jest szansa, ze nieefektywnosc sie utrzyma i system bedzie zarabial w przyszlosci. Winton gra na ponad 100 rynkach, ja na 23. Mysle, ze powinienem testowac na wiekszej ilosci rynkow.
"Tego nie rozumiem. Sygnał pada wtedy, gdy są spełnione określone warunki, czy będzie ich 4 czy 4000 to bez znaczenia." Ma znaczenie, chodzi o curve fitting. Wygeneruj sobie notowania losowe, tzn reszka dzien w gore, orzel dzien w dol. A pozniej sprobuj stworzyc system co zarabia na takich danych. Im wiecej regul i filtrow dasz w systemie, tym wiecej system "zarobi" na danych historycznych. Oczywiscie taki system nie ma szans zarabiac na przyszlych danych losowych. Teraz tak sobie mysle, ze jedynym wyjsciem jest testowanie out of sample, tzn tworzenie systemu na latach np 1970-1990 a testowanie na 1990-2011. I dopiero wyniki z drugiej proby brac do obliczen istotnosci statystycznej. Problem w tym, ze w ten sposob marnujemy sporo danych, ktore powinny byc uzyte do tworzenia systemu aby lepiej rozpoznac ryzyko.
No ale to jest kwestia nazewnictwa. Mówi się przecież - kupiłem S-ki (kontrakty na spadki),a nie tylko kupiłem L-ki (na wzrosty). Z kolei jeśli mówimy o krótkiej sprzedaży, to też następuje najpierw sprzedaż, potem kupno, ale o jednej rzeczy zapominasz: najpierw pożyczasz papier, aby móc go sprzedać i potem odkupić na rynku. Najpierw nie jest sell, ale borrow. Nie jest to jednak pożyczka nieoprocentowana. A czym jest pożyczka nieoprocentowana? Jest nic innego jak kupno możliwości obracania instrumentem finansowym, tak samo jak kredyt, który służy do inwestycji. Nie mówi się kupujemy kredyt, tylko zaciągam kredyt, ale to różnica jest w nazwie, może w syntaktyce, ale nie w semantyce. Czyli buy&hold jest poprawnym sformułowaniem dla każdego przypadku dopóki za samo pożyczanie instrumentów płacimy.
OdpowiedzUsuń"Ma znaczenie, chodzi o curve fitting. Wygeneruj sobie notowania losowe, tzn reszka dzien w gore, orzel dzien w dol. A pozniej sprobuj stworzyc system co zarabia na takich danych. Im wiecej regul i filtrow dasz w systemie, tym wiecej system "zarobi" na danych historycznych. Oczywiscie taki system nie ma szans zarabiac na przyszlych danych losowych."
No ale przecież właśnie teoria hipotez statystycznych mówi o dwóch rodzajach błędów, które mogą się przydarzyć:
1. odrzucenie hipotezy zerowej (o losowości procesu) pomimo, że jest prawdziwa
2. odrzucenie hipotezy alternatywnej (o nielosowości) pomimo, że jest prawdziwa (czyli jednocześnie przyjęcie hipotezy zerowej)
Pierwszy błąd nazywa się błędem pierwszego rodzaju, drugi błąd - drugiego rodzaju. Prawdopodobieństwo popełnienia błędu 1 rodzaju nazywa się poziomem istotności. Poziom ten ustala się samemu, a wówczas tak sie dobiera tzw. zbiór krytyczny, aby błąd drugiego rodzaju był minimalny. Na tym polega weryfikcja hipotezy, aby formalnie ocenić czy reguły systemu transakcyjnego są czysto przypadkowe. Im większa próba, tym mniejsze prawdopodobieństwo błędu.
"Teraz tak sobie mysle, ze jedynym wyjsciem jest testowanie out of sample, tzn tworzenie systemu na latach np 1970-1990 a testowanie na 1990-2011. I dopiero wyniki z drugiej proby brac do obliczen istotnosci statystycznej. Problem w tym, ze w ten sposob marnujemy sporo danych, ktore powinny byc uzyte do tworzenia systemu aby lepiej rozpoznac ryzyko. "
No właśnie jak widzisz nie ma żadnego problemu, bo to co chcesz zrobić jest bez sensu i błędne.
To prawdopodobnie przez moje braki matematyczne nie rozumiem do konca o czym piszesz, ale intuicyjnie wydaje sie oczywiste, ze im wiecej regul w systemie tym lepsze bedzie mial wyniki. Np mamy jakas formacje w notowaniach, ktora wystapila dwa razy. Raz po formacji byly spadki, raz wzrosty. Teraz wymyslamy jaki kolwiek wskaznik, ktory byl rozny dla tych dwoch formacji i traktujemy go jako filtr. Wtedy mamy juz tylko jedna formacje, ktora zakonczyla sie wzrostem. Postepujac w ten sposob, mozna stworzyc system z bardzo duza iloscia regul, ktory na danych historycznych bedzie mial genialne wyniki. Podstawiajac te wyniki do testow na istotnosc statystyczna wyjdzie nam, ze nie ma szans na uzyskanie takich wynikow w sposob losowy.
OdpowiedzUsuńTo jest troche oszukiwanie sie - oczywiscie przy czterech regulach i kilku tysiecach transakcji wszystko jest ok, ale jesli mamy tyle samo regul co transakcji to intuicyjnie czuc, ze cos jest nie tak. Jak w tescie na istotnosc statystyczna wynikow uwzglednic liczbe regul?
No ale w tym rzecz, że im więcej takich reguł, tym mniej sygnałów, czyli mniej transakcji, czyli mniej danych historycznych. Test hipotezy stat. opiera się na tym, że gdy będzie zbyt mała liczba obserwacji, to on to uchwyci i wskaże brak istotności sygnału. Jeśli nie, to nie ma co gdybać i należy zaufać statystyce. A to dlatego, że sam fakt, iż stosujemy metody statystyczne oznacza, że opieramy się na zasadzie "ufności" metodzie naukowej. Oczywiście aby móc zaufać testowi statystycznemu, to powinniśmy mieć dużą wiedzę na temat tego co on tak naprawdę wylicza. To trochę tak jak przy stosowaniu AT: można mechanicznie, ale bez zrozumienia. Można też czuć jej zasady i się nimi kierować intuicyjnie (łączyć wszystkie narzędzia w jedno) - i wydać werdykt o dokonaniu transakcji. Co z tego np., że test wykaże nieistotność, skoro p-wartość tylko minimalnie przewyższa poziom istotności - wtedy odrzucenie strategii jest niesprawiedliwe.
OdpowiedzUsuńP.S. Tam wyżej oczywiście chodziło o pożyczkę oprocentowaną, a nie nieoprocentowaną.
Ale jesli mamy odpowiednio duzo danych do testowania (tysiace akcji, kilkadziesiat lat) to nawet przy wielu regulach mozna znalesc tysiace transakcji.
OdpowiedzUsuńTutaj na mysl przychodzi mi jeszcze jeden warunek - system musi byc na rynku okreslony procent czasu, np 20 (moj system jest na rynku 70% - nie ma mowy o zbyt wybiorczym traktowaniu). Ale taka metoda to ciagle nie to...