Zum Inhalt springen
Stratege

Backtests mittels Monte-Carlo-Simulation / Randomwalk-Theorie

Empfohlene Beiträge

Stratege
· bearbeitet von Stratege

Hallo,

 

folgende Sache:

Ich trade seit ein paar Monaten ein längerfristiges Trendfolgersystem, bei dem aus einem Pool von mehreren ETFs mittels RSI-Berechnungen in mehreren Zeitebenen 3 ETFs gepickt werden. Es können sowohl Long- als auch Short-ETFs sein. Als Stellschraube für das System habe ich im Endeffekt noch exakt einen Parameter, der von 1 bis 200 geht.

Das System hätte in den letzten 4 Jahren über einen recht breiten Parameterbereich wohl relativ gut abgeschnitten.

 

So weit so gut, aber: So ganz traue ich der Sache nicht!

Ein Backtest über die letzten 4 Jahre ist mir zu kurz, längerfristige Daten zu einem Pool von sagen wir 10-15 ETFs quasi nicht zu finden bzw. bei mir sehr umständlich in meine riesige Excel-System-"Simulation" ^_^ einzubinden.

 

Also habe ich mich etwas in die Theorie des Random-Walks eingelesen und aus einem Buch von Paul Wilmott folgende Berechnungsformel für einen Wiener Prozess in Excel umgesetzt:

 

Y_t+1 = Y * [1 + D + Vol * (Zufallszahl - 0,5)]

 

wobei

Y_t+1: Aktueller Kurs

Y: Vortageskurs

D: Drift

Vol: Volatilität

 

Das ganze sieht dann z.B. folgendermaßen aus (Zeitraum: über 4 Jahre; da ich ETFs unterschiedlicher Anlageklassen mische, habe ich bei einigen Kurven die Volatilität noch mit einem Faktor zwischen 0,7 und 1,5 versehen und zudem wie von Wilmott vorgeschlagen nicht nur eine Zufallszahl in die Formel gepackt, sondern 12... dann muss man eben im hinteren Teil der Formel noch "-6" statt "-0,5" schreiben):

 

post-16710-0-73261500-1297239301_thumb.png

 

Nun habe ich mittels einer Batchfile in Excel einen Backtest gemacht, der mit 4 leicht unterschiedlichen Drift- und Volatilitätssettings jeweils 6 komplette Zeitreihen untersucht hat, insgesamt also 96 Jahre (4 * 6 * 4 Jahre). Dabei habe ich mir jeweils die Outperformance des Systems in Abhängigkeit des Parameters ausgeben lassen. Die Out- oder Underperformance wurde dabei durch die Differenz zwischen Buy- and Hold des ETF-Pools und dem System berechnet.

 

Das Ergebnis hat mich dann aber in seiner Kuriosität doch auflachen lassen:

Über diesen langen Zeitraum liegt die durchschnittliche Outperformance meines Systems quasi über den gesamten Parameterbereich von 1 bis 200 in einem kleinen Bereich von -2 % bis -8%, quasi fast eine Gerade über den gesamten Parameterbereich! :blink:

 

Zuerst war ich natürlich geschockt angesichts der Underperformance, danach stellten sich mir aber Fragen wie:

 

  • Habe ich es mit dem Zufall übertrieben? Ich glaube nicht, dass die Märkte der Random-Walk-Theorie folgen. Hätte ich einen reinen Random-Walk simuliert, wäre meiner Meinung nach klar, dass mein System für große t irgendwann gegen eine Trefferquote von 50% wandert, egal mit welchem Parameter.
  • Sollte ich einen größeren Drift-Wert wählen, um (langfristige) Trends, von denen mein System quasi "lebt", besser simulieren zu können?
  • Eignet sich der Wiener Prozess überhaupt zur Simulation von Aktienkursen?
  • Ist es nicht vermessen, ein System finden zu wollen, dass in einem solch großen Zeitbereich Outperformance liefert? Ist das schon der berühmte "Heilige Gral"?

Was haltet ihr davon?

 

Grüße,

Stratege.

Diesen Beitrag teilen


Link zum Beitrag
bb_florian

Über diesen langen Zeitraum liegt die durchschnittliche Outperformance meines Systems quasi über den gesamten Parameterbereich von 1 bis 200 in einem kleinen Bereich von -2 % bis -8%, quasi fast eine Gerade über den gesamten Parameterbereich! :blink:

 

Wenn du einen Random Walk simulierst, solltest du im Mittel genau den Drift rauskriegen als Performance deiner Strategie - egal welche Strategie. Stichwort: Optional Stopping Theorem.

 

Also entweder hast du was falsch implementiert oder zu wenige Simulationen gemacht :)

Diesen Beitrag teilen


Link zum Beitrag
Schinzilord

Vielleicht findest du hier ein paar Anregungen.

Dort habe ich Kursverläufe mittels des GARCH Modells simuliert (also veränderliche Volatilitäten) in Kombination mit Clustering (also vermehrtes Auftreten von starken Kursausschlägen in kurzer Zeitfolge).

 

Denn nur eine Random Walk Montecarlosimulation halte ich für sinnlos, wenn die fat tails nicht abgedeckt sind.

Diesen Beitrag teilen


Link zum Beitrag
Rotkehlchen

Y_t+1 = Y * [1 + D + Vol * (Zufallszahl - 0,5)]

 

Was genau sagt diese Formel aus? In Worten:

 

Der Kurs von t+1 ist gleich "Kurs von t" plus "Kurs von t mal Drift" plus "Kurs von t mal Zufallszahl zwischen -0,5 und 0,5". Dummerweise ist die typische Excel-Zufallszahl gleichverteilt auf dem Intervall [0,1], weshalb in dieser Formel zwangsläufig ein Einbruch des Kurses um 50% gleich wahrscheinlich ist wie eine Veränderung um 1%. Entweder hast du die Formel falsch abgetippt oder der Autor des Buches hat was falsch gemacht.

 

Davon mal abgesehen, habe ich bisher noch nicht gelesen, dass irgendwelche Kurse (außer vielleicht Zinsniveaus) einem Wiener Prozess bzw. einem Random Walk (der zeitdiskreten Version eines Wiener Prozesses) folgen sollten. In der Regel nimmt man an, dass die Kurse einer geometrischen Brownschen Bewegung (oder einem geometrischen Random Walk) folgen.

 

Mir ist ohnehin noch nicht ganz klar, was du dir unter diesem Backtest vorstellst. Ist es so, dass dein Excel-Tool nachrechnet, was deine Strategie bei dem jeweils simulierten Kursverlauf gemacht hätte? Oder was wird da womit verglichen?

 

Nun zu deinen weiteren Fragen:

 

Habe ich es mit dem Zufall übertrieben?

 

Mal abgesehen von dem eben schon angesprochenen "Fehler" in der Formel sind 12 schlechte Zufallszahlen nicht wesentlich besser als eine schlechte.

 

Eignet sich der Wiener Prozess überhaupt zur Simulation von Aktienkursen?

 

Wie gesagt, zur Simulation der Renditen (bis auf die "Fat-Tail-Problematik", die aber in meinen Augen hier eine untergeordnete Rolle spielt) schon, zur Simulation der Kurse definitiv nicht.

 

Ist es nicht vermessen, ein System finden zu wollen, dass in einem solch großen Zeitbereich Outperformance liefert?

 

Ja ;)

Diesen Beitrag teilen


Link zum Beitrag
Tek09

 

 

Denn nur eine Random Walk Montecarlosimulation halte ich für sinnlos, wenn die fat tails nicht abgedeckt sind.

 

Deswegen wird auch gerne zur Simulation die Levy Verteilung anstatt der Normalverteilung verwendet. Diese hat ein heavy-tail auf der für uns wichtigen linken Seite.

Bei Interesse suche ich noch ein Paper heraus.

 

Trotzdem wird in den Modellen allgemein die Normalverteilung unterstellt, ist einfach praktischer und einfacher. (Black Scholes Modell als Bsp.)

Eben auch Wiener Prozess folgt einer Normalverteilung was zu einer fehlerhaften Risikoeinschätzung bzw. zu einer laschen Risikosimulation führen kann.

Diesen Beitrag teilen


Link zum Beitrag
Emilian

Interesse

Diesen Beitrag teilen


Link zum Beitrag
Tek09

Interesse

 

Kann auf die Schnelle erstmal leider nur diesen FAZ Artikel liefern, DASS etwas in diese Richtung gemacht wird und inwiefern es besser sein könnte als die Gaußsche Verteilung.

Werde sobald ich Zeit habe auf die Suche gehen nach wissenschaftlichen Artikeln, muss mich nur derzeit auf meine Klausuren vorbereiten.

 

http://www.iqfinance.de/articles/Finanzanalytik%20Jenseits%20der%20Normalverteilung%20-%20FAZ_NET%20-%20Investor%20-%20Strategie%20&%20Trends.htm

 

Beste Grüße und schönen Abend

Diesen Beitrag teilen


Link zum Beitrag
Emilian

Danke erstmal und meld Dich wenn Du dann mehr hast.

 

Gruß Emilian.

 

 

Diesen Beitrag teilen


Link zum Beitrag
Stratege

Danke für eure bisherigen Antworten!

 

Wenn du einen Random Walk simulierst, solltest du im Mittel genau den Drift rauskriegen als Performance deiner Strategie - egal welche Strategie. Stichwort: Optional Stopping Theorem.

 

Also entweder hast du was falsch implementiert oder zu wenige Simulationen gemacht :)

 

Ich denke, dass der Zeitraum noch zu kurz war und ich zudem die Parameter für Zeit und Volatilität insgesamt 4 mal geändert habe (4* 6 Zeitreihen á 4 Jahre)

 

 

Vielleicht findest du hier ein paar Anregungen.

Dort habe ich Kursverläufe mittels des GARCH Modells simuliert (also veränderliche Volatilitäten) in Kombination mit Clustering (also vermehrtes Auftreten von starken Kursausschlägen in kurzer Zeitfolge).

 

Denn nur eine Random Walk Montecarlosimulation halte ich für sinnlos, wenn die fat tails nicht abgedeckt sind.

 

Danke Schinzilord, hatte dein Tool bereits ausprobiert - scheint wirklich gut zu sein. Allerdings müsste ich es, da ich sehr viele Zeitreihen benötige, in Excel implementieren und ich bin leider kein VBA-Crack... ;)

 

 

Y_t+1 = Y * [1 + D + Vol * (Zufallszahl - 0,5)]

 

Was genau sagt diese Formel aus? In Worten:

 

Der Kurs von t+1 ist gleich "Kurs von t" plus "Kurs von t mal Drift" plus "Kurs von t mal Zufallszahl zwischen -0,5 und 0,5". Dummerweise ist die typische Excel-Zufallszahl gleichverteilt auf dem Intervall [0,1], weshalb in dieser Formel zwangsläufig ein Einbruch des Kurses um 50% gleich wahrscheinlich ist wie eine Veränderung um 1%. Entweder hast du die Formel falsch abgetippt oder der Autor des Buches hat was falsch gemacht.

 

Davon mal abgesehen, habe ich bisher noch nicht gelesen, dass irgendwelche Kurse (außer vielleicht Zinsniveaus) einem Wiener Prozess bzw. einem Random Walk (der zeitdiskreten Version eines Wiener Prozesses) folgen sollten. In der Regel nimmt man an, dass die Kurse einer geometrischen Brownschen Bewegung (oder einem geometrischen Random Walk) folgen.

 

Mir ist ohnehin noch nicht ganz klar, was du dir unter diesem Backtest vorstellst. Ist es so, dass dein Excel-Tool nachrechnet, was deine Strategie bei dem jeweils simulierten Kursverlauf gemacht hätte? Oder was wird da womit verglichen?

Die Formel müsste so stimmen; ich habe vorhin gesehen, dass es tatsächlich einen Begriff für die Verwendung von 12 Zufallszahlen für eine "Pseudo"-Normalverteilung gibt: Zwölferregel (Wikipedia)

 

Zum Backtest:

Ich lasse mir 10-15 Kursverläufe über jeweils ~4 Jahre generieren. Diese sollen meinen Pool an ETFs darstellen, aus denen mein System - abhängig von einem Parameter - während der 4 Jahre fortlaufend eine Rangliste erstellt und nach dieser die 3 "besten" ETFs tradet.

Nach den 4 simulierten Jahren schaue ich mir die Performance an und vergleiche sie mit Buy-and-Hold. Die Out- oder Underperformance lasse ich mir dann ausgeben. Dieser Prozess läuft für jeden Parameter von 1 bis 200 durch.

 

Das Ganze habe ich in meinem obigen Test 24mal gemacht, also über 24*4 Jahre = 96 Jahre.

 

 

Ist es nicht vermessen, ein System finden zu wollen, dass in einem solch großen Zeitbereich Outperformance liefert?

 

Ja ;)

 

Kann gut sein.

Andererseits frage ich mich, ob es Sinn macht, seine Systeme auf die letzten 5-10 Jahre zu optimieren, wo die Zukunft doch völlig anders aussehen kann...?

 

Ich sehe für einen Test meines Systems über viele (generierte) Zeiträume auch den Vorteil, es z.B. mit verschiedenen Volatilitäten testen zu können und so System-Parameter zu finden, welche sich eher für niedrige Volatilitäten des Gesamtmarkts oder eben hohe Volatilitäten eignen...

 

 

Denn nur eine Random Walk Montecarlosimulation halte ich für sinnlos, wenn die fat tails nicht abgedeckt sind.

 

Deswegen wird auch gerne zur Simulation die Levy Verteilung anstatt der Normalverteilung verwendet. Diese hat ein heavy-tail auf der für uns wichtigen linken Seite.

Bei Interesse suche ich noch ein Paper heraus.

 

Trotzdem wird in den Modellen allgemein die Normalverteilung unterstellt, ist einfach praktischer und einfacher. (Black Scholes Modell als Bsp.)

Eben auch Wiener Prozess folgt einer Normalverteilung was zu einer fehlerhaften Risikoeinschätzung bzw. zu einer laschen Risikosimulation führen kann.

 

Interessant.

Weshalb ist die "linke Seite wichtig?

Links = negative Zahlen?

Diesen Beitrag teilen


Link zum Beitrag
bb_florian

Also, nochmal: Wenn du eine "Anlagestrategie" testen willst, ist es völlig nutzlos, einen Test mit Zufallspfaden, die aus einem Martingal (egal, ob Random Walk, Brownsche Bewegung, Geometrische Brownsche Bewegung, was auch immer) + Drift zu machen, man kriegt im Mittel den Drift raus. Frag irgendjemand, der von Stochastik Ahnung hat, der wird das bestätigen.

Wenn man Derivate hedgen will, kann das eine ganz nette Idee sein, aber für "Anlagestrategien" unbrauchbar. Zeitverschwendung.

 

Allerdings sind reale Börsenkurse keine Martingale, sondern haben Autokorrelation. Aber damit kenne ich mich nicht aus.

Diesen Beitrag teilen


Link zum Beitrag
Stratege

Also, nochmal: Wenn du eine "Anlagestrategie" testen willst, ist es völlig nutzlos, einen Test mit Zufallspfaden, die aus einem Martingal (egal, ob Random Walk, Brownsche Bewegung, Geometrische Brownsche Bewegung, was auch immer) + Drift zu machen, man kriegt im Mittel den Drift raus. Frag irgendjemand, der von Stochastik Ahnung hat, der wird das bestätigen.

Wenn man Derivate hedgen will, kann das eine ganz nette Idee sein, aber für "Anlagestrategien" unbrauchbar. Zeitverschwendung.

 

Allerdings sind reale Börsenkurse keine Martingale, sondern haben Autokorrelation. Aber damit kenne ich mich nicht aus.

 

Du hast Recht, mein erster Versuch war völlig nutzlos, ich hatte nicht genügend darüber nachgedacht, dachte durch Hinzufügen von Drift wäre es kein reiner Random-Walk mehr.

 

Wie gesagt, ich bin überzeugt davon, dass Börsenkurse keinem Random-Walk folgen (manche zweifeln allerdings selbst diese These an) - bin aber überzeugt, dass es möglich ist, Kursverläufe zu generieren, die von Börsenkursen nicht zu unterscheiden sind.

Diesen Beitrag teilen


Link zum Beitrag
Schinzilord
· bearbeitet von Schinzilord

Evtl. interessiert dich Mandelbrots "Misbehaviour of Markets".

Hierin beschreibt er genau dieses Problem und simuliert Kursverläufe mittels fraktalen Modellen (Power Laws etc.)

Diesen Beitrag teilen


Link zum Beitrag
Rotkehlchen

Also, nochmal: Wenn du eine "Anlagestrategie" testen willst, ist es völlig nutzlos, einen Test mit Zufallspfaden, die aus einem Martingal (egal, ob Random Walk, Brownsche Bewegung, Geometrische Brownsche Bewegung, was auch immer) + Drift zu machen, man kriegt im Mittel den Drift raus. Frag irgendjemand, der von Stochastik Ahnung hat, der wird das bestätigen.

Wenn man Derivate hedgen will, kann das eine ganz nette Idee sein, aber für "Anlagestrategien" unbrauchbar. Zeitverschwendung.

 

Allerdings sind reale Börsenkurse keine Martingale, sondern haben Autokorrelation. Aber damit kenne ich mich nicht aus.

 

Das ist so nicht ganz richtig. Anlagestrategien können selbstverständlich anhand von simulierten Kursverläufen getestet werden. Die Frage ist vielmehr, ob diese simulierten Kursverläufe der Realität ausreichend nahe kommen, um Rückschlüsse auf die Praxistauglichkeit einer Strategie zu erlauben.

 

Ein einfaches Beispiel: Nehmen wir an meine Strategie wäre, eine Aktie immer dann zu kaufen, wenn der Kurs von einem Tag auf den nächsten um mehr als 2% fällt und immer dann zu verkaufen, wenn der Kurs von einem Tag auf den nächsten um mehr als 3% steigt. Transaktionskosten und sonstige "Nebensächlichkeiten" wollen wir der Einfachheit halber nicht betrachten. Dann kann ich doch ohne weiteres diverse Aktienkursverläufe simulieren (entweder stochatisch anhand eines geometrischen Random Walks oder einfach durch simples "aufmalen") und die simulierte Rendite des Aktieninvestments mit dem simulierten Erfolg meiner Strategie vergleichen.

Natürlich ist es in dem Fall wichtig, dass die simulierten Aktienkursverläufe die Realität möglichst genau abbilden. Speziell die Problematik der "Fat-Tails" wurde ja hier schon angesprochen.

Diesen Beitrag teilen


Link zum Beitrag
Tek09
· bearbeitet von Tek09

 

 

Deswegen wird auch gerne zur Simulation die Levy Verteilung anstatt der Normalverteilung verwendet. Diese hat ein heavy-tail auf der für uns wichtigen linken Seite.

Bei Interesse suche ich noch ein Paper heraus.

 

Trotzdem wird in den Modellen allgemein die Normalverteilung unterstellt, ist einfach praktischer und einfacher. (Black Scholes Modell als Bsp.)

Eben auch Wiener Prozess folgt einer Normalverteilung was zu einer fehlerhaften Risikoeinschätzung bzw. zu einer laschen Risikosimulation führen kann.

 

Interessant.

Weshalb ist die "linke Seite wichtig?

Links = negative Zahlen?

 

Mea culpa. Natürlich kannst du eine alpha-stabile Verteilung auch "rechtslastig" aufbauen. Interessant für die Simulation ist eine alpha-stabile Verteilung eben genau deshalb, dass man fat-tails bzw. Extremereignisse besser modellieren kann. Dies führt zu einer besseren Risikoeinschätzung als bei der Gaußschen Normalverteilung und eben deshalb in vielen Fällen zu realistischeren Simulationen.

 

Evtl. interessiert dich Mandelbrots "Misbehaviour of Markets".

Hierin beschreibt er genau dieses Problem und simuliert Kursverläufe mittels fraktalen Modellen (Power Laws etc.)

 

Mandelbrot ist ein gutes Stichwort, dieser hat sich sehr stark auch damit beschäftigt.

 

 

Laut Abstract könnte dieses Paper vllt. einen Einstieg bieten:

http://mpra.ub.uni-muenchen.de/336/1/MPRA_paper_336.pdf

 

Es tut mir Leid, dass ich es selber gerade nicht durchlesen kann, ab übernächster Woche wird es ruhiger bei mir. Ich interessiere mich selber für das Thema und freue mich, dass ich durch diesen Thread auch mal einen Antrieb bekomme mich wirklich damit zu beschäftigen.

 

http://www.zpr.uni-koeln.de/~filippo/WEB_IAC/econophysics/node2.html

 

Hier noch der Wiki-Artikel zu Stock market crashs mit ein paar kleinen Aussagen bzw. weiterführenden Links bzw. power law, levy flight,...

http://en.wikipedia.org/wiki/Stock_market_crash#Mathematical_theory_and_stock_market_crashes

 

Hier kannst Du soweit ich das sehe z.B. die Levy-Verteilung gegen die Gaußsche Normalverteilung testen bzw. die Ergebnisse vergleichen. Ich hoffe, dass es richtig funktioniert - vllt. wäre eine Statistik interessant, welche Ergebnisse die empirischen Daten besser erklären. http://25yearsofprogramming.com/blog/20070412c-montecarlostockprices.htm

 

LG

Diesen Beitrag teilen


Link zum Beitrag
ipl

Ich melde mich mal ausnahmsweise aus meiner Inaktivität. ^^

Also, nochmal: Wenn du eine "Anlagestrategie" testen willst, ist es völlig nutzlos, einen Test mit Zufallspfaden, die aus einem Martingal (egal, ob Random Walk, Brownsche Bewegung, Geometrische Brownsche Bewegung, was auch immer) + Drift zu machen, man kriegt im Mittel den Drift raus. Frag irgendjemand, der von Stochastik Ahnung hat, der wird das bestätigen.

Wenn man Derivate hedgen will, kann das eine ganz nette Idee sein, aber für "Anlagestrategien" unbrauchbar. Zeitverschwendung.

 

Allerdings sind reale Börsenkurse keine Martingale, sondern haben Autokorrelation. Aber damit kenne ich mich nicht aus.

Das ist so nicht ganz richtig.

Doch, was bb_florian geschrieben hat, stimmt exakt so. (Naja, den Drift kriegt man für die Zeiten raus, in denen die Strategie long geht - und man bekommt -Drift in Short-Zeiten. Optimale Strategie bei positivem Drift: buy&hold.)

 

Was du, Rotkehlchen, danach schreibst, ist aber auch nicht falsch und widerspricht nicht grundsätzlich bb_florians Beitrag. Tests mit simulierten Kursen sind an sich ok, aber wenn man sie so simuliert, ist die optimale Strategie stets trivial (je nach Drift: immer long / immer short / immer flat).

 

 

Ansonsten kann ich für realistische Simulationen von Kursen ebenfalls nur Mandelbrot empfehlen (danke an der Stelle an Emilian ;) ) - aber sein Ansatz hat ebenfalls zur Folge, dass Spekulation und Strategien jenseits von buy&hold sinnlos sind.

 

Realistischere Simulationsansätze sind mir nicht bekannt, aber damit Strategien zu testen ist aus dem oben erwähnten Grund sinnlos. Ich würde also notgedrungen auf historische Daten ausweichen.

Diesen Beitrag teilen


Link zum Beitrag
otto03

I

 

aber sein Ansatz hat ebenfalls zur Folge, dass Spekulation und Strategien jenseits von buy&hold sinnlos sind.

 

 

 

ach :blushing: and now?

Diesen Beitrag teilen


Link zum Beitrag
Rotkehlchen

Das ist so nicht ganz richtig.

Doch, was bb_florian geschrieben hat, stimmt exakt so. (Naja, den Drift kriegt man für die Zeiten raus, in denen die Strategie long geht - und man bekommt -Drift in Short-Zeiten. Optimale Strategie bei positivem Drift: buy&hold.)

 

Ich glaube ich wurde falsch verstanden. "Das ist so nicht ganz richtig" bezog sich nicht auf die Mathematik, sondern auf die "Zeitverschwendung". Deshalb auch nur "nicht ganz richtig" und nicht "Das ist absoluter Quatsch" ;)

 

Was du, Rotkehlchen, danach schreibst, ist aber auch nicht falsch und widerspricht nicht grundsätzlich bb_florians Beitrag. Tests mit simulierten Kursen sind an sich ok, aber wenn man sie so simuliert, ist die optimale Strategie stets trivial (je nach Drift: immer long / immer short / immer flat).

 

Mir geht es bei derartigen Simulationen weniger darum, eine optimale Strategie zu finden. Sie sind vielmehr insofern nützlich, als dass man anhand der unterschiedlichen simulierten Kursverläufe nachvollziehen kann, wie eine Strategie wirkt. Deshalb auch mein Hinweis auf das "aufmalen", das eben in gewisser Hinsicht gleich gut oder schlecht für diesen Zweck geeignet ist.

 

Zudem fußt die Optimalität der Buy&Hold-Strategie darauf, dass außer der Kurse der Vergangenheit keine weiteren Informationen vorhanden sind. Ist man jedoch der Meinung, man verfüge über weitergehende Informationen (zum Beispiel über die Information "so wie bei diesem simulierten Kursverlauf sieht es in der Realität nie aus") so kann man die Optimalität der Buy&Hold-Strategie durchaus in Frage stellen.

 

Realistischere Simulationsansätze sind mir nicht bekannt, aber damit Strategien zu testen ist aus dem oben erwähnten Grund sinnlos. Ich würde also notgedrungen auf historische Daten ausweichen.

 

Man könnte sogar soweit gehen zu sagen, dass historische Daten die realistischste Simulation sind, da sie sich in der Vergangenheit bewährt haben ;)

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...