ElTopo Februar 4, 2009 Wer monatlich rechnen muss was er investiert ist auch nicht passiv ... oder? Beim rebalancen musst du auch rechnen, und das bezeichnet auch niemand als aktive Strategie... Es ist eigentlich einerlei: Mir stellt sich die Frage, inwieweit Value Averaging überhaupt praktikabel ist: Erstens setzt es voraus, dass eine gewisse Liquidität beim Anleger existiert, damit er Verluste stets ausgleichen kann. Zweitens sind gerade Kleinstbeträge gar nicht ohne Fixratensparplan investierbar. Ich kenne zumindest keinen Vermittler, der Fondsanteile im Wert von 50 verkauft Erstens: Ja, stimmt. Letztes Jahr (insb. im Herbst) hätte man die Sparsumme um ein Vielfaches erhöhen müssen. Zweitens: Fondssparpläne bei Direktbanken kann man fortlaufend (manuell) anpassen, mit dem richtigen Fonds ganz ohne irgendwelche AA oder TA Gebühren (zu Vermittlern und Fondssupermärkten kann ich nichts sagen) P.S. Hier mal noch eine Gegenstimme zu RzM (englisch) Diesen Beitrag teilen Link zum Beitrag
Globetrotter Februar 5, 2009 · bearbeitet Februar 5, 2009 von Globetrotter Im Korrelationsthread von supertobs habe ich geschrieben: Ich bemühe nochmals das neue Buch von Sharpe. Wenn ich es richtig verstanden habe, behauptet er da, dass Rebalancing eine Wette sei. Irgendwie stimmt das doch... Ich habe die Textstelle in Sharpes Buch gefunden und muss meine Aussage relativieren.William Sharpe (Stanford-Professor, Wirtschaftsnobelpreis 1990 zusammen mit Miller und Markowitz) legt dem Leser ein Rebalancing auf Grundlage von Marktwerten nahe. Er rät aber entschieden vom Halten einer fixen, prozentualen Allokation ab. In einem Beispiel nennt er eine fixe Aufteilung in 40% Anleihen und 60% Aktien. Er sagt, dass solche Allokationen in beträchtlichem Masse zu Wetten mit dem Markt (= andere Investoren) führen. Werden Gewinner-Assets zu Verlierer-Assets und umgekehrt Verlierer-Assets zu Gewinner-Assets, so profitiere ein Investor mit konst. Allokation auf Kosten anderer Investoren. Bleiben hingegen Gewinner-Assets eine Weile oben und Verlierer-Assets unten, werden solche "constant mix investors" dem Markt ihr Geld abliefern. Sharpes Schlussfolgerung ist: Sharpe rät also eher zu einem "Under-Balancing" Ich frage mich, ob da nicht was dran ist. Wenn ich mir zum Beispiel den von SumSum ins Forum gestellten Graphen ansehe und mir dann vorstelle, ich hätte zu einem willkürlichen Zeitpunkt ein Rebalancing durchgeführt... na ja, hätte ich da nicht gegen den Markt gehandelt, d.h. gewettet? Sharpes Ansatz ist ja von der allg. üblichen Indexing-Strategie nicht allzu sehr verschieden. Er empfiehlt Marktkapitalisierungs-Daten für die Allokation heranzuziehen, die meisten von uns verwenden stattdessen BIP-Daten. Interessant finde ich aber, dass er auch gegen eine fixe Aufteilung zwischen risikolosem und risikobehaftetem Anteil ist. Auch das leuchtet mir irgendwie ein. In einem volatilen Markt, wie wir ihn zur Zeit haben, erhöht sich sonst das Gesamtrisiko des Portfolios stark und liegt bald mal ausserhalb der eigenen Risikotoleranz. Die Tipps zur Gewichtung des risikobehaften Portfolio-Anteils (Bsp. siehe Buch von Gerd Kommer) beziehen sich grösstwahrscheinlich auf gut laufende Marktphasen. Diesen Beitrag teilen Link zum Beitrag
Nonvaleur Februar 5, 2009 Hallo miteinander, dies ist mein erster Beitrag nach einigen Monaten des Mitlesens. Zunächst einmal herzlichen Glückwunsch zu diesem tollen Forum. Lese dieses Thema mit besonderem Interesse, da der größte Teil meines Kapitals nach einer Passiv-Strategie a la Bernstein/Swedroe/Kommer investiert ist. Allerdings überlege auch ich, ob es nicht interessant wäre, zusätzlich auf eine taktische Umschichtung zwischen Aktien und Anleihen/Cash zu setzen und dafür ein zweites gewissermaßen halb-passives Depot zu betreiben. Finde z.B. Benjamin Grahams Rat interessant, je 25% des Depotwertes fix in Aktien und Anleihen anzulegen und die verbleibenden 50% taktisch je nach Marktlage auf die zwei Assetklassen zu verteilen. Grahams Rat funktioniert natürlich nur unter der Prämisse, dass man über-/unterbewertete Märkten früh genug erkennen kann und da trennen sich bekanntlich die Meinungen... Unabhängig von Theoriediskussionen möchte ich mir selbst ein Bild davon machen, wie sich Kennzahlen zur tatsächlichen Marktentwicklung verhalten und ob sich Indikatoren finden lassen, die als Signal für eine Umschichtung von Anleihen zu Aktien und umgekehrt geeignet erscheinen. Damit komme ich zu meiner eigentlichen Frage: Da ich meine spärliche Zeit nicht mit dem Zusammensuchen von Daten aus Dutzenden Quellen, sondern lieber mit der Analyse verbringen will, bin ich auf der Suche nach einer Software, die mir einen Großteil der benötigten Zeitreihen frei Haus liefert. Also zusätzlich zu üblichen Kursdaten z.B. Dinge wie KBV, KGV bezogen auf alle wesentlichen Indizes, div. Anleihe- und Geldmarktkennzahlen, Ölpreise, Wechselkurse. Gibt es sowas überhaupt für Privatanleger? Oder landet man da schnell bei Produkten für institutionelle Investoren? Wie ist es z.B. mit WISO Börse in der Professional/ Premium oder Deluxe Variante? WISO hält sich leider sehr bedeckt bezüglich der tatsächlich gelieferten Daten, siehe hier Gruß Nonvaleur Diesen Beitrag teilen Link zum Beitrag
postguru Februar 5, 2009 · bearbeitet Februar 5, 2009 von postguru Value Averaging ist auch keine aktive Strategie. Ich hatte dies beispielhaft schon einmal durchgerechnet mit einem Sparplan auf den Astra Fonds. Beispielhaft sollte das Depot monatlich um 100 Euro steigen egal was der Kurs macht. Je größer das Depot wurde um so höher sind bei einem Abschwung die erforderlichen Mittel die ins Depot müssen. In der Spitze im Oktober 08 über 2000 Euro im Monat. Das ist glaube ich nichts für einen Otto Normal Sparer. In dem Chart ist auch eine art Rückrechnung. Einfach der kumulierte eingezahlte Wert der dynamischen Variante gleichmäßig auf die Monate verteilt wie bei einem Sparplan.. So als ob man gewußt hätte wieviel man mit der Dynamischen Variante einzahlen muss. Dynamischer_Sparplan.pdf Diesen Beitrag teilen Link zum Beitrag
Bärenbulle Februar 7, 2009 · bearbeitet Februar 7, 2009 von Bärenbulle Zur Info die Quellen wo man im Netz aktuelle KGV und KBV Bewertungen bekommt: https://www.wertpapier-forum.de/index.php?s...st&p=426918. Vor allem Emerging Markets fehlen aber noch. Falls von Euch noch einer nützliche Datenquellen kennt bitte dort posten. Diesen Beitrag teilen Link zum Beitrag
Bärenbulle Februar 7, 2009 · bearbeitet Februar 14, 2009 von Bärenbulle Es ist vollbracht . Ich habe nun eine Strategie für das Fundamentalbalancing meines Depots festgelegt. Die RK1-3-Gewichtungen für mein Depot werden nun dynamisch auf Basis der KGVs, KBVs und der Zinsniveaus berechnet. Die Grafik zeigt bei welcher Bewertung des Aktienmarktes sich meine Depotgrenzen wie verschieben. Die KGVs sind BIP-gewichtet und eine Mischung aus letztem Quartal und dem prognostizierten Jahresvorschauwert. Das Zinsniveau wird zur Zeit stark vereinfacht auf Basis der Rendite 10J-Staatsanleihen je zu 50% USA und 50% Deutschland gerechnet. Das fundamentale Bewertungsniveau des Aktienmarketes (zur Zeit 60,9%) wird gewichtet nach 4 verschiedenen Methoden berechnet: zu 15% auf Basis des derzeitigen KGVs im Vergleich zum langfristigen Durchschnitt von 15 zu 40% auf Basis des FED-Modells, also unter Berücksichtigung des aktuellen Zinsniveaus zu 30% auf Basis des FED-Modells aber mit einem langfristig durchschnittlichen Zinsniveau von 4,5% zu 15% auf Basis des derzeitigen KBVs im Vergleich zum langfristigen Durchschnitt von 1,94 Die Depotgewichtungen werden dann über eine Formel (wie in der Grafik dargestellt) automatisch auf Basis dieses fundamentalen Bewertungniveau des Aktienmarktes berechnet. Wobei das Verhältnis RK1:RK2 immer 3:1 beträgt. Nach einigem Nachdenken bin ich nun wirklich überzeugt von der Strategie und werde versuchen Sie so oder vielleicht noch etwas feingetuned umsetzen. Allerdings bin ich mir noch nicht darüber im klaren, ob ich die so berechneten Depot-Zielwerte erst mal nur für Neuanlagen verwende oder ob ich tatsächlich auch jetzt schon beim Erreichen größerer Abweichungen von der idealen Depotgewichtung konsequent umschichte. Großer Aufwand ist damit jedenfalls nicht mehr verbunden. Die Zinsniveaus der 10J. Staatsanleihen werden via Excelimport auf Knopfdruck aktualisiert. Lediglich die KGVs/KBVs müssen (noch) händisch aus einem PDF kopiert werden (das geht aber mit einer einzigen Transaktion und kurzem Nachformatieren). Lediglich die EM-Daten habe ich dann noch händisch von Mourningstar besorgt. Die könnte man ggf. auch weglassen. Vermutlich sind die auch veraltet. Falls jemand eine Excelimporttaugliche Quelle kennt, bitte melden. Eigentlich ist das auch nicht wirklich ein Zusatzaufwand, denn ich denke jeder Investor sollte ab und zu mal auf die übergreifenden KGV- und KBV-Entwicklung schauen. Selbst die passivsten "Faultiere" . Diesen Beitrag teilen Link zum Beitrag
Bärenbulle Februar 7, 2009 · bearbeitet Februar 7, 2009 von Bärenbulle P.S. Hier mal noch eine Gegenstimme zu RzM (englisch) Zweifelsohne ein interessanter Artikel. Ich bin auch von einem "Random Walk" überzeugt. Allerdings gilt dies dafür, wenn ich einmalig einen Betrag anlegen möchte. Langfristig können sich die Aktienmärkte nicht rein auf Basis eines Random-Walks bewegen. Das wäre gegen jede Logik. Schliesslich wollen Shareholder Dividenden bzw. Renditen kassieren. Wenn der KGV 10 ist, dann ist Deine Rendite 10%. Das hat logischerweise auch einen Einfluß auf die Kanäle in denen der Random-Walk stattfinden kann. An den Rändern der durch Fundamentals definierten Kanäle wird daher nun mal auch langfristig eine Tendenz vorgegeben. Alles andere ist schlicht unlogisch. Und das versucht ein Fundementalbalancing zu nutzen. Diesen Beitrag teilen Link zum Beitrag
ElTopo Februar 7, 2009 Interessant, bin mal gespannt wie sich das entwickelt. Machst du ein Musterdepot? Am besten mit einem der Supertops-Fixed-Allocation-Forumdepots als Benchmark, und das mind. monatlich aktualisiert! Diesen Beitrag teilen Link zum Beitrag
Bärenbulle Februar 8, 2009 · bearbeitet Februar 9, 2009 von Bärenbulle So ich habe mir mal die Daten von Hr. Shiller zum S&P vorgenommen. Hier die Ergebnisse: Die Trendanalyse über den Zeitraum von 1887 - 2008 erkennt bei einem 5 jährigen Anlagehorizont eine deutliche Abhängigkeit vom KGV: Für alle Datenpunkte der Shillertabelle zurück bis ins vorige Jahrhundert sah der KGV und die darauf folgende inflationsbereinigte Rendite eines Aktionärs nach einer 5 jährigen Anlagedauer aus wie folgt : (die Formeln der verscheidenen Regressionskurven sind im Chart dargestellt) Hier mal wenn man die KGV-Intervalle einzeln betrachtet: Noch deutlicher ist der Trend, wenn man die Zeit vor 1800 und die Weltkriege weglässt (diese sind vielleicht nicht so repräsentativ): Hier erkennt man auch die risikominimierende Wirkung eines niedrigen KGVs. Die Zeit um und nach der vorletzten Jahrhundertwende scheint insgesamt eine geringere Rendite erwirtschaftet zu haben: Diesen Beitrag teilen Link zum Beitrag
Bärenbulle Februar 9, 2009 · bearbeitet Februar 9, 2009 von Bärenbulle Übersichtlicher ist, wenn man nicht alle monatlichen Werte nimmt, sondern nur einen pro Jahr. Die Grafik nochmal zur Ergänzung: Die Schlenker unten links kommen von der 1929er Depression. Da wollen wir mal hoffen, dass es diesmal nicht so übel kommt . Diesen Beitrag teilen Link zum Beitrag
Bärenbulle Februar 9, 2009 · bearbeitet Oktober 23, 2009 von Bärenbulle *** gelöscht wg. Berechnungsfehler *** Diesen Beitrag teilen Link zum Beitrag
jjj Februar 11, 2009 · bearbeitet Februar 11, 2009 von jjj Wer monatlich rechnen muss was er investiert ist auch nicht passiv ... oder? Es ist eigentlich einerlei: Mir stellt sich die Frage, inwieweit Value Averaging überhaupt praktikabel ist: Erstens setzt es voraus, dass eine gewisse Liquidität beim Anleger existiert, damit er Verluste stets ausgleichen kann. Zweitens sind gerade Kleinstbeträge gar nicht ohne Fixratensparplan investierbar. Ich kenne zumindest keinen Vermittler, der Fondsanteile im Wert von 50 verkauft Ich habe das Buch herumstehen. Mein Eindruck war, dass die Beispiele die dort angegeben sind, rückschauend konstuiert sind. Das gilt besonders für Beispiele mit eingeschränkter Liquidität. Ich konnte den Erfolg jedenfalls mit meinen historischen Daten nicht wiederholen. Ich habe auch ein paar Random Walk Simulationen gemacht, die nur dann zum gewünschten Erfolg geführt haben, wenn man unbegrenzt Liquidität hatte. Das überstieg aber sehr bald für mich vorstellbare Größenordnungen Liquidität vorzuhalten. Vor allem deshalb, weil auch davon ausgegangen wird, dass man die monatlichen Beiträge in der gleichen prozentuellen Geschwindigkeit erhöht wie die Zielrendite der Geldanlage, da man sonst desinvestiert - so die Theorie. Ich gehe aber davon aus, dass mein Einkommen eher nicht so schnell wachsen wird. Habe darum die Geldmarktfondsrendite genommen - scheint mir immer noch optimistisch genug. Ergebnis: Die höheren Renditen erhielt man mit Value Averaging ohne Liquiditätseinschränkungen. Sobald die Liquidität durch das (in allen Simulationen gleiche) monatliche Gehalt und durch zuvor erzielte Überrenditen begrenzt war, war in der Simulation das DCA überlegen oder über weite Bereiche so gut wie gleich. Ich habe auch Varianten versucht, in denen ich nicht sofort das gesamte Geld nachgeschossen habe, sondern erst, wenn eine gewisse Grenze zur Zielrendite unterschritten war. Das Resultat in diesen Simulationen ist eher noch schlechter. Man muss auch bedenken, dass VA im Gegensatz zu den sonstigen Empfehlungen einen ziemlichen Umsatz generiert und dem entsprechend beachtliche Nebenkosten verursacht (die ich aber nicht berücksichtigt habe). Steuerliche Aspekte dürften jetzt mit der AbmelkSt im Ggs zu früher nicht mehr die große Rolle spielen, da das FinAmt ohnehin die Hand aufhält. Ich habe nach den insgesamt nicht überzeugenden Resultaten den Ansatz nicht mehr weiter verfolgt. Die Erträge, die über der Zielrendite lagen, habe ich in der Simulation auf einen Neben(geldmarkt)fonds gelegt (wie er auch in dem Buch mehrmals ausdrücklich erwähnt ist) und eine Mischrendite berechnet. Vielleicht war das der Grund für die niedrigere Rendite... Ich habe das Ergebnis von nur 1000 Simulationsdurchgängen angehängt - wenn es mehr sind, wird nur die Kurve glatter (arithmetische Aktienjahresrendite=Zielrendite 15%, Standardabweichung 20%, Inflation 2.5%, Wachstum der Beiträge 3%, Geldmarktrendite 3%) Man muss zwar auch sagen, dass solche random walk Simulationen mit Vorsicht zu genießen sind, da sie sehr stark von den Zufallszahlengeneratoren abhängen und ich eben den von www.octave.org verwendet habe aber für mich ist das Resultat nicht ausreichend gut. Mit historischen Daten habe ich nicht herumgerechnet. Gruß Josef Habe auch noch eine jpg angehängt. Und noch ein Edit. Im zweiten Bild siehr man den Renditevorteil der VA Varianten gegenüber dem DCA. Beim unbeschränkten VA ist er deutlich zu sehen (blau) aber beim beschränkten VA nurmehr zu erahnen bzw. und verschwindet bei Extremwerten. Wenn man also die Reibungsverluste beim Umschichten bedenkt... returns.ps Diesen Beitrag teilen Link zum Beitrag
Bärenbulle Februar 12, 2009 · bearbeitet Februar 12, 2009 von Bärenbulle Ob man nun den KGV- oder den KBV-Ansatz für eine Einschätzung von Über-/Unterbewertung des RK3-Marktes nimmt, dürfte unerheblich sein. Ich werde wohl beide Indikatoren gewichtet in meine Entscheidung einfliessen lassen. Hier mal die Bernstein-Grafik über die KBV-Bewertungen dazu. Die zeigt ähnliche Muster wie meine KGV-Darstellungen auf Basis der Shiller-Daten: Diesen Beitrag teilen Link zum Beitrag
jjj Februar 12, 2009 · bearbeitet Februar 12, 2009 von jjj Habe auch mit Shillers Daten herumgespielt und auf Basis von jährlichen Werten folgendes gefunden: In der Vergangenheit gab es für den S&P nur ein Ereignis, bei dem nach Erreichen von einem P/E Verhältnis von unter 10 während (nicht am Ende sic.) den folgenden 10 Jahren die Anlage nicht 100% Gewinn überschritten hat. In nur 3 von 18 Fällen wurde 150% Gewinn irgendwann während der folgenden 10 Jahre nicht erreicht. Sobald ein P/E Verhältnis von 10 überschritten wird, streut der zu erwartende Maximalwert während der nächsten 10 Jahren erheblich. Bei den Minimalwerten ist die Lage nicht mehr so klar. Zumindest überstieg bei einem Anfangs P/E Wert von unter 10 beim S&P der Verlust einen Wert von 50% in der Vergangenheit nicht. Beim S&P war in der Vergangenheit daher ein Übergewichten bei einem P/E von unter 10 von Vorteil da man mit dem Investment in 80% der Fälle in 10 Jahren zumindest 150% Gewinn machen konnte. Bei hohem P/E lässt sich aus den vergangenen Daten leider keine so klare Grenze feststellen. Diesen Beitrag teilen Link zum Beitrag
Bärenbulle Februar 13, 2009 · bearbeitet Februar 13, 2009 von Bärenbulle Habe auch mit Shillers Daten herumgespielt und auf Basis von jährlichen Werten folgendes gefunden: Shillers Formeln in dem Excel rechnen ja mit einem P/E als 10-jähriger gleitender Durchschnitt. Ich hatte die in meinen Berechnungen oben auf einen 1-jährigen gleitenden Durchschnitt reduziert. Hast Du mit dem 10-jährigen gerechnet? Wenn ich Zeit finde werde ich auch nochmal mit der Länge der gleitenden Durchschnitte spielen. Ich hatte das auf den 1-jährigen geändert, weil ich keine Lust habe in meinem Excel eine 10-jährige Historie mitzuführen. Der 10-jährige Durchschnitt hat natürlich den Vorteil, dass er eher die Größe der Gesamtkapazität der Wirtschaft bewertet, während der 1-jährige KGV eher die kurzfristige Lage der Wirtschaft berücksichtigt. Ich schaue nochmal, ob sich dies ggf. auf die Steilheit der Regressionskurve auswirkt. Vermute aber nicht das dies einen großen Unterschied machen wird. Interessieren würde mich außerdem mal, ob Shiller die "P/E incl. negative" oder den "P/E ohne negative" zugrundelegt. Weiß das vielleicht jemand? Ich plane die "P/E incl. negative" zu verwenden. Beides wäre aber unten den im anderen Post angegebenen Links verfügbar. Diesen Beitrag teilen Link zum Beitrag
Schinzilord Februar 13, 2009 Mich würde interessieren, wie eure Simulation nicht mit einer Random-Walk-Verteilung ausschaut, sondern mit einer fluktuierenden Volatilität, wie ich sie z.B. in meinem Programm gemacht habe (Link: https://www.wertpapier-forum.de/index.php?showtopic=24773). Denn ihr berücksichtigt nicht den chaotischen Marktverlauf. Evtl. komme ich selbst dazu, das mal zu berücksichtigen. Diesen Beitrag teilen Link zum Beitrag
jjj Februar 13, 2009 Shillers Formeln in dem Excel rechnen ja mit einem P/E als 10-jähriger gleitender Durchschnitt. Ich hatte die in meinen Berechnungen oben auf einen 1-jährigen gleitenden Durchschnitt reduziert. Hast Du mit dem 10-jährigen gerechnet? x-Wert: P/E (Sp.2/Sp.4) y-Wert: ((max. P der auf den aktuellen P folgenden 120 Monate) - (aktuelles P))/(aktuelles P) analog für Minimalwerte von P; kein gleitender Durchschnitt, keine Inflationsbereinigung Habe dann noch 12 Monatschritte verwendet, da ja die E auch nur alle 12 Monate kommen und damit nur die Info redundant in der Graphik wäre. Interessieren würde mich außerdem mal, ob Shiller die "P/E incl. negative" oder den "P/E ohne negative" zugrundelegt. Weiß das vielleicht jemand? Ich plane die "P/E incl. negative" zu verwenden. Beides wäre aber unten den im anderen Post angegebenen Links verfügbar. kA :'( Diesen Beitrag teilen Link zum Beitrag
jjj Februar 13, 2009 Mich würde interessieren, wie eure Simulation nicht mit einer Random-Walk-Verteilung ausschaut, sondern mit einer fluktuierenden Volatilität, wie ich sie z.B. in meinem Programm gemacht habe (Link: https://www.wertpapier-forum.de/index.php?showtopic=24773).Denn ihr berücksichtigt nicht den chaotischen Marktverlauf. Evtl. komme ich selbst dazu, das mal zu berücksichtigen. Mache ich gerne, allerdings liest sich das Paper nicht wie ein Kochrezept. Ich müßte allerdings für eine Simulation den code in octave (matlab) einbauen - wenn du mir den src code schicken würdest, wäre das sicher hilfreich Gruß Josef Diesen Beitrag teilen Link zum Beitrag
Bärenbulle Februar 14, 2009 · bearbeitet Februar 14, 2009 von Bärenbulle Hier nochmal ein paar Ergänzungen. Die Historendaten lassen erkennen, dass es oberhalb eines KGVs von 15 tendenziell besser ist Anleihen zu kaufen. Dazu habe ich mal die Rendite der 10-jährigen Anleihen von der S&P-Rendite abgezogen. Signifikante Vorteile bringt es, wenn man einen KGV-Wert nimmt, der mit den langfristig gleitenden Erträgen der Unternehmen gerechnet ist. Der KGV gerechnet mit dem aktuellen Ertrag des Vormonats performt deutlich schlechter. Das aktuelle Kursniveau geteilt durch den gleitenden Durchnitt der Erträge über die letzten 5 Jahre bringt in etwa die besten Ergebnisse. Sieht man hier: Diesen Beitrag teilen Link zum Beitrag
Bärenbulle Februar 15, 2009 · bearbeitet Februar 15, 2009 von Bärenbulle FED-Modell und Fundamentalbalancing: Die Historiendaten zeigen: der ausschließliche Einsatz des FED-Modell bringt keinen Vorteil gegenüber dem reinen KGV-Modell. Das FED-Modell schneidet sogar leicht schlechter ab. Am besten ist allerdings eine Mischung aus FED-Modell und KGV-Modell. Rechnet man das FED-Modell mit dem durchschnittlichen Zins von 4,71% so ist das im Prinzip ja auch das gleiche wie wenn man direkt mit dem mittleren KGV rechnet. Die Mischung der beiden Methoden performt interessanterweise besser als beide einzeln für sich genommen. Was meiner Meinung nach auch logisch erklärbar damit ist, dass auch der Zins einer Regression zum Mittelwert (in den letzen 100 Jahren 4,71%) unterliegt und sich daher bei einem Anlagehorizont von 5 Jahren tendenziell in Richtung dieses Mittelwertes bewegt. Mit dem Mischmodell nimmt man quasi einen Zinserwartungswert in der Mitte zwischen aktuellem Zins und langfristigen Mittelwert an und fährt damit dann auch am besten. Trotzdem bin ich von der FED-Methode etwas enttäuscht. Sie verkomplizierte das Ganze, bringt aber nur einen geringen Mehrwert. Andererseits ist es ja nur eine kleine Formel die den aktuellen Zins der 10 J Staatsanleihen als Input benötigt. Daher werde ich das FED-Modell weiter anteilig beim Fundamentalbalancing meines Depots berücksichtigen. Allerdings werde ich die Gewichtung reduzieren. Diesen Beitrag teilen Link zum Beitrag
Bärenbulle Februar 15, 2009 · bearbeitet Februar 15, 2009 von Bärenbulle Dass das FED-Modell so wenig überzeugt, wurmt mich jetzt doch etwas. Als Modell kombiniert es ja die Betrachtung der Aktienmärkte im Lichte der Leitzinsen / Anleihemärkte. Leider ist mein Know-How zum Anleihenmarkt/Leitzinsen deutlich geringer als das zur Fundamentalbewertung von Aktienmärkten. Der Schlüssel für eine Optimierung der Performance des FED-Modells liegt vermutlich auf der Anleihen-/Zinsseite. Hier sieht in welchen Bereichen die Rendite des Aktienmarktes mit den Leitzinsen korreliert ist: Die Korrelation lässt sich wohl auch logisch recht gut damit erklären, dass Leitzinssenkungen oft nach Crashsituationen die Wirtschaft ankurbeln sollen. Investiert man also langfristig in der Niedrigzinsphase, dann wirkt sich das positiv auf die Aktienrendite aus. Sind die Zinsen oberhalb des historischen Mittelwertes besteht die Gefahr, dass Sie die Konjunktur abwürgen, so dass man in der Folge mit erhöhter Wahrscheinlichkeit einen Crash mitmacht. Für das Intervall, wo die Zinsen am allerhöchsten sind liegt eher wieder eine positive Aktienrendite vor. Kann Zufall sein (gibt ja in diesem Intervall eher wenige Datenpunkte oder aber ist erklärbar durch die Regression des Zinses zum Mittelwert. D.h. wenn der Zins zum Zeitpunkt der Aktieninvestition deutlich höher ist als der historische Mittelwert von 4,71%, dann ist die Wahrscheinlichkeit dass er sinkt wiederum etwas größer. Sinkt er dann in den 5 investierten Jahren tatsächlich schlagen sinkende Zinsen sich releativ deutlich in steigenden Aktienkursen nieder, also ist die Aktienrendite höher). Aber eine Betrachtung der Aktienmarktrendite in Abhängigkeit der Leitzinsen bringt einen nicht wirklich weiter. Vor allem ist das Problem mit den Shillerdaten, dass die Zinsangaben in seiner Tabelle nicht wirklich die Bewertungen der Anleihenmärkte reflektieren. Die Zinsangaben sind auch keine richtigen monatsgenauen Angaben, sondern scheinen nur auf Basis des Jahresanfangswertes und Endwertes linear verteilt ermittelt zu sein. Besser wäre es daher wenn man monatsgenaue Historiendaten zu REX oder anderen Anleihe-Indizees hätte. Damit könnte man dann sicherlich mehr anfangen. Weiß jemand wo man so etwas im Netz bekommt? Außerdem hätte ich folgende Fragen an Euch: Kennt jemand von Euch gute Links bzw. Literatur zum Thema Fundamental-Bewertung von Anleihenmärkten? Gibt es in bzgl. der Anleihemärkten Erklärungsansätze, die eine Regression des Zinses zum Mittelwert von 4,71% erklären? Gibt es KPI's für Anleihen, die vergleichbar mit KGV, KBV für Aktienmärkte, eine logische Herleitung des Zinsniveaus und einer Regression zum Mittelwert erklären? Letztlich sind es ja die Vorgaben der Notenbanken, aber die richten sich ja auch an bestimmten Parametern aus (z.B. was waren Ursachen für die Hochzinspolitik in der Reagan-Area etc.)? Oder kann gar jemand hier ein paar gute Denkanstöße geben, warum das FED-Modell hier nur so eine geringe Signifikanz aufweißt? Ich glaube sich mit den Fundamentals von Anleihemärkten zu beschäftigen könnte sich im Hinblick auf das Fundmentalbalancing ähnlich signifikant lohnen wie eine Beschäftigung mit KBV und KBV. Diesen Beitrag teilen Link zum Beitrag
jjj Februar 15, 2009 · bearbeitet Februar 17, 2009 von jjj Mich würde interessieren, wie eure Simulation nicht mit einer Random-Walk-Verteilung ausschaut, sondern mit einer fluktuierenden Volatilität, wie ich sie z.B. in meinem Programm gemacht habe (Link: https://www.wertpapier-forum.de/index.php?showtopic=24773).Denn ihr berücksichtigt nicht den chaotischen Marktverlauf. Evtl. komme ich selbst dazu, das mal zu berücksichtigen. Nochmals die gleiche Simulation mit multiplicative cascading wobei letzteres wie folgt durchgeführt wurde (der Schnelle halber poste ich den Code, welcher in www.octave.org für MS und UX läuft; nach Installation den Code einfach in eine Datei multicascade.m kopieren und z.B. durch Eintippen von multicascade(120,0.6,0.55) starten): function rnd=multicascade(tt,sigma,mret) % Rückgabe rnd = Vektor mit tt normalverteilten Werten mit einem Erwartungswert der Standardabweichung sigma und und Mittelwert mret sz=ceil(log(tt)/log(2)); %nächstgrößere Binärzahl, verwende nur Werte von 1:tt %Wahl der Uniformen Verteilung so dass E(uniform)=1 minzf=0.5; %Minimalwert der Uniformen Verteilung delta=1; %Maxwert-Minwert der Uniformen Verteilung maxzf=minzf+delta; %Maximalwerte der uniformen Verteilung mretv=ones(1,2^sz)*mret; sigv=unifrnd(minzf,maxzf,[1,2^sz]); % Anfangswert für sigv, dafür einmal weniger clustern E(unifrnd)=1 m1=unifrnd(minzf,maxzf,[1,2^sz]); %Vektor mit Zufallszahlen mit E(unifrnd)=1 ss=1; for mm=1:sz-1 m0=0.; mv=0.; for nn=1:2^(sz-mm):2^sz m0=m0+m1(ss); % summe der Zufallszahlen berechen m0=a1+b1+c1 ss=ss+1; mv(nn:nn+2^(sz-mm)-1)=m1(ss); %Zwischenergebnis mit Cluster mv=[a1 a1 a1 b1 b1 b1 c1 c1 c1] endfor mv=mv/m0; % damit Summe der Zufallszahlen=1 sigv=sigv.*mv*2^mm; % Cluster zu Standardsabweichungsvektor multiplizieren Faktor 2^mm zum Skalieren %(empirisch gefunden) damit alles in ~O(1) bleibt endfor %Normieren so dass E(sigv)=sg wobei sg der Erwartungswert einer gleichverteilen % Zufallsvariablen im Intervall sigma-deltasigma/2 sigma+deltasigma/2 ist; (sehr unschön) % beim Normieren direkt auf sigma, würde der Erwartungswert der gleichverteilten Zufallsvariablen immer sigma sein (noch viel hässlicher) sigv=abs(sigv*mean(unifrnd(sigma-delta/2,sigma+delta/2,[1,2^sz]))/mean(sigv)); sigv=sigv*mean(unifrnd(sigma-sigma/2,sigma+sigma/2,[1,2^sz]))/mean(sigv); %besser wenn delta>>sigma ; ändert aber nichts am im Forum präsentierten Ergebnis ret=normrnd(mretv,sigv,size(sigv)); rnd(1:tt)=ret(1:tt); %Normieren der Standardabweichung auf eine Standardabweichung einer normalverteilen % Zufallsvariablen mit sigma und mret; (sehr unschön) % beim Normieren direkt auf sigma, würde die Standardabweichung der gleichverteilten Zufallsvariablen immer sigma sein (noch viel hässlicher) rnd=rnd+(rnd-mean(rnd))*(std(normrnd(mret,sigma,[1,2^sz]))-std(rnd))/std(rnd); % mean und std sind ident zu der einer standard Normalverteilung % 3. und 4. Moment sind durch diese Maßnahme ein Mehrfaches einer standard Normalverteilung = fat tails end function multicascade Mit diesen Zufallszahlen habe ich wieder eine DCA und eine VA Simulation mit sonst gleichen Werten wie oben berechnet. Die Vorteile des VA sind immer noch nicht zu sehen. Beim unbeschränkten VA sind monatliche cash-flows von bis weit über dem 20 fachen des DCA dabei. Diesen Beitrag teilen Link zum Beitrag
bluemex Februar 17, 2009 Hallo, ich finde diesen Thread auch sehr interessant! Allerdings stelle ich mir immer diese Frage: Wenn es doch so einfach wäre, wie hier erwähnt: Wieso schaffen es hochbezahlte und gutausgebildete (geh ich mal davon aus...) Fondsmanager nicht auch? Ich meine die hier vorgestellten Umschichtungsalgorithmen sind ja nicht wirklich hochkompliziert... Diesen Beitrag teilen Link zum Beitrag
jjj Februar 17, 2009 Ich meine die hier vorgestellten Umschichtungsalgorithmen sind ja nicht wirklich hochkompliziert... Naja - ich weiß ja nicht, wie Du es siehst. Aber wenn man die Simulation zugrunde legt, funktioniert VA ja auch nicht. Wenn man beim VA die monatlichen Geldzuflüsse in das Asset "Aktien" auf jenen Wert beschränkt, der dem DCA entspricht, dann ist die Rendite bestenfalls nicht vom DCA zu unterscheiden. Man könnte in einem wesentlichen Anteil der Fälle aber auch deutlich weniger Rendite haben Für das beschränkte VA war das Ergebnis der Simulation bei Random Walk geringfügig besser als bei der Simulation mit fat tails. Das ist insofern plausibel, als dass man bei fat tails sehr viel schneller in das Limit des maximalen monatlichen Geldzuflusses reinkommt. Umgekehrt ist das Ergebnis beim unbeschränkten VA bei den Simulationen mit fat tails besser, da man bei Abweichungen nach unten noch viel besser reinbuttern kann - was sich bei danach steigenden Kursen sehr, sehr positiv auswirkt. Fazit aus der Simulation: Wenn man das VA so betreibt, dass man das Geld in unbeschränkter Höhe von einem zweiten Fonds nimmt, der keinen Schwankungen unterliegt und mit dem Asset "Aktien" nicht korreliert (welch ein Fonds das immer auch sein könnte...), so kann man eine Überrendite von 2% und mehr im Vergleich zum DCA erreichen (unbeschränktes VA). Die monatlichen (variablen) Geldzuflüsse können aber ein 20-faches der regelmäßigen Geldflüsse des DCA weit übersteigen. Sobald man eine Beschränkung bei den monatlichen Geldzuflüssen hat, reduziert sich die Überrendite im Vergleich zum DCA. Meine Meinung: 1. Ich habe mir zwar nicht überlegt, wie man das rechnen könnte, aber gefühlsmäßig das sieht so aus, als ob obiges Simulationsergebnis das Resultat eines Diversifizierens mit Rebalancing zwischen einem Asset "Aktien" und einer "sicheren" Anlage ist (Stw. Markowitz) - nicht mehr und nicht weniger, nur gut versteckt im Begriff VA. 2. VA funktioniert in der Praxis nicht und ist im Vergleich zum DCA mit einem hohen Verlustrisiko verbunden da man u.U. die gesamte "sichere" Anlage kontinuierlich in ständig fallende Aktien umschichtet. Gruß Josef Diesen Beitrag teilen Link zum Beitrag
Bärenbulle Februar 22, 2009 · bearbeitet Februar 22, 2009 von Bärenbulle Hallo, ich finde diesen Thread auch sehr interessant! Allerdings stelle ich mir immer diese Frage: Wenn es doch so einfach wäre, wie hier erwähnt: Wieso schaffen es hochbezahlte und gutausgebildete (geh ich mal davon aus...) Fondsmanager nicht auch? Ich meine die hier vorgestellten Umschichtungsalgorithmen sind ja nicht wirklich hochkompliziert... Die meisten Fondmanager haben gar nicht die Freiräume und sind stark reglementiert in ihrer Anlagestrategie. In der Regel verpflichten Sie sich ja spezielle Themen abzudecken. Da können sie nicht mal eben eine andere Risikoklasse kaufen. Außerdem sind den meisten wohl 5 Jahre Anlagehorizont viel zu lang. Sie müssen kurzfristige Erfolge zeigen. Bei den vollmundigen Werbungen würde eine so moderate Gewinnabsicht von 1-3% Überrendite wohl vollständig untergehen und wäre auch nicht in der Kundenansprache erfolgreich. Diesen Beitrag teilen Link zum Beitrag