Die Überlebenden-Verzerrung ist eines der häufigsten Probleme, mit denen Investoren konfrontiert sind, und viele wissen, dass sie existiert, aber nur wenige nehmen ihre Auswirkungen ernst. Wir neigen dazu, bei der Rückprüfung nur bestehende Unternehmen zu verwenden, was bedeutet, dass wir die Auswirkungen von Unternehmen, die aufgrund von Bankrott oder Restrukturierung aus dem Markt gehen, ausschließen.
Bei Anpassung an historische Daten werden regelmäßig einige Insolvenzen, Verkäufe und schlechte Aktien ausgeschaltet. Diese werden nicht in Ihrem Strategie-Pulver angezeigt, d.h. die Informationen über die heutigen Bestandteile werden in der Rezension der Vergangenheit verwendet, um die Auswirkungen von Bestandteilen auszuschließen, die in Zukunft wegen schlechter Performance oder Preisperformance ausgeschaltet wurden. Die folgende Abbildung zeigt, wie die Bestandteile des MSCI European Index als Portfolio in der Vergangenheit funktionierten.
Abbildung 1
Die Überlebenden-Verzerrung ist eines der häufigsten Probleme, mit denen Investoren konfrontiert sind, und viele wissen, dass sie existiert, aber nur wenige nehmen ihre Auswirkungen ernst. Wir neigen dazu, bei der Rückprüfung nur bestehende Unternehmen zu verwenden, was bedeutet, dass wir die Auswirkungen von Unternehmen, die aufgrund von Bankrott oder Restrukturierung aus dem Markt gehen, ausschließen.
Bei Anpassung an historische Daten werden regelmäßig einige Insolvenzen, Verkäufe und schlechte Aktien ausgeschaltet. Diese werden nicht in Ihrem Strategie-Pulver angezeigt, d.h. die Informationen über die heutigen Bestandteile werden in der Rezension der Vergangenheit verwendet, um die Auswirkungen von Bestandteilen auszuschließen, die in Zukunft wegen schlechter Performance oder Preisperformance ausgeschaltet wurden. Die folgende Abbildung zeigt, wie die Bestandteile des MSCI European Index als Portfolio in der Vergangenheit funktionierten.
Abbildung 2
Das heißt, wenn wir die besten Unternehmen der vergangenen 30 Jahre analysieren, dann sind die Renditen sehr hoch, auch wenn einige Unternehmen damals ein hohes Kreditrisiko hatten, wenn man weiß, wer überleben wird, wenn man sie mit hohem Kreditrisiko kauft oder wenn sie in Schwierigkeiten geraten. Wenn man die Aktien betrachtet, die pleite gehen, aus dem Markt gehen oder schlecht abschneiden, dann kommt man zu dem gegenteiligen Ergebnis, dass Investitionen in Unternehmen mit hohem Kreditrisiko langfristig deutlich weniger Renditen haben als in Unternehmen mit gutem Kredit.
Es gibt viele andere Faktoren, die das genaue Gegenteil bewirken, wenn man die Abweichungen der Überlebenden berücksichtigt.
Abbildung 3
Abbildung 4
Die Überlebenden-Verzerrung, eine der sieben Sünden der Anschuldigung, ist, dass wir an einem Zeitpunkt in der Vergangenheit nicht vorhersagen können, welche Unternehmen überleben und heute noch Indexbestandteile sind, und die Überlebenden-Verzerrung ist nur eine Ausnahme von der Vorsehung. Die Vorsehung-Verzerrung bedeutet, dass bei der Rückprüfung Daten verwendet werden, die damals nicht verfügbar oder nicht öffentlich zugänglich waren. Dies ist auch der häufigste Fehler bei der Rückprüfung.
Ein deutliches Beispiel für eine Prognoseverzerrung findet sich in den Finanzdaten, bei denen Korrekturen der Finanzdaten eher zu schwer zu entdeckenden Fehlern führen. Im Allgemeinen gibt es verschiedene Zeitpunkte für die Veröffentlichung der Finanzdaten jeder Firma und es gibt oft Verzögerungen. Bei der Rückbewertung beurteilen wir die finanzielle Lage der Firma oft anhand der Zeitpunkte, zu denen die Daten jeder Firma veröffentlicht wurden.
Allerdings ist die Verzögerung der Finanzberichterstattung oft falsch, wenn zu dieser Zeit Punktdaten (PIT-Daten) nicht verfügbar sind. Die folgende Abbildung bestätigt die Unterschiede zwischen PIT-Daten und Nicht-PIT-Daten. Gleichzeitig erhalten wir beim Herunterladen historischer Makro-Daten oft angepasste Endwerte, die jedoch in vielen Industrieländern zweimal nach der Veröffentlichung der GDP-Daten angepasst werden.
Abbildung 5
Abbildung 6
Einige Leute erzählen gerne ohne Daten, Quantitative erzählen gerne mit Daten und Ergebnissen. Die beiden Situationen haben viele Gemeinsamkeiten. Diejenigen, die gut in der Geschichtenerzählung sind, oder die, die gut in der Interpretation von Datenergebnissen sind, haben oft schon vor der Erfassung der Daten ein festes Skript im Kopf.
Wenn man sich die US-amerikanischen Technologie-Elemente 1997-2000 und 2000-2002 anschaut, kommt man zu einem gegenteiligen Ergebnis. Von den US-amerikanischen Technologie-Elemente 1997-2000 aus betrachtet, ist die Profitrate ein guter Faktor, und die Rückmessungen sind sehr glaubwürdig.
Schaubild 7
Aber aus der Marktperformance des Russell 3000 Index kommt man zu dem gegenteiligen Schluss, dass der Profit-Rate-Indikator immer noch ein effektiver Faktor ist. Es ist offensichtlich, dass die Länge der Auswahl und Rückbewertung des Aktienpools einen großen Einfluss auf die Effektivität der Faktoren hat.
Abbildung 8
Der Markt ist täglich auf der Suche nach neuen und positiven Faktoren. Die Strategien, die veröffentlicht werden können, zeigen eine gute Leistung. Obwohl die Geschichten erzählenden Menschen sehr ansprechend sind, sind ihre Vorhersagen für die Zukunft kaum nützlich. In der Finanzökonomie ist es oft schwierig, Zusammenhänge und Kausalität zu verstehen, so dass es besser ist, nicht ein Geschichtenerzähler zu sein, wenn wir Ergebnisse machen, die gegen den gesunden Menschenverstand oder den ursprünglichen Urteilen entsprechen.
Schaubild 9
Datenmining ist ein aktuell beschäftigtes Gebiet, in dem man oft auf eine unsichtbare Menge an Daten und computergestützten Rechenleistungen setzt.
Manchmal ist das Daten-Mining nahezu unwirksam. Zum Beispiel haben wir den S&P 500 mit zwei verschiedenen Faktor-gewichteten Algorithmen modelliert und Daten aus den Jahren 2009 bis 2014 ausgewählt. Die Ergebnisse zeigen, dass die Ergebnisse mit den sechs am besten funktionierenden Faktoren aus den Jahren 2009 bis 2014 ausgewählt wurden.
Abbildung 10
Daher sollten wir bei der Konstruktion von Strategien oder der Suche nach guten Faktoren eine klare Logik und Motivation haben, und quantitative Analyse ist nur ein Werkzeug, um unsere eigene Logik oder Motivation zu überprüfen, und nicht eine Abkürzung für die Logik. Im Allgemeinen haben wir die Motivation, Strategien oder Faktoren zu konstruieren, in den Bereichen der grundlegenden theoretischen Kenntnisse der Finanzen, der Effektivität der Märkte, der Verhaltensfinanzierung usw.
Schaubild 11
Signalverfall bezieht sich auf die Fähigkeit, die zukünftige Rendite von Aktien nach der Entstehung eines Faktors zu prognostizieren. Im Allgemeinen sind hohe Wechselkurse und Signalverfall verbunden. Verschiedene Aktienwahlfaktoren haben oft unterschiedliche Informationsverfallcharakteristiken. Schnelleres Signalverfall erfordert oft höhere Wechselkurse, um Gewinne zu erzielen.
Wie können wir also die optimale Anpassungsfrequenz bestimmen? Wir müssen beachten, dass eine enge Wechselkursbeschränkung nicht bedeutet, dass die Anpassungsfrequenz gesenkt wird. Zum Beispiel hören wir oft Ähnliches. Wir sind langfristige Wertinvestoren und erwarten, dass wir die Aktie 3-5 Jahre halten.
Abbildung 12
Wenn wir bei der Tagesschließung die 100 am schlechtesten performenden Aktien kaufen, verkaufen wir die Vergangenheit, halten die täglichen Trades fort und erzielen eine sehr hohe Rendite. Hier ist auch der Fehler der Prognose-Abweichung. Wir wissen noch nicht, welche Aktien am Tag am schlechtesten abschneiden.
Abbildung 13
Die Standardisierung der Daten kann als eine der Methoden zur Steuerung von Abweichungen angesehen werden, die eine signifikante Auswirkung auf die Modellperformance haben können. Die Gewinnsätze der S&P-BMI-Korean Index-Komponenten in der folgenden Abbildung zeigen beispielsweise, dass die Ergebnisse von Methoden wie Durchschnittswerte, Abgrenzungen von 1% oder 2% sehr unterschiedlich sind.
Abbildung 14
Obwohl Abweichungen möglicherweise nützliche Informationen enthalten, enthalten sie in den meisten Fällen keine nützlichen Informationen. Natürlich ist dies eine Ausnahme für die Preisdynamikfaktoren. Wie in der folgenden Abbildung gezeigt wird, ist die blaue Linie die Kombinationsdarstellung nach dem Entfernen der Abweichungen, die rote Linie die Rohdaten. Wir können sehen, dass die Dynamikstrategie der Rohdaten viel besser ist als die Strategiedarstellung nach dem Entfernen der Abweichungen. Das heißt, die Abweichungen enthalten einen großen Teil der Informationen, und wenn wir bei der Standardisierung die Abweichungen entfernen, sind wir gleichbedeutend mit einem großen Teil der Informationen, die wir verloren haben. Daher ist es am besten, die Daten auf der Mikroebene zu aggregieren und dann die Gesamtindikatoren zu berechnen.
Abbildung 15
Abbildung 16
Im Allgemeinen ist die häufigste Strategie bei der Multi-Faktor-Strategie die Multifaktorialisierung, d.h. die Multifaktorialisierung, bei der mehrere gute und weniger gute Aktien gehandelt werden. Leider sind nicht alle Faktoren gleich, und die Multifaktorialisierung hat eine asymmetrische Ertragscharakteristik, die die möglichen Kosten und die tatsächliche Machbarkeit der Multifaktoren mit sich bringt.
Abbildung 17
Quelle: Walking Wall Street