L'écart des survivants est l'un des problèmes les plus courants auxquels les investisseurs sont confrontés, et beaucoup de gens sont au courant de son existence, mais peu d'entre eux accordent une grande importance à ses effets.
Lors de l'ajustement des données historiques, certains stocks qui ont fait faillite, ont été mis sur le marché ou qui ont mal performé sont régulièrement supprimés. Les stocks qui ont été supprimés ne figurent pas dans le pool de stocks que vous avez stratégié, c'est-à-dire qu'une réévaluation du passé utilise uniquement l'information sur les stocks composants actuels, en supprimant l'impact de ceux qui seront supprimés à l'avenir en raison d'une mauvaise performance ou d'une mauvaise performance des actions. Le graphique ci-dessous montre les poids des stocks composants de l'indice européen MSCI comme une performance passée d'un portefeuille.
Figure 1
L'écart des survivants est l'un des problèmes les plus courants auxquels les investisseurs sont confrontés, et beaucoup de gens sont au courant de son existence, mais peu d'entre eux accordent une grande importance à ses effets.
Lors de l'ajustement des données historiques, certains stocks qui ont fait faillite, ont été mis sur le marché ou qui ont mal performé sont régulièrement supprimés. Les stocks qui ont été supprimés ne figurent pas dans le pool de stocks que vous avez stratégié, c'est-à-dire qu'une réévaluation du passé utilise uniquement l'information sur les stocks composants actuels, en supprimant l'impact de ceux qui seront supprimés à l'avenir en raison d'une mauvaise performance ou d'une mauvaise performance des actions. Le graphique ci-dessous montre les poids des stocks composants de l'indice européen MSCI comme une performance passée d'un portefeuille.
Figure 2
C'est-à-dire que lorsque l'on utilise les sociétés les plus performantes des 30 dernières années pour faire un bilan, même si certaines sociétés étaient à haut risque de crédit à l'époque, quand on sait qui va survivre, on peut acheter des actions à haut risque de crédit ou en difficulté, avec des rendements très élevés. Si l'on prend en compte les actions qui ont fait faillite, ont été mises en faillite ou qui ont mal performé, on en arrive à l'inverse: les rendements à long terme des investissements dans des sociétés à haut risque de crédit sont bien inférieurs à ceux des sociétés à bon crédit.
Il y a beaucoup de facteurs qui donnent des résultats complètement opposés lorsque l'on considère la déviance des survivants.
Figure 3
Figure 4
Le biais de survie, l'un des sept péchés de la réflexion, est que nous ne pouvons pas prédire quelles entreprises peuvent survivre à un moment donné dans le passé et qui sont encore des composantes de l'indice aujourd'hui, alors que le biais de survie n'est qu'un cas particulier de biais de prospection. Le biais de prospection est le plus courant dans les revues qui utilisent des données qui n'étaient pas disponibles ou publiées à l'époque du revu, ce qui est également l'erreur la plus commune dans les revues.
L'exemple le plus évident de la déviation de la perspective se trouve dans les données financières, où la correction des données financières est plus susceptible d'entraîner des erreurs difficiles à détecter. En général, les dates de publication des données financières de chaque entreprise diffèrent et il y a souvent un retard.
Cependant, lorsque les données point-in-time (PIT) ne sont pas disponibles, les hypothèses de retard des rapports financiers sont souvent erronées. La figure ci-dessous confirme les différences entre les données PIT et les données non-PIT. En même temps, nous obtenons souvent des valeurs finales modifiées lors du téléchargement de données macro historiques, mais de nombreuses données du PIB des pays développés sont publiées après deux ajustements.
Figure 5
Figure 6
Certains préfèrent commencer à raconter des histoires sans aucune donnée, tandis que ceux qui font de la quantification préfèrent raconter des histoires avec des données et des résultats. Les deux situations ont beaucoup de similitudes.
Si l'on revient sur l'indice des actions américaines de composants technologiques et sur l'indice Russell 3000 de 1997-2000 et de 2000-2002, on arrive à la conclusion inverse. Le taux de profit est un bon facteur pour les actions américaines de composants technologiques de 1997-2000 et les résultats des retrospectives sont très crédibles. Cependant, si l'on fait une longue pause jusqu'en 2002, on découvre que l'indicateur de profit n'est plus un bon facteur.
Figure 7
Mais à partir de la performance du marché de l'indice Russell 3000, nous en concluons le contraire, l'indicateur de profit reste un facteur efficace, et on voit que la durée de la sélection et de la réévaluation des poches d'actions a une grande influence sur le jugement de l'efficacité du facteur.
Figure 8
Chaque jour, le marché découvre de nouveaux facteurs positifs et positifs, à la recherche d'un moteur éternel. Les stratégies qui peuvent être publiées sont des réactions positives. Bien que l'interprétation de l'histoire par le narrateur soit très émouvante, ses prédictions sur l'avenir sont peu utiles.
Figure 9
L'exploration de données est aujourd'hui un domaine d'intérêt, basé sur de grandes quantités de données et une puissance de calcul informatisée, où l'on espère souvent obtenir des coefficients d'effet de levier invisibles.
Parfois, l'exploration des données est presque inefficace. Par exemple, nous avons modélisé le S&P 500 avec deux algorithmes de pondération par facteur différents et sélectionné des données de 2009 à 2014 pour le retraitement. Les résultats montrent que le retraitement avec les six facteurs les plus performants de 2009 à 2014 et l'utilisation d'algorithmes de pondération etc. est parfait, alors que le retraitement avec un échantillon de données historiques est linéaire.
Figure 10
Par conséquent, nous devrions tous avoir une logique et une motivation claires lorsque nous construisons des stratégies ou cherchons de bons facteurs, et l'analyse quantitative n'est qu'un outil pour vérifier notre propre logique ou motivation, et non pour trouver des raccourcis logiques. En général, nos motivations pour construire des stratégies ou chercher des facteurs proviennent de la connaissance théorique de base de la finance, de l'efficacité des marchés, de la finance comportementale, etc. Bien sûr, nous ne nions pas non plus la valeur des applications de l'exploration de données dans le domaine de la quantification.
Figure 11
La déclination des signaux se réfère à la capacité de prédire les rendements des actions à long terme après l'émergence d'un facteur. En général, un taux de change élevé et une déclination des signaux sont liés. Différents facteurs de sélection des actions ont souvent des caractéristiques de déclin d'information différentes. Une déclination plus rapide des signaux nécessite souvent un taux de change plus élevé pour tirer profit. Cependant, un taux de change plus élevé signifie souvent un coût de transaction plus élevé.
Comment déterminer la fréquence d'ajustement optimale? Nous devons noter que la contrainte de taux de change serré ne signifie pas une diminution de la fréquence d'ajustement. Par exemple, nous entendons souvent des phrases similaires. Nous sommes des investisseurs de valeur à long terme et nous prévoyons de détenir des actions pendant 3 à 5 ans.
Figure 12
Lorsque nous achetons les 100 stocks les moins performants de la journée à la clôture de la journée, nous vendons les positions passées, nous continuons à négocier quotidiennement, et le taux de rendement est très élevé. L'erreur ici est également la déviation de prospection, et nous ne savons pas quels stocks ont le pire rendement de la journée avant la clôture, c'est-à-dire que nous ne pouvons pas utiliser la stratégie de négociation programmatique. Nous ne pouvons acheter que les 100 stocks les moins performants d'hier à la clôture de la journée.
Figure 13
Les techniques traditionnelles de contrôle des anomalies comprennent principalement la winsorization et la truncation. La normalisation des données peut également être considérée comme une méthode de contrôle des anomalies. La normalisation des données peut avoir des effets significatifs sur la performance du modèle.
Figure 14
Bien que les valeurs d'anomalie puissent contenir des informations utiles, dans la plupart des cas, elles ne le sont pas. Bien sûr, il y a une exception pour les facteurs de dynamisme des prix. Comme le montre le graphique ci-dessous, la ligne bleue est la représentation combinée après la suppression des valeurs d'anomalie et la ligne rouge est les données brutes. Nous pouvons voir que les stratégies de dynamisme des données brutes sont bien meilleures que celles après la suppression des valeurs d'anomalie.
Figure 15
Figure 16
En général, la stratégie la plus couramment utilisée pour faire une stratégie multifactorielle est la stratégie multi-espace, c'est-à-dire faire beaucoup de bons stocks et de mauvais stocks. Malheureusement, tous les facteurs ne sont pas égaux, la plupart des facteurs présentent des caractéristiques de rendement multi-espace asymétriques, ainsi que des coûts potentiels et la faisabilité réelle de faire du vide, ce qui pose également de nombreux problèmes à l'investissement quantifié.
Figure 17
Le blogueur a également publié un article intitulé