Urheberrechtserklärung: Bitte geben Sie die Herkunft an, wenn Sie den Code dieses Artikels übertragen möchten, und für kommerzielle Zwecke, wenn Sie ein Papier schreiben möchten, senden Sie einen privaten Brief oder kontaktieren Sie den Autor unter 940648114@gmail.comqq.com
Quantifizierte Transaktionen sind subjektive Urteile, die durch die Verwendung von Computertechniken anstelle von fortschrittlichen mathematischen Modellen erstellt werden, um eine Strategie zu entwickeln, bei der verschiedene Wahrscheinlichkeitsrisiko-Ereignisse, die zu einem übermäßigen Gewinn führen können, aus den riesigen historischen Daten gewonnen werden, um die Auswirkungen von Stimmungsschwankungen bei Investoren zu reduzieren und unvernünftige Investitionsentscheidungen in extremen Marktrühnen oder Pessimismus zu vermeiden. Aufgrund der Kontinuität des 24-*7-Stunden-Trading-Marktes für digitale Währungen und der Tatsache, dass quantitative Transaktionen die Effekte von Hochfrequenz-Trading erreichen können, ist es offensichtlich ein guter Ausgangspunkt für die Quantifizierung. Derzeit ist der Markt für digitale Währungen noch unreif.
Dieses Modell basiert auf dem Garch-Modell zur Vorhersage von Volatilitäten, das die Vorhersage von Volatilitäten mit dem VaR-Wert der Vorhersage mit Hilfe einer Differentialregression und dann mit Hilfe einer nicht-linearen Regression, wie z. B. GA, anpasst, um die Vorhersage der oberen und unteren Grenzen von VaR für den nächsten Zyklus in der Zukunft zu erstellen.
In diesem Abschnitt werden die Implikationen des strategischen Garch-Kerns erläutert, die in den Finanzmärkten eine gewisse Allgemeinheit haben und in der digitalen Währung eine gewisse Vorhersagewirkung erzielen.
Das Wesen des ARCH-Modells ist, die q-stadial-mobilen Pläne mit einer Restquadratserie zu benutzen, um den aktuellen Differentialfunktionswert anzupassen. Da das bewegliche Mittelmodell eine q-stadial abschließende Eigenschaft hat, ist das ARCH-Modell in der Tat nur für kurzfristige eigenverwandte Differentialfunktionen geeignet. In der Praxis sind aber die Divergenzfunktionen einiger Parametersequenzen langfristig eigenverwandt. Die Verwendung von ARCH-Modellen für die Anpassung von Divergenzfunktionen führt zu hohen gleitenden Durchschnittsstufen, erhöht die Schwierigkeit der Parameterschätzung und beeinflusst letztendlich die Anpassungsgenauigkeit der ARCH-Modelle. Um ein Problem zu beheben, wurde ein generell definiertes eigenregressionsbedingtes Divergenzmodell vorgestellt, das abgekürzt als GARCH ((p, q)). Das GARCH-Modell basiert in der Tat auf ARCH und entsteht durch die Vergrößerung der eigenständigen Regressivität der P-Schicht, die die Divergenzfunktionen berücksichtigt, die wirksam mit langfristig erinnerbaren Divergenzfunktionen kombiniert werden können. Das ARCH-Modell ist ein Exemplar des GARCH-Modells, das das GARCH ((p, q)) -Modell mit p=0 ist.
Definition σn ist, wenn man die Volatilitätsrate des Vermögens in der n-ten Handelszyklen für den n-ten Handelszyklus schätzt, mu ist die Tagesrendite, dann kann man eine unvoreingenommene Schätzung der Rendite für die letzten m Handelszyklen erstellen: $$ Das ist Sigma.n^2= \frac{1}{m-1} \sum\Limits{i=1}^m {({ \mu_{n-i}- \overline{\mu} }) ^2}, $$ Die folgenden Änderungen: 1 wird μn-i in Prozent ersetzt; 2 wird m-1 in m ersetzt; 3 wird angenommen, dass μ = 0, und diese Änderungen haben keinen großen Einfluss auf das Ergebnis. Die Schwankungsrate kann nach der obigen Formel vereinfacht werden: $$ Das ist Sigma.n^2= \frac{1}{m} \sum\grenzenUnd das ist der Punkt, an dem wir anfangen, zu denken. $$ Das heißt, das Quadrat der Schwankungsrate für jeden Zyklus hat ein gleiches Gewicht von 1/m. Da es sich um eine Schätzung der aktuellen Schwankungsrate handelt, sollten die Daten in der Nähe ein höheres Gewicht einnehmen. $$ Das ist Sigma.n^2= \sum\grenzenUnd das ist der Punkt, an dem wir uns befinden. $$ αi ist der Koeffizient des Ertragsquadrats des ersten Handelszyklus i, der positiviert wird und je kleiner der Wert i, desto größer ist die Gewichtungssumme von 1; weiter verbreitet, wird angenommen, dass es eine langfristige Differenzquote VL gibt, mit einer entsprechenden Gewichtung von γ, die nach der obigen Formel erhalten wird:
- Ich weiß nicht. Wir haben ein Problem.n^2= \gamma V{L}+\sum\limits_{i=1}^m { \alpha_i\mu_{n-i} ^2}\ &\ \gamma+\sum\limits_{i=1}^m{\alpha_i\mu_{n-i}^2}=1 & \end{cases} $$ Die Formel ((15) kann so geschrieben werden: $$ Das ist Sigma.n^2= \omega+\sum\LimitsUnd das ist der Punkt, an dem wir uns befinden. $$ Wir können die übliche ARCH ((1) Prozedur nach der obigen Formel erhalten. $$ Das ist Sigma.n^2= \omega+{ \alpha\mu{n-1} ^2}, - Ich weiß nicht.
Das GARCH ((p,q)) Modell ist eine Kombination aus dem ARCH§ und EWMA ((q)) Modell, was bedeutet, dass die Volatilität nicht nur mit den Erträgen vor der p-Periode, sondern auch mit der eigenen vor der q-Periode zusammenhängt und wie folgt ausgedrückt ist: $$ Das ist Sigma.n^2= \omega+\sum\LimitsDie Grenzen der Summe sind die Grenzen der Summe der Summe der Summe der Summe. $$ Nach der oben genannten Formel erhalten wir die üblichen GARCH ((1, 1)): $$ Das ist das erste Mal, dass ich hier bin.n^2= \omega+{ \alpha\muDas ist ein sehr schwieriges Problem. - Ich weiß nicht.
Dieser Bereich wird die grundlegenden Differentialregressionen erläutern und die Bedeutung von strategischen Differentialregressionen beschreiben.
Die Komponentenregression ist eine Modellierungsmethode, mit der eine lineare Beziehung zwischen einer Reihe von Regressionsvariablen X und den Komponenten der interpretierten Variable Y geschätzt wird. Das frühere Regressionsmodell ist eigentlich die bedingte Erwartung der Untersuchung der interpretierten Variablen. Es geht auch darum, zu erklären, wie die Variablen mit den Mittelwerten und Abweichungen der Verteilung der interpretierten Variablen verknüpft sind. Es wurde zuerst von Koenker und Bassett (1978) vorgeschlagen. Die Berechnung der OLS-Regressionsschätzung basiert auf dem Quadrat der minimierten Abweichungen.
Die allgemeine Regressionsmethode ist die minimale Zweifachzahl, d. h. die Quadratsumme der minimale Fehler: $$ Das ist ein sehr schwieriges Problem.Das ist der zweite Teil. $$ Das Ziel der Differential ist es, die absolute Fehlerquote der gewichteten Fehler auf der Grundlage der oben genannten Formeln zu minimieren und: $$ Das ist ein sehr schwieriger Fall.Das ist ein sehr schwieriges Problem. - Ich weiß nicht.
Sie können sehen, dass alle Proben durch die Regressionslinie in verschiedene Räume geteilt werden, und diese Regressionslinie wird auch zur Segmentationslinie.
Es ist natürlich, dass wir uns fragen, ob es möglich ist, mit unbekannten Marktfluktuationssigma und dem Quotienten Q oder VaR eine Regression durchzuführen, um die Fluktuationsschwellen in Zukunft vorauszusagen, und die Branche wird in diese Richtung gehen.
Da es hier um den Kern der Strategie geht, möchte ich eine Form zur Zeit verwenden, um den Gedanken zu verdeutlichen. $$ Wenn Sie die Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta-Zeta $$
Auf der Grundlage der oben genannten Informationen können wir eine Kombination durchführen, um die zu optimierenden Zielfunktionen zu erhalten: $$ \widehat{W}=\mathop{\arg\min_W}\ \sum{[{\alpha(VaR_t-W^TE_t) ^++(1-\alpha) ((W^TE_t-VaR_t) ^+ }]} $$
Der Schritt ist eher wählerisch, die traditionelle Gesteinung ist abgesunken, es gibt auch genetische Algorithmen, mit denen die Leser ihre eigenen Ideen ausprobieren können.Es gibt eine Adresse für den GA-Algorithmus.
Der Kern des GQNR liegt in der Volatilität des Marktes, an jedem aktuellen Zeitpunkt der Periode kann man durch GARCH eine Prognose für die nächste Periode vorhersagen, und auf der anderen Seite kann man durch die Rückkehr der Komponenten der vorhergesagten Volatilitäten der Daten die Ober- und Untergrenze der Schwankungsgrenzen erhalten, die in der Regel nicht überschritten werden. Diese beiden Grenzen sind das Herzstück des Ganzen.
Quantifizierung der ZonenEs ist nicht notwendig, sich an GARCH anzuschließen, denn wenn diese Strategie funktioniert, dann ist es möglich, die Rückführung in die aktuelle Volatilität zu kombinieren, warum die nächste Volatilität vorherzusagen?