金融界で最も恐ろしい敵の一つとして見られているオリンガを倒すために,今日,我々は全力を尽くします.
金取引の利回りを予測しよう. 断言しておきますが,ランダムな賭けを倒し,50%の確率で勝とうとするオリンゴでさえ,難しいことです. 私たちは,ベクトル分類者をサポートする即興の機械学習アルゴリズムを使用します.SVMベクトルマシンは回帰と分類の問題を解決するための信じられないほど強力な方法です.
SVMベクトルマシンは,超平面対p次元特征空間を分類できるという考えに基づいている.SVMベクトルマシンのアルゴリズムは,超平面と識別の限界を使用して分類決定の境界を作り出す.
最も単純な場合,線形分類は可能である. アルゴリズムが意思決定境界を選択し,クラス間の距離を最大化することができる.
ほとんどの金融タイムシーケンスでは,単純な,線形分離可能な集合はめったに見られないが,分離できない集合はよくある.SVMベクトルマシンは,ソフト・マージン・メソッドと呼ばれる方法を実装することでこの問題を解決した.
この場合,いくつかの誤差分類は許容されるが,C (費用または予算の誤差が許容される) と対比する因数と誤差の境界までの距離を最小限にするために,それらの自己が関数を実行する.
基本的には,機械は,C加重の罰項を最小限に抑えながら,分類間隔を最大限にする.
SVM分類器には,決定境界の位置と大きさは,決定境界に近い部分のみによって決定されるという素晴らしい特徴がある.このアルゴリズムの特性により,離れている間隔の異常値への干渉に抵抗できる.例えば,上の図の右端にある青い点が,決定境界にほとんど影響しない.
面白いのは始まったばかりだと思う.
赤い点と他の色の点を区別する場合は,次の場合を考慮してください.
人間の目で見れば,分類は簡単である (円形線でもいいだろうが),機械では違う.明らかに,直線にはできない (直線が赤い点を切り離せない).ここで,私たちはカーネルトリックを試してみることができます.
核技は非常に賢い数学技術で,高次元空間で線形分類問題を解くことができます. では,どのようにするか見てみましょう.
2次元特征空間を3次元に変換する.分類を完了して2次元に戻る.
グラフの図面は,図面の図面の図面と,図面の図面の図面です. 図面の図面は,図面の図面です.
一般的に,d 入力がある場合,d 次元入力空間から p 次元特征空間へのマッピングを使用できます.上記の最小化アルゴリズムを実行すると生成されるソリューションを実行し,元の入力空間の p 次元超平面に戻します.
上記の数学的な解の重要な前提は,特征空間で良い点サンプルセットを生成する方法に依存する.
これらの点サンプルセットは境界最適化を実行するためにのみ必要であり,マッピングは明確である必要はない.高次元の特征空間における入力空間の点は,核関数 ((と点のメルサー定理の助けにより) によって安全に計算できる.
例えば,超大きな特異空間で,あなたの分類問題を解きたいとします. 大きさは10万次元です. あなたは,あなたが必要とする計算能力を想像できますか? 私は,あなたがそれを行うことができるかどうか非常に懐疑的です.
今,私たちはジェフを倒す予測能力の挑戦に備えています.
ジェフは通貨市場の専門家で,ランダムな賭けをすることで,次の取引日の収益率を予測する信号として50%の予測精度を得ることができます.
私たちは,現物価格のタイムシーケンスを含む異なる基本的なタイムシーケンスを使用します. 55の機能で,各タイムシーケンスで最大10lagsの収益を上げます.
私たちが作ろうとしているSVMベクトルマシンは,3度内核を使用します. 適切な内核を選択することは,CとΓパラメータを校正するために,3倍クロス検証を可能なパラメータ組み合わせのグリッド上で実行し,最高のセットが選ばれることを想像することができます.
海外のメディアは,この事件を非難している.
線形回帰もSVMベクトルマシンもジェフに勝っていることがわかります. 結果は楽観的ではありませんが,データから情報を得ることもできます.
クロス検証後,データセットは訓練され,テストされ,訓練されたSVMの予測能力を記録し,安定したパフォーマンスを維持するために,各通貨を1000回間ランダムに分割することを繰り返します.
このように,SVMは,いくつかの場合,単純な線形回帰よりも優れているようですが,表現の差は少し高い.例えば,ドル対日元では,平均で予測できる信号は,総数の54%を占めています.これはかなり良い結果ですが,もっと詳しく見てみましょう!
テッドはジェフのいとこで,もちろんゴリラですが,ジェフよりも賢い. テッドは,ランダムな賭けではなく,訓練サンプルセットを注視している. 彼は常に訓練セットの最も一般的な出力から
私たちが見たように,ほとんどのSVMの表現は,分類が以前と同じになる可能性が低いという事実から来ている.実際,線形回帰は特征空間から何も得ることができないが,回帰では切断が意味があり,切断と
少し良いニュースは,SVMベクトルメーカーはデータからいくつかの追加の非線形情報を得ることができ,予測の精度を2%に提示することができたことです.
しかし,SVMベクトルマシンにはそれ自身の主要な欠点があり,それをはっきりと説明することはできません.
この記事へのトラックバック一覧です. 微信の公開号より転送
ゴールデン9966野蛮な