7
6

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

1日10時間株価予測AIを作り続ける 3か月目

Posted at

前前回の記事:1か月目
前回の記事:2か月目
##3か月目
2か月目まででかなり多くの問題に直面してきました。
一つのAIの予測精度を最大化するのは限界がありそうです。
そこで、そこからさらに予測精度を上げることができるかもしれない方法を思いついたのでここに書き記します。

##AI多数決理論
その方法は簡単で、まずいくつかの良いAIを作ります、AIの数は奇数が望ましいです。その後集めたAIで多数決を取り最終決定を下します。そもそも一つのAIの中でも多くの場合多数決で予測を決めているという側面があり、実際に複数のAIを集めて判断させることで効果があるのかどうかは疑問ですがとにかくやってみましょう。
 問題点は、集められたAIがおそらく多様性に富んでいる必要があり、加えてある程度の数が必要だということです。
 今月の目標は色々なデータを使って高性能な予測AIをいくつか作ることでした。
##学習にあたっての問題点
 データを学習させるにあたって問題点が二つあります。
一つは過学習、もう一つの問題点は予測の偏りです。例えば0を上がる、1を下がると定義した場合、今までのモデルでは0を多く出力する(全ての予測の内0が70~100%を占める)問題が頻発しました。
これらの問題の難しいところは、過学習の問題を解決しようとすると予測の偏りが生じ、反対もまたしかりということです。
この問題には主に以下の3つの変数が関与していました、1. Normalization Layers(正規化層)の設定の強さや層の数。2. エポック数。3.選択するOptimizer
また、学習過程以外で結果に影響する要素は4.データの構造や質など。そして 5.モデルの構造が挙げられます。
##AI研究について 
稀に良い上記の変数の組み合わせを偶然に発見し、結果として悪くないまたはとても良いAIを手にすることができます。
 深層学習は、ただデータを学ばせればいいというだけではなくその過程で色々な調整や試行錯誤が必要で、ここに研究余地やAIを作るライブラリ側の向上余地があるのだろうとわかりました。
 今までに3種類のAIを作りましたが1番目のAIに比べて2番目3番目に作ったAIの性能がずば抜けて良く、1番目のAIを議会から追放することを検討中です。
#AI_No.2
image.png

2つめに作ったAIの性能です。
アメリカの主要企業500企業の2000年からの全株価データ(43707個)に対して65.6%の予測精度を持ち、また0(株価が上がるとする予測)の出力比率は57%であり特に問題がありません。そして予測が完全にランダムだった場合に期待される精度が51.56%なことからもかなり強力に予測が可能である事が示唆されています。

##今後の方針
三つあれば多数決は成立するので現実の株式市場で検証をするためのコードを書こうと思います。

7
6
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
7
6

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?