13
12

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

ツイートを長期間収集する実験(インフラ準備編)

Last updated at Posted at 2016-10-02

 はじめまして、yuhkan と申します。一応仕事もPGですが、仕事に関係なく趣味のプログラミングネタで書いてみたい&お知恵拝借したいコメントいただきたいと思い、拙いながら投稿させていただきます。
 へっぽこPGのどんくさいやり口から、「ああ、アホはこんな考え方するんだなあ」「もっとまともな方法もあるだろうに、アホなことやってるなあ」とお笑いいただければ幸いです。

自己紹介

  • へっぽこプログラマ。応用情報とれたけど、多分偶然。
  • C → VC++ →C# のWin一辺倒。 IDEが無いと死ぬ。
  • SQLだけは細々長々触り続けてた。
  • ジェネリック、テンプレート、Web技術ほぼゼロ。LINQもさわりだけ。
    学ぶ機会も触る機会もなかった……
  • テキストマイニングとか機械学習とか、そういうのやってみたい。
  • あと、買い専(隠語)。のはずだったが本も作り出した。

コトの経緯

 去年のことになりますが、本(隠語)を1冊作ることになったのです。
 半期に一度のイベント(隠語)用に提供されるデータベースを10年分ほど全部ひとまとめに統合して、同名の店舗(換言)がどの位いるかとか、同名の店舗(換言)がどのカテゴリ(換言)に集まっているかとか、それの年ごとの推移とか、そんな感じの簡単な統計っぽい本ができまして、おかげさまで内輪的には好評をいただきました。
 味を占めたことも有り、次も何かやりたいなあ、次は何をやるかなあ、とかを考えたとき、実のところ、現在の手持ちデータでそれ以上書けるネタが無いな、 と言う事に気づきました。

  1. あまり深いところに突っ込むと恨みを買うかも知れない。
  2. 過去のデータをほじくり返しても限度がある。
  3. この冬、カテゴリ(換言)分類に大変更があって、過去との互換性が無くなった

 特に3番目の問題が大きく、来期以降のデータで「過去との比較」が出来なくなってしまったのが大きな問題です。元ネタのデータベース自体は、基本的に半期の提供ごとで独立のもの、というタテマエなので、構造やらなにやら、すべてがいきなり切り替わっても文句つけるわけにもいきません。
 手持ちのネタでどうにかするのは早々に諦めることに。じゃあ、何をするかな、とか考えていて、以下のようなかんじに。

  1. 店舗(換言)の紹介や宣伝は、データベース(換言)上のそれはすでに時代遅れ気味。
  2. 最近はほとんどがTwitter上で行われており、最新情報を得るなら店主(換言)をフォローしておくのが常識である
  3. 当然、話題になる店舗(換言)の情報もTwitter上に集まる。期間(換言)中のアレコレの事象情報も、とんでもない量が集まるはずである
  4. これは、テキストマイニングのネタ(自習教材としても、本のネタとしても)として最適では無いか?

 そんな理由から、見切り発車気味に**「Twitterのツイートを取得して分析する」**を次の本の主題にすることに決めました。
期間前後を挟んで情報を取得するため、冬は本作るの中止。結果発表は5月(隠語)ねらいにするかな。

やりたいこと

  1. TwitterのPublic Streamから、特定のワードを含むツイートを(API仕様の範囲で)全部取得する。期間は3ヶ月。
    2. インフラ準備 <- Now!
    3. プログラム準備
    4. 動作テストと動作
  2. 取得したデータを解析したりして、何か愉快なネタが出来ないか探す

基礎調査

 まず、「いつまでに」「何が出来ること」「どの程度動く必要がある」あたりを、検討する必要があります……あるよね?

  • とりあえず、10月後半にある当選発表(隠語)段階から情報の取得を行いたい。
    取得の終了は会期終了後2週間程度、1月10日以降とする。
  • 後からの分析に際して、何が必要な情報になるかわからないので、「送られてくるものは全部保存」する。 
  • 概ね3ヶ月(10月後半~1月前半)間、取得を一切止めたくない。ずーっと動き続けているのが理想。

 当選発表(隠語)は10月末なので、それまでに取得部分だけはすべて作る必要があります。
逆に、分析等の処理については後回しにして問題無い、と言えます。
 何でもかんでも保存する、という方針を踏まえると、ストレージの容量についてはかなり重要な用件になります。
 また、24h/365d稼働(実際には90日連続で動けば良い)のために、ハードについても検討しなければいけません。

 もっとも個人の趣味でやることですから、24h/365dなんて基本的に保証出来るモノでも無いですし、無理無茶無謀にならない範囲でやる、というのが大前提になります。

どの位の容量が必要?

 なんにせよ、具体的にストレージがどれだけ必要かを推定する必要があります……あるよね?
 実運用のことはおいておいて、ひとまずCoreTweetを使って、ツイートを取得、JSON形式のデータをSystem.Data.SQLiteをつかって、Sqlite形式のDBにINSERTし続ける、という実証実験用プログラムを作りました。

 順番前後しますが、検討の段階でREST形式での取得は早々に切り、Public Streamから取得することに。API制限にかかって死んだ、とか、絶対起こるだろうし……

        private void btnConnect_Click(object sender, EventArgs e)
        {
            // 前処理省略
            StreamingConnection = token.Streaming.FilterAsObservable(track: txtKeyword.Text)
	            .Where((StreamingMessage m) => m.Type == MessageType.Create)
                .Cast<StatusMessage>()
	            .Subscribe((StatusMessage m) => this.addData(m));
            // 後処理省略
        }
        private void addData(StatusMessage src)
        {
            // 前処理省略
            using (SQLiteCommand com = conn.CreateCommand())
            {
                com.CommandText = "INSERT INTO Tweets( json) VALUES(@jsonv)";
                com.Parameters.Add("jsonv", System.Data.DbType.String);
                com.Parameters["jsonv"].Value = src.Json.ToString();
                com.ExecuteNonQuery();
            }
            // 後処理省略
        }

(初めてさわったReactive Extensionてのがえらい便利。)

 ひとまず本来想定しているキーワードに近しいとあるキーワードで1日動かしてみたところ、2万ツイート、200MB/日という結果が出ました。
(公式RT含む。というか、RT9割、ツイート1割だった)

  • 単純な想定として、90日取得したら180万ツイート、1.8GB必要になる。
  • が、なんのイベントも無い平常時の1日のツイート量を見て、「これだけあれば足りる」とは言えない。
    そもそも、今回のキーワードは本来想定のキーワードの内に含まれるワードなので、より多いツイートが流れるはず(当然の推測)
  • 今回取得したキーワードのカテゴリ(換言)の店舗(換言)数は、全体の店舗(換言)数からみて10%未満。
    ただし、Twitterで情報発信していない店舗(換言)の率を想定に入れると、2割程度と推定できる(過去のデータからの推測)
  • 最大ピーク時はさらにその倍は押し寄せる可能性がある。ただし、その時間は2時間は続かないだろう(経験則)。
  • ただし、店舗(換言)よりも客(換言)の数の方が10倍以上多い。ずっとつぶやき続ける人はいないだろうから、全体で均して2倍程度になる、と推定する(希望的観測)

 以上の想定にマージンを加え、2000万ツイート、200GBを保存する、という前提で進めることにしました。 (10/05変更:単純な計算が間違ってました(死 20GB→200GB)
 1日/1ヶ月単位に均せば、プロバイダ転送量の制限とかにはかかりそうに無いのが救いです。最大ピーク時でも、問題なし。

どこに保存する?

 これがお仕事なら、AzureだのAWSだの、クラウドストレージにしようぜ、とスナック感覚で言う(そして後から頭を抱える)所ですが、200GBぶち込んで、場合によってそこで計算とか、お金の足りない個人ではパケ死では済まない話になりかねないのでとりあえず却下。
 幸い、手持ちの機材の中に高機能NASのQNAP TS-451がありました。中のOSは実質Linuxで、1年ほど稼働させてみてもフリーズとか起こさない、大変優秀なストレージ。空き容量もテラ単位で残ってるから安心だし、UPSも繋いでるから回線ごとぶち切れなければ大抵のことにはなんとかなりそうです。
バックアップだの障害対処だのを始めたら、個人でなんとかなる範囲を超えるので妥協。

 TS-451の利点として、いろんなソフトを追加導入して、機能を増やせる、というのがあります。容量上、データベースの利用は規定事項なので、DBについてもついでに選定。

  • サンプルに使ったSQLiteはファイルベースなので、経過の外部観察(複数クライアントの同時接続)が出来ないので却下。
  • MySQLはダメではないが、QNAPのOSにも結びついているので、お遊びのデータ格納に使いたくない。
  • せっかくJSONで取得するのだから、そのまま加工が出来るのが理想。
  • あと、日本語でのサンプルが多いこと。(重要)。

 以上の理由から、方々ググりまくって、MongoDBを利用することにしました。QNAPの機能として、MongoDBを追加することも出来たのですが、なにやら不可思議な不具合が発生したため、Dockerのコンテナを動かすことが出来る「Container Station」という機能で、Docker上でMongoDBを動かすことに。検討の際にはこちらのサンプルが参考になりました。1000万件登録したり処理したりとものすごい高速のようなので、これならさらにその2倍ぶち込んでも大丈夫そう。

どうやって保存する?

 個人での情報収集に際し、転送量の問題はなしストレージの問題もなしデータベースも準備OK。一番のハードルになりそうな、インフラ周りの箇所はクリアしたと言える……んじゃないかな。

 次にやらなきゃいけないのは、収集用のプログラム(実運用)な訳ですが……

  • 24h動かしっぱなしに出来るWinマシンが手元に無い
  • Windows Updateとかいきなり動いて再起動死とか目も当てられない(対策は出来るが)
  • DBサーバとプログラムを動かすマシンを分けると、宅内LAN内でデータが行ったり来たりして、普段のスループットに影響が出る

 Dockerも動くことだし、NAS上でプログラムを動かすことにしましょう。テキストマイニングとか始めるなら、技術資料もサンプルも多いのはPythonだなあ。こりゃあ、Python使わざるを得ない。

 ……ん? でも自分、Pythonとかさわったこともないのだけども……

 最初のリミット、当選発表(隠語)まで3週間……。
(続く)

13
12
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
13
12

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?