1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

G検定で得た知識をAidemyのデータ分析講座で実体験した1ヶ月

Posted at

どうもこんにちは。平凡なITコンサルタントです。
世間を賑わせているAI。身近にあるイオンでもカメラの映像を活用して、きめ細かい接客のサービスを行うようになるそうです。
イオンに「AIカメラ」 客が止まると→解析、接客促す

それほどまでにAIは単なる優秀な技術にとどまらず、実用化の段階に至っています。

今回の記事では、そんな時代の流れに取り残されないように、AIプログラミングスクールであるAidemyさんのデータ分析講座を受講した奮闘記をお送りいたします。

・AIには興味があるけどなかなか足を踏み出せない
・AIをやってみたいけど、プログラミングに苦手意識があって躊躇している
・文系人間がついていけるのか不安

という方にぜひ読んでいただきたい内容となっております。

##これまでの軌跡と避けられなくなったプログラミングの壁
私はこんなキャリアを歩いてきました。

・小学生~高校生:野球一筋10年。
・大学生:経済学部で会計ゼミに所属。新聞奨学生として新聞配達業務を4年間勤めあげる。
・社会人:製造業社内コールセンター業務と管理(WindowsPC/NW窓口)~監視システム(JP1)の自動化推進~社内ファイルサーバ一元化の運用導入~AWSを活用したインフラ構築・基幹システムのAWS移行~親会社変更に伴うインフラ移行PMO~ウイルス対策ソフト(SEP)のシステム構築・バージョンアップ

ご覧いただいてお分かりのように、典型的な文系人間で、新卒からIT畑でキャリアを積んできたものの、プログラミング関連は正直避けてここまでやってきました。

そんな時にやってきたのがAIの波です。社内ではDXを推進する部署が設けられ、新聞では頻繁にAIに関するニュースを見かけるようになりました。

今のままでは時代から取り残されてしまう。。

これが私が抱いた危機感でした。

私の仕事はプロジェクトの管理がメインなので、まずはAIのプロジェクトを任されても困らないように知識をつけようと、G検定の合格を目指しました。

会社の研修制度を活用して受講したものが、SkillUp AIさんの
AIジェネラリスト基礎講座(G検定対応)です。
AIジェネラリスト基礎講座(G検定対応)

コロナの流行ということもあり配信講座を受けましたが、なんとかG検定に合格できました。

ところが、、、

社内のAI有識者に相談すると「簡単にモデルを検証できるくらいの技術力がほしいな」というお言葉が。。

とうとう避け続けていた「プログラミング」という壁に対峙する時がやってきました。やるならとことんAIプログラミングを学びたいと思い、いろいろと講座内容を吟味した結果、受講したのがAidemyさんのデータ分析講座でした。
Aidemyさんのデータ分析講座

##毎日触れ続けたAIプログラミングの振り返り
2021年5月中旬から受講を開始しました。完了までに各週でやってきたことや所要時間などをご紹介していきます。

####1週目:25時間
■受講したカリキュラム
・Python入門
・【新】ライブラリ「NumPy」基礎(数値計算)
・ライブラリ「Pandas」基礎(表計算)
・ライブラリ「Matplotlib」基礎(可視化)

いきなりトップギアでどんどん受講していきました。Python入門ではプログラミングの基礎的なところを学び、Numpyから本格的に未知の世界に突入していきました。

G検定の勉強の際に、「AIは行列をよく使います」というお話をよく聞いていましたが、実際にプログラミングで実装するとこうなるというのがNumpyでした。Pandasでは取り込んだデータを柔軟に使いこなし、MatplotlibではまるでExcelを使っているかのように、グラフやヒストグラム、散布図などを綺麗に表示することができることを知りました。

####2週目:25時間
■受講したカリキュラム
・データクレンジング
・データハンドリング
・機械学習概論
・教師あり学習(回帰)
・教師あり学習(分類)

機械学習概論はG検定の復習という位置づけにしていましたが、その他はG検定で学んだ手法を実際にプログラミングで動かすとどうなるのか?を教えてくれた講座となりました。

なかでもデータクレンジングの添削問題には苦労しましたが、理解できると納得感が大きかったです。G検定講座の中で「画像を準備することが難しい場合は、回転させたりぼかしたりして枚数を増やす」と聞いていました。それを実際に行ったのが添削問題でした。

①元画像 = 1枚
②flip で画像の左右反転 = 2枚(①1枚+②1枚)
③threshold で閾値処理 = 4枚(①1枚+②1枚+③2枚)
④GaussianBlur でぼかし = 8枚(①1枚+②1枚+③2枚+④4枚)
⑤resize でモザイク = 16枚(①1枚+②1枚+③2枚+④4枚+⑤8枚)
⑥erode で収縮 = 32枚(①1枚+②1枚+③2枚+④4枚+⑤8枚+⑥16枚)

このように元画像1枚から5種類の処理を施すことで32枚まで増やすことができます。

####3週目:13時間
■受講したカリキュラム
・教師なし学習
・時系列解析Ⅰ(統計学的モデル)
・機械学習におけるデータ前処理
・ディープラーニング基礎

時系列解析の最初のイメージは、過去のデータを単純に読み込ませて未来を予測させるものかと思っていました。ただふたを開けてみるとそんな単純なものではなく、値の変動や季節起因によるものがあればそれを取り除く変換が必要でした。

AIといえば予測モデルがぱっとイメージに出てくるかと思いますが、モデルの登場はあくまで最後の方で、それまでの過程も同じくらい大事なものなのですね。

####4週目:13時間
■受講したカリキュラム
・自然言語処理基礎
・感情分析/株価予測
・タイタニック(kaggleのコンペ)

最後はかなり実践的な内容となりました。自然言語処理では、形態素解析用の辞書を使って品詞分解をしたことなどを土台に、感情分析ではツイートの内容からポジティブなのかネガティブなのかを数値化し、その内容を株価予測につなげていきました。

タイタニックのコンペでは、予測モデルを作成していく過程を学ぶことができました。まずはデータの内容を理解し、欠損値がないもので特徴量に相関が無いか調べます。微妙な相関であっても、結合して新たな特徴量を作成してしまう方法もありです。不要な特徴量は削除して、欠損があるデータは最頻値や中央値を使って補い、予測に有効となりそうな特徴量を切り出したり、分割したりして新たに作り出します。

こんな過程を追っていくと、モデルを作る前のデータを準備する段階が、結構重要だということがよくわかりました。

####残り2ヶ月の過ごし方と今後
実はAidemyさんのデータ分析コースの期間は3ヶ月なので、残り2ヶ月残っています。その2ヶ月間も引き続き、講座を受けまくりたいと思っています。まだ受講していない講座の中でも、とても気になるものが数多くあります。今後のAIプロジェクトの時に、AI有識者と具体的なイメージをもって会話できるようになるためにも、できるだけ多くの知識を詰め込んでおきたいと思っています。

このコースが終わる8月中旬以降は、来年2月頃にあると予想されるE資格の受験を目指す予定です。そのためには苦手な数学の克服が不可欠なので、イチから数学を学びなおしてE資格認定講座を受講し、E資格受験に臨みたいところです。

そして来年4月頃からAIのプロジェクトに携わることができれば御の字ですね。その時に備えてまだまだ頑張ります!

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?