昨日の記事でjupyter上からマジックコマンドchat gptを利用できるようになったので,コードを書かずにどこまで機械学習モデルを構築できるのか実験してみました.
実験の目標は機械学習の入門でよく使われるデータであるタイタニック号の生存者を予測する2値分類モデルを3種類(xgboost,lightgbm,catboost)構築しそれぞれの精度を比較するところまでにしようと思います.
STEP1 データのダウンロード
まずはタイタニックのデータをダウンロードする関数を作ってもらいます.
回答をそのまま実行すると..
早速エラー.
どうやら古いバージョンを想定したコードを返してきた模様.エラー改修してもらいます.
できた!!これだけですごく感動してしまう...
STEP2 モデル構築・結果確認
次にダウンロードした.データに対して,必要な前処理をよしなに実施し,学習モデルの構築精度検証までを実装するコードを書いてもらう.
得られた回答はこちら
上記のコードだとデータに存在しないカラムがあるためエラーが出てしまうのだが,ここで,コンテキストの上限に達成したため,%%ai_continue
を使えなくなってしまう..
そのため,カラム名のエラーなどを人力で解決せざる終えなくなってしまった...完全ノーコードならず...
仕方なく少しの修正施しエラーを解消し実行した結果が下記
catboostの精度が最も良かった模様.
感想
- やはりGPTはすごい!!エラーが多少あるとはいえ,トータルで見てもかなりコーディングスピードが上がる
- ただ,現状jupyterのマジックコマンドを使用する必要性はそこまで感じられない.一番のボトルネックが
%%ai_continue
の制限にすぐ到達してしまうことだ.コードが途中段階の場合は以降のコードを自力で作成する,もしくは新規の会話で再度目的と進捗を報告し,続きを実施してもらうなどの処理をしなければならず,windowを行き来する不自由さを許容してでもchatgptのwebサイトとノートブックを跨いでやった方が生産性は圧倒的に高い.
ガッツリGPTにコード任せたいときはchatgptのwebページ, ちょこっと何か聞きたい時にはマジックコマンドという形の使い分けが現状のベストだと思う