0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

AIでデータ分析-データの前処理(18)-欠損処理:欠損率の高い列をまとめて削除する

Posted at
  • AIでデータ分析-データの前処理(18)-欠損処理:欠損率の高い列をまとめて削除する
  • 用いるデータの紹介
  • AIの活用
  • まとめ

AIでデータ分析- データの前処理(18)-欠損率の高い列をまとめて削除する.png

AIでデータ分析-データの前処理(18):欠損率の高い列をまとめて削除する

このノートは、データ分析においてAIを使って何ができて何ができないかを検証するために、実際に試した結果をまとめたノートです。

今回はデータの前処理でよく行われるチェックリスト18:欠損率の高い列をまとめて削除する をAIを用いて行ってみたいと思います。

AIを用いることでいかに効率化できるのか、体験していただければと思います。

所要時間は10分ほどとなっています。

それでは、さっそく始めていきましょう!

データの紹介

今回用いる前処理練習用のcsvデータです。

サンプルデータはこちらから、チェックリストはこちらからダウンロードできます。

1行が1訪問を表すデータになっています。

スクリーンショット 2025-11-26 1.00.25.png

AIの活用:geminiを活用

18-欠損値処理:欠損率の高い列をまとめて削除する

スクリーンショット 2025-12-06 4.38.00.png

スクリーンショット 2025-12-07 3.01.56.png

まずは欠損の状況をヒーマップと棒グラフを確認しておきます。

スクリーンショット 2025-12-05 3.32.34.png

欠損値は特定の列でのみ発生していることが確認できます。

スクリーンショット 2025-12-05 3.37.40.png

欠損値の発生している列はどの列か、それぞれ約250行ずつ欠損値が発生していることが確認できます。

それではこれに対しタスクの通りgeminiに依頼してみます。

スクリーンショット 2025-12-07 3.01.28.png

結果を確認します。

スクリーンショット 2025-12-07 3.02.56.png

全体の行数と各列で欠損値の発生している列の割合から考えても今回は明らかに欠損率70%を超える列はないため、タスクに対し正しく処理できていることが確認できます。

まとめ

今回は前処理練習用のデータに対し、前処理チェックリスト(18):欠損率の高い列をまとめて削除する をAIを用いてできるか試しました。

結果はAIで代替できることを確認することができました。

AIでできることとできないことを把握し、うまく活用することで、データ分析もかなり効率化できそうですね!

AIでデータ分析-データの前処理(18):欠損率の高い列をまとめて削除する は以上となります!

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?