1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

AIエンジニアへの道:データ操作からAIをマスターする30日間ロードマップ - 10日目

Last updated at Posted at 2025-07-17

10日目:データの特徴を可視化する!次元削減(PCA, t-SNE)の活用

皆さん、こんにちは!AI学習ロードマップ10日目を迎えました。これまでの学習で、AIモデルがデータをどのように扱うか、そして画像認識のCNNといった高度なモデルの入り口に触れてきました。

今日は、AIプロジェクト、特にデータ探索(EDA)やモデルの解釈において非常に強力なテクニックである「次元削減(Dimensionality Reduction)」について学びます。データが多数の特徴量(高次元)を持つ場合、それを直接可視化したり理解したりするのは困難です。次元削減は、データの重要な情報を保ちつつ、次元数を減らすことで、この課題を解決します。

特に、データ可視化の目的で頻繁に使われる「PCA(主成分分析)」と「t-SNE(t-distributed Stochastic Neighbor Embedding)」の2つの主要な手法に焦点を当て、それぞれの原理、メリット・デメリット、そしてPythonでの実装方法を、豊富なコード例とともに解説していきます。

10日目:データの特徴を可視化する!次元削減(PCA, t-SNE)の活用 - visual selection.png


1. なぜ次元削減が必要なのか?

AIモデルを訓練する際、特徴量の数(次元)が多すぎると、いくつかの問題が発生します。

  • 次元の呪い (Curse of Dimensionality): 高次元空間では、データが非常に疎になり、モデルが意味のあるパターンを学習するのが困難になります。必要なデータ量が次元数の増加に伴って指数関数的に増大するため、過学習のリスクも高まります。
  • 計算コストの増加: 特徴量が多いほど、モデルの訓練にかかる計算時間やメモリ使用量が増加します。
  • 可視化の困難さ: 人間は通常、2次元または3次元までしか直接可視化できません。特徴量がそれ以上になると、データの全体像を把握するのが極めて難しくなります。
  • モデルの解釈性の低下: 特徴量が多いと、どの特徴量がモデルの予測にどれだけ貢献しているかを理解するのが難しくなります。

次元削減は、これらの問題を解決するために、元のデータの情報を最大限に保持しつつ、より少ない数の新しい特徴量(低次元空間への写像)に変換する技術です。特にデータ可視化においては、高次元データを2次元や3次元に圧縮し、散布図などでプロットすることで、データの構造やクラスター、外れ値などを視覚的に発見するのに役立ちます。


2. PCA(主成分分析):線形次元削減の代表

PCA (Principal Component Analysis) は、最も広く使われている線形次元削減手法です。データの分散が最大になる方向(主成分)を見つけ出し、その方向にデータを射影することで次元を削減します。

2.1. PCAの原理

  1. データの中心化: 各特徴量の平均を0にします。
  2. 共分散行列の計算: 各特徴量間の共分散を計算し、共分散行列を作成します。
  3. 固有値分解: 共分散行列の固有値と固有ベクトルを計算します。
    • 固有ベクトル: データが最も分散する方向(主成分)を示します。
    • 固有値: その主成分方向におけるデータの分散の大きさを表します。
  4. 次元削減: 固有値の大きい順に主成分を選択し、元のデータをこれらの主成分軸に射影することで、次元を削減します。例えば、上位2つの主成分を選択すれば、データを2次元に削減できます。

2.2. PCAのメリット・デメリット

  • メリット:
    • 実装が比較的シンプルで高速です。
    • 線形変換であるため、変換後の特徴量(主成分)が元の特徴量の線形結合として解釈しやすい場合があります。
    • データの分散を最大化するように次元を削減するため、情報の損失が少ないです。
  • デメリット:
    • 非線形なデータ構造を持つ場合、その構造をうまく捉えられないことがあります(線形変換のため)。
    • 変換後の主成分が、必ずしも人間にとって意味のある特徴量として解釈できるとは限りません。

2.3. Pythonでの実装例 (scikit-learn)

PCAは、データの可視化だけでなく、前処理としてモデルに投入する特徴量を減らす目的でもよく使われます。

from sklearn.decomposition import PCA
from sklearn.preprocessing import StandardScaler
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns

# サンプルデータ生成 (例: 5つの特徴量を持つ100個のデータ点)
# 複数のクラスが混在しているイメージで、あえてクラスごとに少し異なる分布を作成
np.random.seed(42)
num_samples = 100
num_features = 5

# クラス1 (50点)
X1 = np.random.normal(loc=[0, 0, 0, 0, 0], scale=[1, 1, 1, 1, 1], size=(50, num_features))
y1 = np.zeros(50)
# クラス2 (50点)
X2 = np.random.normal(loc=[5, 5, 5, 5, 5], scale=[1, 1, 1, 1, 1], size=(50, num_features))
y2 = np.ones(50)

X = np.vstack((X1, X2))
y = np.hstack((y1, y2))

df = pd.DataFrame(X, columns=[f'feature_{i+1}' for i in range(num_features)])
df['target'] = y

print("--- サンプルデータ (高次元) ---")
print(df.head())
print(f"データの次元: {df.shape}")

# データのスケーリング (PCAの前には必須)
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)

# PCAの適用 (2次元に削減)
pca = PCA(n_components=2)
X_pca = pca.fit_transform(X_scaled)

# PCA後のデータをDataFrameに変換
df_pca = pd.DataFrame(data=X_pca, columns=['Principal Component 1', 'Principal Component 2'])
df_pca['target'] = y

print("\n--- PCA後のデータ (2次元) ---")
print(df_pca.head())
print(f"PCA後のデータの次元: {df_pca.shape}")

# 寄与率の確認
print(f"\n各主成分の寄与率: {pca.explained_variance_ratio_}")
print(f"累積寄与率: {pca.explained_variance_ratio_.sum()}")

# PCA結果の可視化
plt.figure(figsize=(8, 6))
sns.scatterplot(
    x='Principal Component 1',
    y='Principal Component 2',
    hue='target',
    palette='viridis', # カラーマップ
    data=df_pca,
    s=70, # マーカーサイズ
    alpha=0.7 # 透明度
)
plt.title('PCA of Sample Data (2D Projection)')
plt.xlabel(f'Principal Component 1 ({pca.explained_variance_ratio_[0]*100:.2f}%)')
plt.ylabel(f'Principal Component 2 ({pca.explained_variance_ratio_[1]*100:.2f}%)')
plt.grid(True)
plt.show()

グラフを見ると、PCAによって高次元のデータが2次元に圧縮され、異なるクラスのデータが視覚的に分離されていることがわかります。explained_variance_ratio_で各主成分が元のデータの分散をどれだけ説明しているか(寄与率)を確認できます。


3. t-SNE:非線形次元削減とクラスタリングの可視化

t-SNE (t-distributed Stochastic Neighbor Embedding) は、PCAとは異なり、非線形な次元削減手法です。特に、高次元空間でのデータの「近傍関係」を低次元空間でも維持するように設計されており、クラスタリング構造の可視化に非常に優れています。

3.1. t-SNEの原理

t-SNEは、主に以下のステップで動作します。

  1. 高次元空間での類似度計算: 各データ点間の類似度(距離の近さ)を、ガウス分布を用いて確率的に計算します。近い点は高い確率、遠い点は低い確率となります。
  2. 低次元空間での類似度計算: 同様に、低次元空間(例えば2次元)に配置されたデータ点間の類似度を、より裾の長いt分布を用いて確率的に計算します。
  3. 類似度の維持: 高次元空間での類似度と低次元空間での類似度が可能な限り一致するように、低次元空間におけるデータ点の位置を最適化します。これにより、高次元で近かったデータ点は低次元でも近くに、遠かったデータ点は遠くになるように配置されます。

3.2. t-SNEのメリット・デメリット

  • メリット:
    • 非線形なデータ構造や複雑なクラスター構造を非常に効果的に可視化できます。
    • 特に、高次元データの潜在的なクラスタリングパターンを発見するのに優れています。
  • デメリット:
    • 計算コストが非常に高く、大規模なデータセットへの適用には時間がかかります。
    • 新しいデータ点に対して直接変換を適用することができません(訓練データ全体で再計算が必要)。
    • ランダムシードによって結果が多少変動することがあり、解釈が難しい場合があります。
    • クラスター間の距離そのものには意味がなく、クラスターが「存在する」という事実が重要です。

3.3. Pythonでの実装例 (scikit-learn)

t-SNEは、データのクラスタリングや、異なるクラスの分離状況を可視化する際に特に有用です。

from sklearn.manifold import TSNE
from sklearn.preprocessing import StandardScaler
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns

# PCAと同じサンプルデータを使用
# X, y はPCAの例で定義されたものを使用
# X_scaled もScalerで標準化済み

# t-SNEの適用 (2次元に削減)
# n_components: 削減後の次元数
# perplexity: 各データ点の有効な近傍点の数を表すパラメータ (通常5〜50, データサイズで調整)
# n_iter: 最適化のイテレーション回数
# learning_rate: 学習率
# random_state: 結果の再現性のため
tsne = TSNE(n_components=2, perplexity=30, n_iter=300, learning_rate='auto', random_state=42)
X_tsne = tsne.fit_transform(X_scaled)

# t-SNE後のデータをDataFrameに変換
df_tsne = pd.DataFrame(data=X_tsne, columns=['t-SNE Component 1', 't-SNE Component 2'])
df_tsne['target'] = y

print("\n--- t-SNE後のデータ (2次元) ---")
print(df_tsne.head())
print(f"t-SNE後のデータの次元: {df_tsne.shape}")

# t-SNE結果の可視化
plt.figure(figsize=(8, 6))
sns.scatterplot(
    x='t-SNE Component 1',
    y='t-SNE Component 2',
    hue='target',
    palette='viridis',
    data=df_tsne,
    s=70,
    alpha=0.7
)
plt.title('t-SNE of Sample Data (2D Projection)')
plt.xlabel('t-SNE Component 1')
plt.ylabel('t-SNE Component 2')
plt.grid(True)
plt.show()

t-SNEのグラフは、PCAよりも明確に2つのクラスターが分離していることが多いです。これは、t-SNEが非線形な関係性を考慮して近傍関係を維持しようとするためです。perplexitylearning_rateといったパラメータは、結果に大きく影響するため、試行錯誤が必要です。


4. PCAとt-SNEの使い分け

特徴 PCA t-SNE
性質 線形変換 非線形変換
目的 主に次元削減、データ圧縮、可視化 主に高次元データの可視化、クラスタリング発見
計算コスト 比較的低い、高速 非常に高い、大規模データでは時間かかる
解釈性 主成分は元の特徴量の線形結合として解釈可能 変換後の軸は直接的な意味を持たない
汎化 新しいデータに直接適用可能 新しいデータごとに再計算が必要
得意なデータ 線形構造を持つデータ、ノイズ除去 複雑な非線形構造、クラスタリング構造
外れ値 影響を受けやすい 外れ値によって描画が歪むことがある

使い分けのガイドライン:

  • まずはPCAから試す: データが線形な構造を持つか、あるいは単に次元を削減して計算コストを下げたい場合は、PCAが有効です。高速で実装も容易です。
  • クラスタリング構造を見たいならt-SNE: 高次元データの中に隠れたクラスターやグループがあるかを視覚的に確認したい場合は、t-SNEが非常に強力です。特に、分類タスクでクラスがうまく分離できるかを確認するのに役立ちます。
  • 大規模データ: まずPCAで次元を大きく削減し、その後t-SNEでさらに詳細な可視化を行うという組み合わせも有効です。

5. まとめと次へのステップ

本日は、AI学習ロードマップの10日目として、高次元データの課題を解決し、データの本質を可視化する 次元削減 の技術を学びました。

  • 次元削減は、次元の呪いを回避し、計算効率を上げ、データの可視化と解釈を容易にするための重要なテクニックです。
  • PCA(主成分分析) は、データの分散を最大化する線形変換で、高速かつ解釈しやすいのが特徴です。
  • t-SNE(t-distributed Stochastic Neighbor Embedding) は、非線形変換によって高次元空間での近傍関係を低次元で維持し、クラスタリング構造の可視化に優れています。
  • それぞれの手法のメリット・デメリットを理解し、データの特性や目的に応じて適切に使い分けることが重要です。

次元削減は、データサイエンティストがデータから洞察を得るための強力なツールです。今日の知識を使って、皆さんの手元の高次元データに隠されたパターンを発見してみてください。

明日からは、決定木やアンサンブル学習といった、さらに強力で柔軟な機械学習モデルの世界に進んでいきます。これまでのデータ準備とモデルの基礎知識を土台に、より高度なAIモデルを理解していきましょう。

それでは、また明日!


1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?