はじめに
Azure AI Foundryの埋め込みモデルの性能比較をChatGPTのDeepResearchで調査しました

埋め込みモデル性能比較
1. 基本スペック比較
| モデル |
提供元 |
主用途 |
ベクトル次元数 |
最大入力長 |
| text-embedding-ada-002 |
OpenAI |
汎用埋め込み |
1536 |
約8k tokens |
| text-embedding-3-small |
OpenAI |
高効率・低コスト |
1536(可変) |
約8k tokens |
| text-embedding-3-large |
OpenAI |
高精度埋め込み |
3072(可変) |
約8k tokens |
| embed-v-4-0 |
Cohere |
最先端・要約/検索 |
1536(可変) |
128k tokens |
| embed-v3-multilingual |
Cohere |
多言語特化 |
1024 |
512 tokens |
| embed-v3-english |
Cohere |
英語特化 |
1024 |
512 tokens |
2. 精度(意味類似性・検索・クラスタリング)
| モデル |
精度評価(相対) |
特徴 |
| text-embedding-ada-002 |
★★★☆☆ |
旧世代だが安定、現在は非推奨気味 |
| text-embedding-3-small |
★★★★☆ |
Smallながら高精度、検索・クラスタリング十分 |
| text-embedding-3-large |
★★★★★ |
OpenAI内で最高精度、英語特に強い |
| embed-v-4-0 |
★★★★★+ |
多言語含めSOTA級、長文・要約込みで最強クラス |
| embed-v3-multilingual |
★★★★☆ |
多言語で安定、高水準 |
| embed-v3-english |
★★★★☆ |
英語限定なら非常に強い |
3. 多言語対応
| モデル |
多言語対応 |
備考 |
| text-embedding-ada-002 |
△ |
英語中心、他言語は弱め |
| text-embedding-3-small |
○ |
100言語以上、実用十分 |
| text-embedding-3-large |
◎ |
クロス言語検索も強い |
| embed-v-4-0 |
◎◎ |
多言語+クロス言語で最上位 |
| embed-v3-multilingual |
◎ |
多言語専用設計 |
| embed-v3-english |
× |
英語のみ |
4. 計算コスト(価格・レイテンシ)
| モデル |
価格感(相対) |
レイテンシ |
コスト効率 |
| text-embedding-ada-002 |
中 |
低 |
△(旧世代) |
| text-embedding-3-small |
最安 |
非常に低 |
◎◎ |
| text-embedding-3-large |
高 |
中 |
△ |
| embed-v-4-0 |
高 |
高 |
△(精度重視) |
| embed-v3-multilingual |
中 |
中 |
○ |
| embed-v3-english |
中 |
中 |
○ |
※ 大規模RAGでは 次元数 × ベクトル数 がストレージ・検索コストに直結します。
5. モデルサイズ・API制限・特徴
| モデル |
特徴・制限 |
| text-embedding-ada-002 |
旧モデル、今後は置き換え推奨 |
| text-embedding-3-small |
次元圧縮可、RAGのデフォルト最適解 |
| text-embedding-3-large |
高精度だが3072次元でDBコスト増 |
| embed-v-4-0 |
128k対応、要約+埋め込み+マルチモーダル
|
| embed-v3-multilingual |
入力長短い(512)、多言語用途向き |
| embed-v3-english |
英語限定・軽量版あり |
実務向け結論(短く)
-
RAGのデフォルト
→ text-embedding-3-small
-
精度最優先(多言語・長文・要約込み)
→ embed-v-4-0
-
英語限定・高精度検索
→ embed-v3-english
-
多言語検索だがコスト抑えたい
→ text-embedding-3-small or embed-v3-multilingual
お疲れ様でした