2025年10月現在、OpenAIの強力なGPTモデルをAzure環境で使える「Azure OpenAI Service」がめちゃくちゃ便利です。
この記事では、Azure OpenAI Serviceって何?というところから、実際に環境を構築するまでを解説していきます。
シリーズ構成
- Part1:基本知識と環境構築(本記事)
- Part2:実際の使い方とプロンプトのコツ
- Part3:セキュリティと運用のベストプラクティス
Azure OpenAI Serviceとは
Azure OpenAI Serviceは、OpenAIが開発した強力なAIモデルをAzure上で使えるマネージドサービスです。
簡単に言うと、「ChatGPTをもっと安全に、企業向けに使えるようにしたサービス」といった感じです。
使えるモデル(2025年10月時点)
2025年になって、かなりモデルのラインナップが充実してきました:
GPT-5シリーズ(最新!)
- GPT-5 Pro / GPT-5 / GPT-5 Codex:制限付きアクセス(申請が必要)
- GPT-5 mini / GPT-5 nano / GPT-5 chat:申請不要で使える
GPT-4.1シリーズ
- GPT-4.1:100万トークンのコンテキストウィンドウ(めっちゃ長い文章を扱える)
- GPT-4.1 nano:軽量版
GPT-4oシリーズ(現在の主力)
- GPT-4o:テキスト、画像、音声をまとめて処理できるマルチモーダルモデル
- GPT-4o mini:コスパ重視の軽量版
推論特化モデル
- o3 / o4-mini / o3-mini:複雑な数学やプログラミングに強い
- o1シリーズ:科学・数学・コーディングの難問解決に特化
その他
- GPT-4 Turbo with Vision:画像理解ができる
- GPT-3.5 Turbo:軽量でコスパ良し
- Embeddings:検索やレコメンドに使える
- GPT-image-1(DALL-E 3の進化版):画像生成
- Whisper:音声認識
- テキスト読み上げ:音声合成
- Sora:動画生成(プレビュー)
できること
- 文章の生成・要約
- 画像の理解と説明
- コード生成・デバッグ
- セマンティック検索(意味で検索)
- 音声認識・音声合成
- 画像・動画生成
アクセス方法
- REST API
- Python/C#/JavaScript/Java/Go SDK
Azure OpenAI vs ChatGPT:何が違うの?
よく聞かれるんですが、「ChatGPTと何が違うの?」という質問。基本的には同じモデルを使ってるんですが、いくつか重要な違いがあります。
Azure OpenAIのいいところ
-
セキュリティが段違い
- プライベートネットワークで接続できる
- Azure AD(Entra ID)で認証管理
- データを好きなリージョンに配置できる
- 超重要:データはMicrosoftのモデル学習に使われない
-
安心安全な機能
- コンテンツフィルタリングが標準で入ってる
- 有害なコンテンツを自動でブロック
- カスタマイズもできる
-
日本で使える
- 日本のデータセンターでホスティング可能
- データを日本国内に置ける(法規制対応)
- レスポンスが速い
-
他のAzureサービスと連携しやすい
- Azure Monitorで監視
- Azure Policyでガバナンス
- 他のサービスとスムーズに統合
APIの互換性
Azure OpenAIとOpenAIのAPIは互換性があるので、エンドポイントURLと認証方法を変えるだけで移行できることが多いです。
検証環境
今回はこんな環境で試してみました:
- Azureサブスクリプション:共同作成者権限以上あればOK
- リージョン:東日本(Japan East)
- デプロイモデル:GPT-4o
- アクセス方法:Azure AI Foundryポータル + REST API
※ネットワーク周りは作成済みということで、今回は割愛します。
事前に知っておくべきこと
Azure OpenAI Serviceを使う前に、いくつか確認しておきたいことがあります。
制限付きアクセスについて
GPT-5シリーズやo3など、一部のモデルはMicrosoftの承認が必要です。
申請はこちらから。
リージョンによって使えるモデルが違う
これ、めっちゃ重要です!
2025年10月時点で、日本リージョン(東日本・西日本)では以下のような状況です:
日本リージョンで使えるモデル(標準デプロイ)
- GPT-4o:使える!
- GPT-4 Turbo:使える!
- GPT-3.5 Turbo:使える(ただし段階的に廃止予定)
- Embeddings:使える
日本リージョンで制限があるモデル
- o1 / o3シリーズ:まだ未対応(グローバル標準デプロイなら使える)
- GPT-5シリーズ:制限付きアクセス + リージョン制限あり
最新の情報は公式ドキュメントで確認してください。
デプロイの種類について
Azure OpenAIでは、いくつかのデプロイ方式があります:
- 標準(リージョン):従量課金で使える。日本リージョンOK
- グローバル標準:世界中のデータセンターから最適なところを自動選択。日本リージョン指定は不可
- プロビジョニング済み:事前に処理能力を確保。安定したパフォーマンスが必要なら
- グローバルバッチ:大量のデータを一括処理。リアルタイム性は不要な場合に
その他の注意点
- トークン制限:各モデルに処理できる最大トークン数がある
- レート制限:1分あたりのトークン数(TPM)とリクエスト数(RPM)に制限がある
- クォータ管理:サブスクリプションとリージョンごとに上限がある
では、実際に作っていきましょう!
Azure OpenAIリソースの作成
まずは、Azure OpenAI Serviceのリソースを作ります。
Azure Portalから作成
-
Azure Portalにログイン
-
「リソースの作成」をクリック
-
「Azure OpenAI」を検索して選択
-
以下を入力:
- サブスクリプション:使いたいサブスクリプション
- リソースグループ:新規作成か既存のものを選択
- リージョン:東日本(Japan East)がおすすめ
- 名前:わかりやすい名前(例:my-openai-resource)
- 価格レベル:Standard S0
-
「ネットワーク」タブでアクセス方法を選択
- すべてのネットワークから(開発・テスト用)
- 選択したネットワークのみ(本番用)
-
「確認および作成」→「作成」
数分待てばリソースができます。
CLIで作成する場合(参考)
az cognitiveservices account create \
--name my-openai-resource \
--resource-group myResourceGroup \
--location japaneast \
--kind OpenAI \
--sku S0 \
--subscription mySubscription
モデルをデプロイする
リソースを作っただけでは、まだAPIを使えません。使いたいモデルをデプロイする必要があります。
Azure AI Foundryでデプロイ
-
作成したAzure OpenAIリソースを開く
-
「概要」ページで「Azure AI Foundryに移動」をクリック
- または直接Azure AI Foundryへ
-
左メニューから「デプロイ」を選択
-
「+ デプロイの作成」→「モデルをデプロイする」
-
モデルを選択(例:gpt-4o)
-
デプロイ設定:
- デプロイ名:gpt-4o-deployment(好きな名前でOK)
- モデルバージョン:最新版がおすすめ
- デプロイタイプ:標準
- TPM(1分あたりのトークン数):10K(後で調整できる)
-
「デプロイ」をクリック
デプロイが完了したら、一覧に表示されます。
TPMって何?
TPM(Tokens Per Minute)は、1分間に処理できるトークン数のことです。
これによって、どれくらいの処理能力があるかが決まります。
- 開発・テスト:10K TPMで十分
- 本番環境:30K〜240K TPM以上を推奨
- 不足すると
429 Too Many Requestsエラーが出る
クォータの範囲内で設定できます。足りなくなったら増やせます。
プレイグラウンドで試してみる
デプロイできたら、まずはプレイグラウンドで動作確認してみましょう。
Chatプレイグラウンドで遊んでみる
-
Azure AI Foundryで「プレイグラウンド」→「チャット」を選択
-
「デプロイ」で作成したデプロイメントを選択
-
システムメッセージを設定(例:「あなたは親切なAIアシスタントです」)
-
パラメータを調整:
- Temperature:0.7(創造性のレベル。0-2)
- Max response:800(最大トークン数)
- Top P:0.95(サンプリング制御)
- Frequency penalty:0(繰り返しの抑制)
- Presence penalty:0(トピックの多様性)
-
チャットボックスに質問を入力
例えば:
ユーザー:Azureって何?簡単に教えて
アシスタント:Azureは、Microsoftが提供しているクラウドサービスです。
サーバーやデータベース、AI機能など、いろいろなサービスが200個以上も
用意されていて、企業や開発者がシステムを作ったり運用したりするのに
便利なプラットフォームです。
プレイグラウンドの便利機能
- Few-shot例を追加:例を見せて学習させる
- コードビュー:実際のAPI呼び出しコードを確認できる
- パラメータの調整:リアルタイムで変更して試せる
まとめ(Part1)
Part1では、Azure OpenAI Serviceの基本と環境構築について解説しました。
押さえておきたいポイント
-
Azure OpenAI Serviceの特徴
- エンタープライズレベルのセキュリティ
- データはモデル学習に使われない
- 日本リージョンでホスティング可能
-
リージョンとモデルの関係
- 日本リージョンではGPT-4o、GPT-4 Turboが使える
- 最新モデル(GPT-5、o3など)は制限あり
-
デプロイの流れ
- リソース作成 → モデルデプロイ → プレイグラウンドで確認
次回予告
Part2では、実際にAPIを使った開発方法や、プロンプトエンジニアリングのコツ、トークンとコストの管理について詳しく解説します!
【Part2】Azure OpenAI Serviceを使ってみた!実践的な使い方とプロンプトのコツ