良いポイント
優れている点・好きな機能
・本家のOpenAIで提供されている最新モデルがほぼ同タイミングで使用できる
・本家のOpenAIで提供されていない独自の機能が使える
・リソース単位で管理が可能
その理由
・本家のOpenAIで提供されたばかりのGPT-4oやo1, o3-miniなどの最新モデルがほぼ同一タイミングで使用できることが多い。注:毎回必ず同一タイミングになるという訳ではない
・コンテンツフィルターと呼ばれるLLMへの不適切な入力や、LLMへの出力をブロックする機能があり、LLMを本家より安全に使用できる
・Vertex AI や AWS Bedrockの組込みモデルとは異なり、専用のAzureOpenAIリソースをデプロイし、その中にOpenAIのモデルをデプロイすることになるので、リソースごとに環境を分離することが可能。Vertex AI や AWS Bedrockの場合はモデルのデプロイは不要でAPIを有効にするだけで使用できるがリソースの概念がないので、プロジェクトやテナント自体を分けないと環境ごとに分けることができない
改善してほしいポイント
欲しい機能・分かりづらい点
・関連する機能のUIやサービス名が頻繁に変わる
・コンテンツフィルターによるブロック機能が面倒
その理由
・Microsoftのサービスではよくある話だが、UIやサービス名が頻繁に変わることが多く、Azure OpenAIにおいてもモデルを管理するサービスがAzure AI Studio → AI Foundryのように名称とUIが変更されており、ユーザーの混乱を招くことが多い
・コンテンツフィルターと呼ばれる入力と出力のうち、不正なものをブロックする機能がデフォルトで有効になっているが、誤検知が発生するケースがある。コンテンツフィルターをオフにするには申請が必要なので、手間がかかる。
どのような課題解決に貢献しましたか?どのようなメリットが得られましたか?
解決できた課題・具体的な効果
・社内向けChatアプリケーションにおけるLLMの利用で業務効率の向上
・GPT-4.1 nanoなどの低コストモデルの導入によってランニングコストが削減
課題に貢献した機能・ポイント
・OpenAIのGPT-4.1のような最新の汎用モデルを使えることで、文書生成から要約、分類、FAQ対応まで幅広くカバーできた。また、推論精度が求められるケースではo3などの高性能モデルを使い分けることで、実用性とコストのバランスを両立できた。
・GPT-4.1 nanoのような低コストモデルがあることで、簡単なタスクでもコストを気にせず、AIに実行させるられることができた。
検討者へお勧めするポイント
現状では、3大クラウドの中でOpenAI系のモデルをクラウド環境で利用できる唯一の選択肢であり、Azureがエンタープライズ向けのクラウドなので社内向けのサービスをOpenAI系のモデルで構築したいというケースにはおすすめ。