Microsoft Ignite 2023 で気になった RAG 関連の発表など
2023 年 11 月に開催された Microsoft Ignite 2023 に現地参加してきました。帰国直後に実施したオンラインイベント Hack Azure #12 でも少し触れた内容になりますが、そのフォローアップとして補足をさせていただこうと思います。
私はこの数ヶ月は公私ともにすっかり RAG(Retrieval Augmented Generation、検索拡張生成)漬けだったこともあるので、Ignite でもやはり RAG に関する発表が気になりました。その中でも自分が参加したセッションの中で特に印象的だったものをいくつか取り上げたいと思います。
Azure OpenAI Service
RAG 関連の発表の中でも最も注目のトピックはやはり、 Ignite 開催の数日前に OpenAI DevDay で発表された GPT-4 Turbo 等の新しいモデルが Azure でも年内をめどに使えるようになるとアナウンスされたことではないでしょうか。
個人的には RAG を多用しているので GPT-4 Turbo の登場による 128k までのトークン上限の引き上げがとてもありがたいです。なお、GPT-4 Turbo は既にリージョンによっては使えるようになっています。
また、GPT-4 Turbo with Vision のデモも観てきたのですが、かなり衝撃的なものでした。画像の中の情報とその周辺にあるテキストを組み合わせて内容を理解した上で回答を生成しており、これなら RAG でも画像とテキストの境界がない前提でアーキテクチャを検討できそうです。
以下のセッションでは GPT-4 Turbo with Vision を使ったデモをやっているのでぜひ一度みておくことをおすすめします。
Azure AI Studio
Azure 上での AI 関連の機能が基本的には今回プレビューになった Azure AI Studio に集約されるようです。これまで独立した画面で使っていた Azure OpenAI Studio の プレイグラウンドやモデル管理等も AI Studio 内から操作できるようになりました。なお、AI Studio は ai.azure.com から既にプレビューが利用できるようになっています。
Azure AI Studio はすごく機能が多いのですが、特に注目すべきなのが Model as a Service の考え方が実装された「モデルカタログ」ではないでしょうか。これは Meta 社が提供する Llama 2 などのモデルや OSS のモデルを Azure OpenAI Service と同じようにマネージドな API エンドポイントで使えるようにする取り組みです。また、モデルの比較ができる「モデルベンチマーキング」機能も提供されています。
サーバーレスかつ従量課金でさまざまな モデルを使えるようになるのは今後どんどん種類が増えて細分化されるであろう LLM を選択する上で非常に有効な機能だと思います。
以下のセッションでモデルカタログやベンチマーキング等のデモをやっているので観てみるとイメージしやすいと思います。
Azure AI Search
これまで Cognitive Search と呼ばれていた検索サービスが今回「Azure AI Search」にリブランディングされました。今回は機能などに大きな変化はありませんでしたが、Vector Search が GA になるなど RAG を実践に持ち込むには良い条件が整いました。なお、ハイブリッド検索で有効な検証結果が出ていると評判のセマンティック検索も「Semantic ranker」に名称変更されて GA しています。
今回、Azure AI Search を担当している Pablo による RAG の解説セッションに参加したのですが、AI Search の機能紹介だけでなく、RAG の基本的な考え方やファインチューニングとの違い、そしてライブコーディングによるハイブリッド検索の実演など興味深い内容ばかりでした。このセッションは Ignite としては異例の?どっぷり開発系セッションですのでそっち系に興味がある方にはおすすめです。
Azure Cosmos DB
最後に、存在すればファンクラブに加入したいくらい私が気に入っている Cosmos DB のセッションを紹介させてください。今回も 「Dynamic Scaling Per Region and Per Partition」 のプレビュー開始など正常進化系のアナウンスがいくつかありましたが、特に注目したいのは、Vector Search の NoSQL API でのサポート予告です。まだプライベートプレビューすら始まっていない状態ですが、これが実現すれば Cosmos DB がスケーラビリティやパフォーマンスを重視するシナリオでのベクターストアとして有力な選択肢になるはずです。
ちなみに今回 GA になった方の Vector Search は MongoDB vCore モデルですが、個人的にはよほどの理由がない限り使う場面がないかなと思っています。NoSQL API でのサポートに期待ですね!
ここで紹介したトピック以外にも多くのアナウンスがありましたが、それらは以下のブログを参照いただくことをおすすめします。