Azure Machine Learningにおける生成AI:AI変革のためのアプリ開発の運用化
Azure Machine Learningでの生成AI:AI変革に向けたアプリ開発の運用化
ジェネラティブAIの時代において、リーダーたちはイノベーションと目的の交差点に立たされています。取締役会やデータサイエンスのカンファレンスを通じて響き渡るのは、次世代の先端技術が社会的責任をバランスしながら、創造性とビジネスの俊敏性を駆使して組織目標を前進させるためにどう活用されるかという問いです。ジェネラティブAIは単なるツールではありません。ユニークなビジネスデータと組み合わさったその約束は、競争上の優位性を生み出します。
Azure Machine Learningチームは、昨年から当プラットフォームにジェネラティブAIの機能を取り入れることで革新の最前線に立ってきました。この間にOSSモデルのカタログに多くのモデルを追加しました。Microsoft Inspireでは、MetaのLlama 2モデルとTechnology Innovation InstituteのFalconモデルを追加することを発表しました。
MLOpsのフィールドは進化し、組織内のさまざまなニーズを満たすために大規模なトランスフォーマーモデルの選択、微調整、管理方法を改善し理解するLLMOpsという動作スキルセットが組み込まれるようになりました。これは多くの企業にとって新たな運用スキルセットを必要とするものです。当プラットフォームには、この専門領域への投資を行っています。
- パンダのGroupByを最大限に活用する
- Meta AIがAnyMALを紹介:テキスト、画像、ビデオ、音声、動作センサーデータを結びつけるマルチモーダル言語モデルの未来
- データベーススキーマのレトロエンジニアリング:GPT vs. Bard vs. LLama2(エピソード2)
今月は、Azure Machine LearningのジェネラティブAIポートフォリオにいくつかの新しい追加を発表できることを喜んでいます。
Azure Machine Learningモデルカタログでのビジョンとマルチモーダリティモデルの発見、カスタマイズ、展開
機械学習の専門家や開発者が簡単に事前学習済みの大規模AIモデルソリューションを発見、エンジニアリング、微調整、展開できるよう、新たな効果的な方法を常に探しています。Buildで、Azure Machine Learningモデルカタログでのファウンデーションモデルのパブリックプレビューを発表しました。モデルカタログは、Hugging Face、Meta、およびAzure OpenAI Serviceのさまざまなファウンデーションモデルのコレクションを探索するための中心的なハブとして機能します。本日は、当モデルカタログに画像分類、物体検出、画像セグメンテーションの幅広いオープンソースビジョンモデルのパブリックプレビューがもう一つのマイルストーンを迎えます。
これらの新機能により、開発者は強力なビジョンモデルを簡単にアプリケーションに統合し、予知保守、スマートリテールソリューション、自動運転車などの業界全体でAIイノベーションを推進することが可能になります。
図1. Azure Machine Learningモデルカタログでのビジョンモデルの発見
さらに、Azure Machine Learningスイートの重要なコンポーネントであるAutoML for ImagesとNLP(自然言語処理)にも大幅なアップデートがあります。アップデートされたアーキテクチャは、モノリシックな設計からモジュール式のコンポーネントベースのトレーニングパイプラインに移行し、拡張性、柔軟性、デバッグ性、信頼性が向上しています。最新のファウンデーションモデルをモデルカタログに組み込んだり、物体検出やテキスト分類などの特定のタスクにパイプラインを適用したりすることが容易になり、効率的なコンポーネント再利用によって計算コストを節約できます。既存のモデルの微調整や新しいアーキテクチャの探索に関係なく、これらの更新により、AIの最新のイノベーションを活用しながら、機械学習プロジェクトを実行し、監視し、拡大することが容易になります。
– 新しいビジョンモデルに関する詳細は、お知らせブログをご覧ください。
– AutoMLの強化については、AutoML&NLPブログをご覧ください。
スムーズな開発のためのプロンプトフローでのコードファーストエクスペリエンスの導入
大規模な言語モデル(LLM)によって、以前は実現不可能だった多くのインテリジェントなタスクが可能になりました。その結果、LLMを活用するAIアプリケーションの需要が高まっています。LLMが急速に進化する中で、プロンプトエンジニアリングとLLMOpsは、特定のビジネスニーズを満たすためにカスタマイズされたAIソリューションでLLMの全ポテンシャルを最大限に活用するために重要な役割を果たしています。
品質の調整を通じた反復的なプロセスをスムーズにするために、私たちはBuild 2023でAzure Machine Learningプロンプトフローを導入しました。これは、LLMワークフローを設計、実験、評価、展開するためのインタラクティブなスタジオ体験です。
Prompt flowは、ユーザーがアイデアから実験、そして最終的に本番用のLLM(Language Model)を組み込んだアプリケーションへの移行を支援するさまざまな利点を提供しています。お客様との対話の中で、最もよく聞かれる3つの質問は次のとおりです:プロンプトのバージョン管理はどのように行うのか、CI/CDプロセスとの統合はどのように行うのか、およびプロンプトフローのエクスポートと展開はどのように行うのか?
これらの質問に対応し、より堅牢なLLMOpsへの機能拡張を図るために、私たちはSDK、CLI、およびVS Code用のエクステンションを通じて、プロンプトフローへのコードファーストエクスペリエンスを導入しています。これらは現在プレビュー版として提供されています。開発者は、プロンプトフローのUIからフローのフォルダを簡単にエクスポートし、好みのコードリポジトリと統合することができます。これにより、ワークフローとプロンプトがバージョン管理され、効率的に追跡されることが保証されます。プロンプトフローSDKは、開発者がローカルでフローをテストし、単一の実行結果を取得するだけでなく、ユーザーはフローバッチランをクラウドワークスペースに送信し、実行結果を厳密に評価することもできます。これにより、開発者は包括的なテストシナリオを処理する能力を持つようになります。スムーズなCI/CDパイプラインを実現するために、プロンプトフローCLIとSDKはAzure DevOpsおよびGitHub Actionsとのシームレスな統合を提供しています。VS Code用のプロンプトフローエクステンションは、この開発エクスペリエンスを強化し、フローの迅速なテスト、改善、デバッグを可能にし、UIと同様のインターフェースで行うことができます。ユーザーは、ローカルのフローをAzure Machine Learning UIに直接インポートしたり、CLIでフローフォルダをローカルにエクスポートしたりすることもできます。これにより、ローカル開発が常にクラウドと同期され、Azure Machine Learningのフルパワーを活用できるようになります。
- このデモビデオをチェックして、プロンプトフローのコードファーストエクスペリエンスが実際にどのように機能するかを学びましょう。
- プロンプトフローについて詳しくは、ドキュメントをご覧ください。
Azure Machine Learningで生成型AIアプリケーションを本番環境でモニタリングする
モデルの本番モニタリングはAIライフサイクルの重要な部分です。データや消費者の行動の変化により、アプリケーションは経時的に影響を受け、非最新のAIシステムを生み出す可能性があります。これにより、望ましくない結果が生じ、ビジネスの成果に悪影響を与え、組織にコンプライアンスおよび評判のリスクをもたらす可能性があります。残念ながら、事前に構築されたツールがない場合、安全性、品質、パフォーマンスのモニタリングプロセスは困難です。<strong>本日より、プレビュー版で、Azure Machine Learningを使用して生成型AIアプリケーションを本番環境でモニタリングすることが可能になりました。
ユーザーは、Model Data Collectorを使用して本番データを収集し、定期的に重要な安全性と品質評価メトリックスを分析し、重要な問題についてのタイムリーなアラートを受け取り、Azure Machine Learning Studio内の豊富なダッシュボードで時間の経過に応じた結果を視覚化することができます。
この機能は、<a href=”https://www.voagi.com/7-steps-to-choose-the-perfect-data-annotation-provider-for-ml.html”>AzureMLの事前に構築された評価、注釈、測定パイプラインと統合して、生成安全性と品質の評価を行うためのものです。一貫性、流暢さ、着地性、関連性、類似性などの重要なメトリックスを使用して、アプリケーションをモニタリングすることができます。また、独自のカスタムしきい値を設定することもできます。
パフォーマンスに関しては、プロンプトフローのシステムメトリクスを使用して、アプリケーションのトークン消費量(例:アプリケーション使用のための総プロンプトと補完トークン数)を表示し、追跡することができます。
これらの機能は、問題の特定と診断、使用パターンの理解、そしてプロンプトエンジニアリングを活用してアプリケーションを最適化する方法を示すのに役立ちます。最終的には、生成型AIのモデルモニタリングは、正確で責任ある本番環境のアプリケーションを実現するのに役立ちます。
- この機能についての詳細については、ドキュメントをご覧ください。
図2. モニタリングの概要ページ内で、ユーザーはアプリケーションのモニタリングを設定し、全体のパフォーマンスを表示し、通知を確認することができます。
図3。監視の詳細ページでは、ユーザーは時系列メトリック、ヒストグラム、詳細なパフォーマンスなどを表示でき、通知を解決することができます。
次のステップ
今月の発表では、Azure Machine Learningがお客様の声を聞きながらプラットフォームを進化させ、継続的な改善を行っていることを示しています。Microsoft Igniteで数か月後には、データサイエンティストや開発者が組織内でGenerative AIの力を解放するための新機能をいくつか発表する予定です。ぜひ詳細を学ぶために参加してください。その間、無料でAzure Machine Learningを試してみてください。また、Insidersプログラムに参加してください。既にAzure Machine Learningのお客様である場合は、ドキュメンテーションのウェブサイトを訪れて詳細情報を確認してください。
こちらで詳細を学ぶ!
元記事はこちら(Richard Tso氏による)。許可を得て再投稿されました。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles