「Amazon SageMaker Studioを使用してBMWグループのAI/MLの開発を加速」
「Amazon SageMaker Studioを活用してBMWグループのAI/ML開発をスピードアップ!」
この記事は、BMW GroupからのMarc Neumann、Amor Steinberg、そしてMarinus Krommenhoekと共同執筆したものです。
BMW Groupは、ドイツのミュンヘンに本社を置き、世界中で149,000人の従業員を擁し、15カ国に30の生産・組立施設を持っています。今日、BMW Groupは世界をリードするプレミアム自動車とオートバイの製造業者であり、プレミアム金融・モビリティサービスの提供も行っています。BMW Groupは、知的な素材の適切な配合、デジタル化への技術的な移行、そして資源効率の良い生産という面で、生産技術と持続可能性のトレンドを作り出しています。
デジタル化と急速に変化する世界において、BMW Groupのビジネスと製品開発戦略は、データに基づく意思決定に重点を置いています。そのため、データサイエンティストと機械学習(ML)エンジニアの需要は大幅に増加しています。これらの熟練した専門家は、BMWのビジネスプロセスの品質と効率を向上させ、情報を基にしたリーダーシップの意思決定を可能にするモデルの構築と展開に取り組んでいます。
データサイエンティストとMLエンジニアは、自身の業務に適したツールと十分な計算資源を必要としています。そのため、BMWは数年前からオンプレミスで中央集中型のML/ディープラーニングインフラストラクチャを構築し、定期的にアップグレードしています。AIの成長を可能にするためには、スケーラビリティと弾力性を向上させなければなりませんが、同時に運用のオーバーヘッド、ソフトウェアのライセンス費用、ハードウェアの管理を削減する必要があります。
- ID対マルチモーダル推奨システム:転移学習の視点
- 「AI/MLツールとフレームワーク:包括的な比較ガイド」
- 私の記事を読むと、あなた方は私がどれだけ美容とファッションについての知識を持っているかがわかるでしょう私は美容とファッションの分野において豊富な知識を持ち、それについて生き生きとした記事を書くことができます
この記事では、BMW GroupとAWSプロフェッショナルサービスの協力により、これらの課題に取り組むためにBMW GroupがJupyter Managed(JuMa)サービスを構築した方法について説明します。JuMaは、BMW Groupのデータアナリスト、MLエンジニア、データサイエンティスト向けのAIプラットフォームのサービスであり、統合開発環境(IDE)を備えたユーザーフレンドリーなワークスペースを提供しています。これは、Amazon SageMaker Studioを活用しており、Python用のJupyterLabとR用のPosit Workbenchを提供しています。この提供により、BMWのMLエンジニアはコードに基づくデータ分析とMLを実行できるようになり、セルフサービスの機能とインフラの自動化により開発者の生産性が向上し、BMWの中央集中型ITツールとの密な統合が実現します。
JuMaは、BMW Groupのすべてのデータサイエンティスト、MLエンジニア、データアナリストに利用可能です。このサービスは、BMW全体でML開発とプロダクションワークフロー(MLOps)を効率化し、データサイエンスとエンジニアリングチーム間の円滑な協力を促進する、費用効果の高い拡張環境を提供します。これにより、より迅速な実験とアイデアの検証サイクルを実現します。また、JuMaインフラストラクチャは、AWSのサーバーレスおよび管理型サービスを基にしており、DevOpsチームの運用オーバーヘッドを削減し、BMW Groupでのユースケースの実現とAIイノベーションの加速に注力することができます。
オンプレミスのAIプラットフォームの拡大に伴う課題
JuMaサービスを導入する前、BMWの世界のチームは、チーム向けのJupyterHubおよびRStudio環境を提供する2つのオンプレミスプラットフォームを使用していました。これらのプラットフォームは、BMW GroupでのAIの拡張性を確保するためには、CPU、GPU、メモリの面で制約がありました。これらのプラットフォームを拡張するためには、オンプレミスのハードウェアやソフトウェアライセンス、サポート料金の追加管理が必要であり、大きな投資とメンテナンスの労力を必要とします。さらに、自己サービスの機能が限定されており、DevOpsチームに高い運用労力を要求していました。さらに重要なことは、これらのプラットフォームの使用がBMW Groupのクラウドファースト戦略と一致していなかったことです。たとえば、これらのプラットフォームを使用しているチームは、AWS上で実験を行い、それを工業化することに容易に移行する機会を逃していました。一方で、既にAWSを直接使用しているデータサイエンスおよび分析チームは、BMW Groupの内部ポリシーや現地の法律、規制に準拠しながら、AWSインフラストラクチャを構築および運用する必要がありました。これには、AWSアカウントの注文、インターネットアクセスの制限、許可されたリストのパッケージの使用、Dockerイメージの最新化など、さまざまな設定とガバナンスの活動が含まれます。
ソリューションの概要
JuMaは、AWS上に構築された完全に管理されたマルチテナントでセキュリティを強化したAIプラットフォームサービスであり、コアとしてSageMaker Studioを使用しています。インフラストラクチャの主要な要素としてAWSのサーバーレスおよび管理型サービスを活用することで、JuMaのDevOpsチームはサーバーのパッチ適用、ストレージのアップグレード、その他のインフラストラクチャコンポーネントの管理について心配する必要がありません。このサービスは、これらのプロセスをすべて自動的に処理し、常に最新で使用準備が整っている強力なテクニカルプラットフォームを提供します。
JuMaユーザーは、セルフサービスポータルを通じてワークスペースを簡単に注文することができます。それにより、チームのために安全で分離された開発および実験環境を作成することができます。JuMaワークスペースがプロビジョニングされた後、ユーザーはわずか数回のクリックでJupyterLabまたはPosit作業台環境をSageMaker Studioで起動し、最も馴染みのあるツールとフレームワークを使用して即座に開発を開始することができます。JuMaは、BMW Central ITサービスのさまざまな機能と緊密に連携しており、これには身元およびアクセス管理、役割と権限管理、BMW Cloud Data Hub(BMWのAWS上のデータレイク)およびオンプレミスデータベースが含まれています。後者は、AI / MLチームが必要なデータにシームレスにアクセスできるようにします(許可されている場合)、データパイプラインを構築する必要はありません。さらに、ノートブックは企業のGitリポジトリに統合され、バージョン管理を使用して共同作業を行うことができます。
このソリューションは、AI / MLチームがAWSアカウントの管理、設定、カスタマイズに関連するすべての技術的な複雑さを抽象化し、AIイノベーションに完全に集中できるようにします。このプラットフォームは、ワークスペースの構成がBMWのセキュリティおよびコンプライアンス要件を満たしていることを確認します。
以下の図は、アーキテクチャの高レベルなコンテキストビューを示しています。
ユーザージャーニー
BMW AI / MLチームのメンバーは、BMWの標準カタログサービスを使用してJuMaワークスペースを注文することができます。ラインマネージャーの承認後、注文されたJuMaワークスペースはプラットフォームによって完全に自動的にプロビジョニングされます。ワークスペースのプロビジョニングワークフローには、次の手順が含まれます(アーキテクチャダイアグラムで番号付けされています)。
- データサイエンティストチームがBMWのカタログで新しいJuMaワークスペースを注文します。JuMaはワークスペース用に新しいAWSアカウントを自動的にプロビジョニングします。これにより、SageMaker Studio管理のベストプラクティスで説明されたフェデレーテッドモデルアカウント構造に従って、ワークスペース間の完全な分離が保証されます。
- JuMaは、事前に定義された実験と開発に必要なAmazon SageMakerの機能、特定のカスタムカーネル、およびライフサイクル構成が許可されるようにする、ワークスペース(Sagemakerドメイン)を構成します。また、ノートブックが安全な環境で実行されるように、必要なサブネットとセキュリティグループも設定します。
- ワークスペースがプロビジョニングされた後、認可されたユーザーはJuMaポータルにログインし、SageMaker pre-signed URLを使用してワークスペース内のSageMaker Studio IDEにアクセスします。ユーザーは、SageMakerのプライベートスペースまたは共有スペース を開くかどうかを選択できます。共有スペースは、同じノートブック上で並行して作業できるチームの異なるメンバー間のコラボレーションを促進し、プライベートスペースは単独のワークロード用の開発環境を提供します。
- BMWのデータポータルを使用して、ユーザーはオンプレミスデータベースやBMWのCloud Data Hubに保存されているデータへのアクセスを要求し、開発および実験のためにワークスペースで使用できるようにすることができます。データの準備と分析からモデルのトレーニングと検証まで。
JuMaでAIモデルが開発および検証された後、AIチームはBMW AIプラットフォームのMLOPsサービスを使用して、それを迅速かつ容易に本番環境に展開することができます。このサービスは、SageMakerを使用したAWS上の本番用のMLインフラストラクチャとパイプラインをユーザーに提供し、数分で設定することができます。ユーザーは単にモデルをプロビジョニングされたインフラストラクチャ上にホストし、パイプラインを特定のユースケースのニーズに合わせてカスタマイズする必要があります。この方法で、BMWグループのAIプラットフォームはBMWのAIライフサイクル全体をカバーします。
JuMaの特徴
AWSでのベストプラクティスアーキテクチャに従って、JuMaサービスはAWS Well-Architected Frameworkに従って設計および実装されました。各Well-Architectedピラーのアーキテクチャ上の決定事項は、以下のセクションで詳細に説明されています。
セキュリティとコンプライアンス
テナント間の完全な分離を保証するために、各ワークスペースは独自のAWSアカウントを受け取り、許可されたユーザーは分析タスクやAI / MLモデルの開発および実験に共同で協力することができます。 JuMaポータル自体は、AWS Identity and Access Management(IAM)とJuMaユーザーのコンテキストを使用して、実行時にポリシーベースの分離を強制します。この戦略の詳細については、IAMによるランタイム、ポリシーベースの分離を参照してください。
データサイエンティストは、ポータルが生成する事前署名済みURLを介してBMWネットワークを介してのみドメインにアクセスすることができます。直接的なインターネットアクセスはドメイン内で無効になっています。Sagemakerドメインの特権は、SageMaker、Amazon Athena、Amazon Simple Storage Service(Amazon S3)およびAWS Glueなどの開発に必要なAWSサービスへのアクセスを最小限に制限するために、Amazon SageMaker Role Managerの役割で構築されています。この役割は、ガバナンスとコントロールに記述されているようなMLのガードレール(トレーニングの実施をAmazon Virtual Private Cloud(Amazon VPC)またはインターネットなしで行うことなど)を実装しており、JuMaのカスタムで検証された最新のSageMakerイメージのみ使用することが許可されています。
JuMaは、開発、実験、およびアドホックな分析を目的として設計されているため、データは30日後に削除するための保持ポリシーが実装されています。必要な時にデータにアクセスし、長期保存するために、JuMaはBMW Cloud Data HubおよびBMWのオンプレミスデータベースとシームレスに統合されています。
最後に、JuMaは特定の現地の法的状況に準拠するために複数のリージョンをサポートしており、BMWのデータ主権を有効にするためにデータをローカルに処理する必要があります。
運用の優れた性能
JuMaプラットフォームのバックエンドおよびワークスペースは、AWSサーバーレスおよびマネージドサービスで実装されています。これらのサービスを使用することで、BMWプラットフォームチームがエンドツーエンドのソリューションを維持および運用するための労力を最小限に抑えることができます。ワークスペースとポータルの両方は、Amazon CloudWatchログ、メトリック、およびアラームを使用して監視され、キーコンポーネントのパフォーマンス指標(KPI)をチェックし、問題があればプラットフォームチームに事前に通知します。さらに、AWS X-Ray分散トレーシングシステムを使用して、複数のコンポーネントを経由するリクエストをトレースし、CloudWatchログにワークスペースに関連するコンテキストを注釈付けします。
JuMaインフラストラクチャへのすべての変更は、インフラストラクチャをコードとして管理および実装する自動化を使用して行われます。これにより、手動の労力と人為的なエラーを削減し、一貫性を高め、再現可能でバージョン管理された変更をJuMaプラットフォームのバックエンドワークスペース全体で実現します。具体的には、すべてのワークスペースは、AWS Step Functions、AWS CodeBuild、およびTerraformをベースに構築されたオンボーディングプロセスを介してプロビジョニングおよび更新されます。したがって、JuMaプラットフォームに新しいワークスペースをオンボードするために手動の構成は必要ありません。
コスト最適化
AWSサーバーレスサービスを使用することで、JuMaは需要に応じたスケーラビリティ、事前承認済みのインスタンスサイズ、およびAI / MLチームのニーズに合わせたリソースの使用に応じた課金モデルを確保します。さらに、JuMaプラットフォームは、SageMaker Studio内のアイドルリソースを監視して特定し、非利用リソースに費用がかからないように自動的にシャットダウンします。
持続可能性
JuMaは、BMWの2つのオンプレミスプラットフォームを置き換えます。これらのプラットフォームは、使用されていない場合でも多くの電力を消費し、CO2排出物を生成します。AI/MLワークロードをオンプレミスからAWSに移行することで、BMWはオンプレミスプラットフォームを運用停止することにより、環境への影響を減らすでしょう。
さらに、JuMaに実装されたアイドルリソースの自動シャットダウン機構、データ保持ポリシー、およびオーナーへのワークスペース利用レポートは、AWS上でのAI/MLワークロードの環境への影響をさらに最小化するのに役立ちます。
パフォーマンス効率
SageMaker Studioを使用することで、BMWのチームは最新のSageMakerの機能を簡単に採用することができ、実験を加速させることができます。たとえば、最新の事前トレーニング済みオープンソースモデルを使用するために、Amazon SageMaker JumpStartの機能を利用することができます。また、開発環境は同じAWSコアサービスを提供しますが、開発機能に制限がかけられているため、AI/MLチームは実験からソリューションの産業化までの努力を減らすことができます。
信頼性
SageMaker Studioドメインは、VPC専用モードで展開されており、インターネットアクセスを管理し、意図したAWSサービスへのアクセスのみを許可しています。ネットワークは2つのアベイラビリティーゾーンに展開され、単一障害点に対する保護を提供し、プラットフォームのユーザーにより高い回復力と可用性を実現しています。
JuMaワークスペースの変更は、カスタマー環境のアップグレード前に、IaCおよびCI/CDパイプラインを使用して開発および統合環境に自動的に展開およびテストされます。
最後に、SageMaker StudioドメインのAmazon Elastic File System(Amazon EFS)に保存されるデータは、ボリュームが削除された後もバックアップの目的で保持されます。
結論
この記事では、BMWグループがAWS ProServeと協力して、SageMaker Studioおよび他のAWSサーバーレスおよびマネージドサービスを使用したフルマネージドのAIプラットフォームサービスをAWS上で開発した方法について説明しました。
JuMaにより、BMWのAI/MLチームは実験の加速と革新的なAIソリューションの市場投入までの時間の短縮という形で新たなビジネス価値を生み出すことができます。さらに、オンプレミスプラットフォームからの移行により、BMWは全体的な運用努力とコストを削減し、持続可能性と全体的なセキュリティポスチャを向上させることができます。
AWS上でAI/MLの実験および開発ワークロードを実行する方法について詳しくは、Amazon SageMaker Studioをご覧ください。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- ソフトウェアエンジニアリングの未来 生成AIによる変革
- 自動チケットトライアジによる顧客サポート効率の向上
- このAI論文は、オープンソースライブラリの既存の機能を最大限に活用するために開発された新しい人工知能アプローチ、ML-BENCHを提案しています
- このAI論文は、効率的な水素燃焼予測のための画期的な機械学習モデルを紹介しています:「ネガティブデザイン」および反応化学におけるメタダイナミクスを活用しています
- 機械学習をマスターするための無料の5つのコース
- Google AIは、オーディオ、ビデオ、テキストの異なるモードにわたる学習のためのマルチモダルオートリグレッシブモデルであるMirasol3Bを発表しました
- 「最初の機械学習モデルの作成と提供」