エンタープライズAIプラットフォームは、Amazon Bedrockを利用したものです

「アマゾンベッドロックを活用したエンタープライズAIプラットフォーム」

エンタープライズGEN-AIプラットフォームとは何ですか?

OpenAIによるChatGPTのリリースは、大規模な言語モデルとGENERATIVE AIのパワーの莫大な潜在能力を多くの企業に示しました。その結果、小売業、旅行業、医療業、金融業など、さまざまな業界の企業が、生産性を向上させ、イノベーションを促進し、顧客に価値と成果をもたらすためにGENERATIVE AIを採用することに急いでいます。

組織は、堅牢でスケーラブルなGen AIプラットフォームを設計および構築することで、これらの強力なAI機能をエコシステムで活用するための複数のオプションを持っています。彼らは、自社のビジネスからのドメイン固有データを用いてオープンソースモデルをファインチューニングして実行するためのプライベートインフラストラクチャをセットアップすることができます。または、ベンダーのAPIを利用して、外部でホストされた独自の閉じたモデルにアクセスすることもできます。GENERATIVE AIを活用して実際のビジネス課題を解決し、試作段階を超えて具体的な利益を生み出すための可能性は無限大です。企業はこの技術を活用し、初期の興奮を具体的な利益に変えるために競い合っています。

ただし、すべての戦略がすべての組織のすべてのレベルに適しているわけではありません。ワンサイズフィットオールのアプローチでは、一部の企業のプライバシーや規制への合致性のニーズを満たすことができません。また、金融や医療などの高度に規制された業界では、通常、すべてのAIプラットフォームが対応できない追加の適合性と規制要件が存在します。これらの課題にもかかわらず、さまざまな業界セクターのAIリーダーたちは、一貫して自社のGenerative AIプラットフォームで求める主要な考慮事項があります。

  • 迅速で使いやすい開発を実現するため、頑健なセキュリティ対策とデータプライバシーの実装されたアクセス制御および共有を重視したGenerative AIアプリケーションの開発プロセスを効率化すること。AIプラットフォームの強力なデータセキュリティとガバナンス機能は、機密データの保護に重要です。これはプライバシーとコンプライアンスにとって重要です。
  • Generative AIのための最も効率的かつコスト効果の高いインフラストラクチャの採用を重視し、組織が自社のモデルを経済的にトレーニングまたはファインチューニングできるようにします。このアプローチにより、様々なビジネスユースケースをサポートするスケーラブルな推論が実現されます。また、プラットフォームは既存の企業インフラストラクチャとデータとの統合機能を提供する必要があります。そうすることで価値を最大化できます。
  • エンタープライズレベルのGenerative AIアプリケーションを提供することで、ワークフロープロセスを革新し、全体的な業務効率を向上させます。
  • カスタマイズされたFoundation Models(FM)を利用したデータの活用。これにより、ビジネス、データ、および業務の独自の側面に適合した専門エキスパートとなります。
  • FINRAやHIPAAのような規制の認証を取得し、インフラストラクチャやプラットフォームがデータ漏洩を防ぎ、さまざまな規制要件に効果的に対処できるようにします。
  • 企業が技術がどのように機能するかを理解するための透明性のあるAI機能。説明可能性は信頼を築きます。
  • 不適切なまたはバイアスのかかったコンテンツの生成を避けるための頑強なコンテンツフィルタリング。これは責任あるAIにとって重要です。

ワンサイズフィットオールのアプローチには制約があります。先進企業は、そのセキュリティ、ガバナンス、透明性、責任あるAIに関する特定の要件と優先事項に合致するGenerative AIプラットフォームを求めています。

なぜトラディショナルな機械学習モデルではなくFoundationモデルが必要なのか?

Foundationモデルの利点を理解するためには、それらを従来の機械学習モデルと比較することが役立ちます。機械学習モデルは特定のデータでトレーニングされ、特定の機能を実行するために使用されます。一方、Foundationモデルは、多様なデータでトレーニングされた大規模なモデルであり、そのため多様な下流のアプリケーションやタスクに適応可能です。Foundationモデルの広範なトレーニングにより、特定のユースケースに特化するための一般的な言語理解など、一般的な能力を学習します。これにより、Foundationモデルは、単一の目的にしかトレーニングされていない狭い機械学習モデルよりも柔軟性と能力があります。要するに、Foundationモデルは、多様なAIアプリケーションを構築するためのより多目的な基盤であり、機械学習モデルは新しいタスクへの転用に制約があります。大規模で多様なデータに基づいてトレーニングされたFoundationモデルの広範な応用可能性は、AIを複数のドメインで活用したい組織にとって優れた出発点となります。

FoundationモデルでパワードされたGenerative AIには、さまざまな業界やドメインでの利用例があります:

  • すべての業界: チャットボットと質問応答システム、文書要約
  • 金融業界: リスク管理と不正検知
  • 医療業界: 薬剤開発と個別の医薬品推奨、巨大な繰り返しタスクの補完における研究者のサポート
  • 小売業界: 価格と在庫の最適化、ユーザーの最近の購入に基づく商品およびブランドの分類、商品メタデータおよび説明の生成
  • エネルギーと公益事業: 予測メンテナンス、再生可能エネルギーデザイン

まとめると、基盤モデルによる生成型AIの主な応用は、会話エージェント、リスク/詐欺/メンテナンスの予測システム、最適化された個別の推薦、製品や技術全体にわたるクリエイティブなデザインなどが含まれます。生成型AIの多目的性により、さまざまな業種の企業が自社の能力を異なる業務プロセスと機能に統合することが可能になっています。

Amazon Bedrockが企業のジェネレーティブAIプラットフォームの基盤を築く方法

Amazon Bedrockは、APIを介して企業が簡単に生成型AIモデルを利用してカスタマイズすることができる新しいAWSサービスです。企業はこれらのモデルを自社で運用するために必要な複雑なインフラストラクチャとメンテナンスを管理する必要なく、AIアプリケーションを構築して拡大することができます。Amazon Bedrockは、顧客が最適なモデルを見つけるためにオープンソースとプロプライエタリモデルの両方を探索できる「Foundation Models as a Service」プラットフォームとして機能します。サーバーレスのエクスペリエンスは、会社の独自のデータを使用して基盤モデルをカスタマイズすることを簡素化します。カスタマイズされたモデルは、組織のインフラストラクチャ内で他のAWSツールを使用してシームレスに統合および展開することができます。全体的に言えば、Bedrockはモデル管理とインフラストラクチャの複雑さを取り除くことで、生成型AIの利用をより手軽にすることを目指しています。

AWS Bedrockは、テキストと画像の高品質な基盤モデルに簡単にアクセスできるようにすることで、組織が生成型AIをより簡単に導入できるよう支援しています。Amazon自身のTitanモデルを含む、複数のベンダーからのオープンソースとプロプライエタリモデルを提供しています。これにより、企業は自社でベンダー評価を行う必要がなくなります。Amazonがすべてのインフラストラクチャで動作しているためです。セキュリティ、コンプライアンス、およびモデルの提供を担当することで、Bedrockは企業の生成型AI導入の主な障壁を取り除きます。企業は自社のモデルインフラストラクチャと機能を構築および維持する必要がなくなります。代わりに、Bedrockを使用することで、基盤モデルを簡単なAPIを介して利用し、基盤の複雑さを気にすることなく強力な生成型モデルを活用することができます。

AWS Bedrockは、次のような方法で企業がオープンソースおよび商用の生成型AIを導入する際の障壁を下げます:

  1. Amazon S3内のわずかなラベル付きの例を使用して既存のオープンソースまたはクローズド基盤モデルを簡単に調整できるようにすること。大規模なデータ注釈やデータパイプラインの構築を行う必要がありません。これにより、カスタマイズが簡素化され、新しい生成型AIベースのアプリケーション開発のスピードが向上します。
  2. 顧客がカスタマイズのためにデータの完全な制御とガバナンスを維持することができる、サーバーレスでスケーラブルで信頼性のあるセキュリティ管理サービスを提供すること。組織の管理者はモデルの使用を制御するための組み込みのモデルアクセスシステムを利用でき、堅牢なAIガバナンスをサポートします。
  3. AWS SageMaker、Lambda、EKS、ECS、EC2などのAWSサービスとAPIを介して統合することで、開発者がインフラストラクチャや高レベルのLLMデプロイプロセスを管理せずにAIアプリケーションを簡単に構築、スケーリング、展開できるようにすること。

まとめると、Bedrockはカスタマイズを簡素化し、AWSとシームレスに統合し、企業にデータとモデルの完全な制御、ガバナンス、セキュリティを提供することで、生成型AIの導入を加速します。これにより、生成型AIの能力を活用する際のリスクと価値実現までの時間を短縮します。

Amazon Bedrockサービスの使い方

AWSコンソールにログインした後、Amazon Bedrockを入力してサービスをロードする必要があります。

現在、この記事を執筆している時点では、Bedrockはいくつかのリージョンでのみ利用可能であり、リストは定期的に更新されています。ここでは、USイースト(ノースバージニア)を選択します。

サポートされるリージョンが選択されると、Amazon Bedrockのコンソールが開かれます。

これはAmazon Bedrockのダッシュボードで、モデルを操作したり、他のユーザーのモデルへのアクセスを制御したりすることができます。ルートユーザーアカウントでログインしたため、ダッシュボードは管理者としての機能とコントロールを表示しています。右パネルには、AI21 AmazonやAnthropicなどのよく知られたLL<MやFMのベンダーが表示されます。右パネルには、プロンプトを注入してモデルとその動作を実験できるさまざまなプレイグラウンドが表示されます。

重要なリンクの1つは「Model Access(モデルへのアクセス)」であり、モデルへのアクセスを制御できます。リンクをクリックしてモデルアクセスギャラリーにアクセスできます。

モデルアクセスダッシュボードには、現在Amazon Bedrockが提供しているベンダーごとのすべてのモデルが表示されます。AnthropicのClaudeモデルのように、アクセスするには長いフォームを記入する必要があります。それ以外のモデルはかなりシンプルです。モデルアクセスの管理のためのボタンをクリックすると、アクセスを制御するための編集可能なチェックリストが表示されます。

変更を保存するボタンを送信した後、アクセスの状態は「進行中」に変更されます。 アクセスを要求したモデルの種類とアカウントのタイプによっては、1時間以上または1日以上待つ必要がある場合もあります。

AWSが要求したモデルへのアクセスを許可すると、ステータスは「アクセスが許可されました」に変わります。 これで、APIを使用してモデルを自分のアプリケーションに統合することができます。

オリジナルのダッシュボードに戻り、「テキスト」のリンクをクリックすると、テキスト生成遊び場を呼び出すことができます。ここでは、ベンダーとドロップダウンから対応するモデルを選択することで、モデルを評価するためにいくつかのプロンプト工学を使用することができます。 モデルの応答も、右パネルに表示される構成を変更することでカスタマイズすることができます。 「温度」要素は、モデルの出力を決定します。 温度の値が高いほど、モデルからよりクリエイティブでダイナミックな応答が得られます。 値がゼロの場合、特定のプロンプトや質問、またはNLPタスクに対してモデルから同じ静的な応答が期待できます。

では、プレイグラウンドで同じテキストプロンプトエンジニアリングを使用して、さまざまなモデルを試してみましょう。 まず、Jurassicモデルの出力をAI21 Labsのベンダーから探求します。 IoTデバイスで使用されている通信パターンであるMQTTについてのテキストを入力し、モデルにMQTTを12歳の人に説明するように頼みました。 緑色のテキスト出力は、温度0.7でモデルJurrasic -2 Ultraによって生成されたテキストです

下部セクションの「APIリクエストを表示」ボタンをクリックすると、プレイグラウンドコンソールがファウンデーションモデルに送信するAPIリクエストが表示されます。

Cohereのコマンドモデルからのレスポンス:

MetaのLLama2モデルを使用しようとしましたが、エラーが続きました。 Amazonはまだ安定させようとしているようです。

テキストベースのプロンプトを使用して画像を生成するSytable Diffusionモデルを調査してみましょう。

APIリクエストは次のとおりです:

GEN AIプラットフォームへの統合戦略

Amazon Bedrockはサーバーレスコンポーネントとして動作するため、このプラットフォームとの統合は本当にサーバーレスです。 Foundation ModelはREST APIを介してダウンストリームで使用できるようになり、AWSはアプリケーションがAmazon Bedrockに接続するために利用できるBedrock SDKクライアントを提供しています。

AIプラットフォームを統合するための最も効果的な方法は、AWS Lambdaを活用することです。ここでは、適切なアクセスがクエリするためのIAMポリシーを設定できます。 AWS SAMは、Lambdaとの接続を設計し構築するための推奨手法です。 次の記事では、BedrockとのサンプルLambda統合のコードスニペットを提供します。 LambdaがPythonで開発されている場合、boto3モジュールが必要であり、Lambdaにレイヤーとして追加できます。 また、SAMを使用して、Pythonを使用してLambdaをビルドする際にboto3をパッケージ化することもできます。 LambdaはAWS API Gatewayによってフロントエンド化され、抽象化レイヤーが作成されます。

別の統合アプローチとして、LangchainまたはLLamaIndexフレームワークを使用してPythonベースのアプリケーションを開発し、Dockerを使用してコンテナ化し、EKSプラットフォームで実行することができます。 このアプローチにより、モデルに接続しながら、Kubernetesプラットフォームでアプリケーションを実行するための高いスケーラビリティと制御のポテンシャルを引き出すことができます。 次の記事では、この統合アプローチの詳細について詳しく説明します。

結論

要するに、Amazon Bedrockは堅牢かつスケーラブルなプラットフォームを提供し、セキュリティとRBACの制御を備え、エンタープライズが生成AIの機能を効果的に活用し、独自のAIプラットフォームを構築することを可能にします。 インフラストラクチャとメンテナンスの複雑さに対処しながら、主要なファウンデーションモデルへの簡単なアクセスと、ガバナンス、コンプライアンス、および迅速な開発に対する企業ニーズとの整合性を確保することができます。

生成AIが急速に進化を遂げる中、Bedrockは柔軟で将来に対応した方法として組織がこの技術を活用し、真のビジネス価値を提供できるようにします。 Bedrockの機能を考慮したアーキテクチャにより、企業はAIの採用の障壁を乗り越え、デジタルトランスフォーメーションと提供する範囲全体で生成的インテリジェンスの約束を実現することができます。その結果、イノベーション、効率、競争力のレベルを高めることができるAIパワードの企業になります。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「50以上の新しい最先端の人工知能(AI)ツール(2023年9月)」

AIツールの開発が急速に増えており、新しいツールが定期的に導入されています。以下のいくつかのAIツールをチェックして、日...

AI研究

「大規模な言語モデルは、長い形式の質問応答においてどのようにパフォーマンスを発揮するのか?Salesforceの研究者によるLLMの頑健性と能力についての詳細な解説」

大規模な言語モデル(LLM)であるChatGPTやGPT-4は、いくつかのベンチマークでより優れたパフォーマンスを示していますが、MM...

AIニュース

「Google Chromeは、努力を要さずに読むことができるAIによる記事の要約を表示するようになりました」

Googleは、AIを活用したSearch Generative Experience(SGE)により、再びイノベーションの最前線に立っています。このテック...

AI研究

マイクロソフトの研究者がTable-GPTを紹介:二次元テーブルの理解とタスクで言語モデルを優れたものに

最近、人工知能の分野における最新の発展により、GPTやLLaMaなどの大規模言語モデルは、自然言語タスクの幅広いスペクトラム...

データサイエンス

「Ego-Exo4Dを紹介:ビデオ学習とマルチモーダルパーセプションに関する研究をサポートするための基礎データセットとベンチマークスイート」

今日、AIはほとんどの想像できる分野で応用されています。それは確かに私たちの生活を変え、プロセスを合理化し、効率を向上...

機械学習

「読むアバター:リアルな感情制御可能な音声駆動のアバター」

「既存の音声駆動型のディープフェイクの重要な制約の1つは、スタイル属性をより制御できる能力の必要性です理想的には、これ...