AWSを使った生成AIを活用したクラウド上の新しい構築の時代へようこそ
クラウド上で新たな構造を構築するためのAWS生成AIの革新的な活用方法へようこそ
私たちは、生成AIが時間の経過とともに、私たちが知っているほとんどすべての顧客体験を変革する潜在能力を持つと信じています。AWS上で生成AIアプリケーションを立ち上げている企業の数は多く、adidas、Booking.com、Bridgewater Associates、Clariant、Cox Automotive、GoDaddy、LexisNexis Legal & Professionalなどがビルドしています。Perplexity AIなどの革新的なスタートアップは、生成AIのためにAWSを使いこなしています。AnthropicのようなリーディングAI企業は、ミッションクリティカルなワークロードを処理するための主要なクラウドプロバイダとしてAWSを選択しています。Accentureなどのグローバルなサービスおよびソリューションプロバイダは、カスタマイズされた生成AIアプリケーションの恩恵を受けています。
これらの顧客は、私たちがこれまでやってきたこと、つまり複雑で高価な技術を、あらゆるサイズと技術的能力を持つ顧客にとって民主的なものにすることに焦点を当ててAWSを選んでいます。そのために、私たちは投資し、急速に革新して、生成AIスタックの3つのレイヤー全体にわたる最も包括的な機能セットを提供しています。ボトムレイヤーは、Large Language Models(LLM)や他のFoundation Models(FM)をトレーニングし、予測または推論を行うためのインフラです。ミドルレイヤーは、顧客がAWSサービスから期待するセキュリティ、アクセス制御、その他の機能と同じく、生成AIアプリケーションを構築しスケーリングするために必要なモデルとツールへの簡単なアクセスです。そしてトップレイヤーでは、生成AIベースのコーディングなどの重要なエリアで画期的なアプリケーションに投資しています。ボトムレイヤーからトップレイヤーまでのすべてのレイヤーで顧客に選択肢を提供し、期待される幅広さと深さを提供しているだけでなく、顧客からは私たちのデータファーストなアプローチと、エンタープライズレベルのセキュリティとプライバシーについての信頼も寄せられています。
今週、私たちは大きな一歩を踏み出し、ビジネスで生成AIを普及的に使用することを私たちの顧客にとって簡単で実用的なものにするために、スタック全体のすべてのレイヤーにわたる多くの重要な新機能を発表しました。
- 「イノベーションと持続可能性のバランス:病理学における環境責任に対する現実的なアプローチ」
- 「品質と責任について大規模な言語モデルを評価する」
- 「Amazon Titanを使用して簡単に意味論的画像検索を構築する」
スタックのボトムレイヤー:AWS Trainium2は、生成AI向けの最先端のクラウドインフラストラクチャを提供する最新の追加です
スタックのボトムレイヤーは、LLMや他のFMをトレーニングおよび実行するために必要なインフラ(コンピューティング、ネットワーキング、フレームワーク、サービスなど)です。AWSはMLのために最も先進的なインフラを提供するために革新を続けています。NVIDIAとの長年にわたる協力関係を通じて、AWSは12年以上前に最初にGPUをクラウドに持ち込んだ最初の主要なクラウドプロバイダであり、最近ではNVIDIA H100 GPUをP5インスタンスで利用可能にした最初の主要なクラウドプロバイダでもありました。私たちはAWSが最も優れたGPUを実行するための独自の革新に投資し続けています。それには、最も先進的な仮想化システム(AWS Nitro)による価格性能の利点、Elastic Fabric Adapter(EFA)によるパワフルなペタビットスケールのネットワーキング、Amazon EC2 UltraClustersによるハイパースケールクラスタリング(アベイラビリティゾーン内の数千のアクセラレーションされたインスタンスが相互接続され、最大3,200 Gbpsの大規模なMLトレーニングを実現できます)などが含まれます。また、Amazon EC2 Capacity Blocks for MLを使用することで、どの顧客でも将来の使用のためにGPUを予約(EC2 UltraClustersに500台まで展開)し、短期間のMLワークロードに対して高度に求められるGPUコンピュート容量に簡単にアクセスできるようにしています。
数年前、私たちは価格性能の向上を推進し続けるために、シリコンまで徹底的に革新する必要があると認識し、独自のチップに投資を開始しました。MLに特化した目的のために、AWS Inferentiaという独自の推論チップから始めました。今日、私たちはAWS Inferentiaの第2世代を持つAmazon EC2 Inf2インスタンスを展開しています。Inf2インスタンスは、数千億個のパラメータを含む大規模な生成AIアプリケーションに特化して最適化されています。Inf2インスタンスは、クラウドでの推論の最低コストを提供しながら、Inf1インスタンスと比較して最大4倍のスループットと最大10分の1のレイテンシの低下を実現しています。Inf2は、最大12個のInferentia2チップによって駆動されており、顧客は超大規模なモデルを複数のアクセラレータに分散させることで、推論をより高速かつ効率的に(低コストで)実行できます。Adobe、Deutsche Telekom、Leonardo.aiなどの顧客は、優れた早期の結果を見ており、Inf2上でスケールでモデルを展開することに興奮しています。
トレーニングの面では、AWSの専用のMLトレーニングチップであるAWS Trainiumを利用したTrn1インスタンスは、EFAネットワーキングによって複数のサーバーにトレーニングを分散して最適化されています。リコーのような顧客は、数日間で数十億のパラメータを持つ日本語LLMをトレーニングしています。Databricksは、Trainiumベースのインスタンスを使用することで、大規模なディープラーニングモデルのトレーニングで40%の性能向上を実現しています。しかしながら、新しい、より能力の高いモデルがほぼ毎週登場しているため、私たちはパフォーマンスとスケールの限界をさらに押し上げ続けています。そして、私たちはさらなる進化を果たすために、数千億から数兆のパラメータでモデルのトレーニングを行うためにさらに優れた価格性能を提供するために設計されたAWS Trainium2を発表することを大変嬉しく思っています。Trainium2は、第一世代のTrainiumに比べて最大4倍高速なトレーニングパフォーマンスを提供し、EC2 UltraClustersで使用される場合、合計計算能力は最大65エクサフロップスに達します。これにより、顧客は数週間ではなく数か月で3000億のパラメータを持つLLMをトレーニングすることができるようになります。Trainium2のパフォーマンス、スケール、エネルギー効率性は、AnthropicがAWS上でモデルをトレーニングし、将来のモデルにTrainium2を使用する理由の一部です。そして、私たちはAnthropicとTrainiumおよびInferentiaの両方で継続的なイノベーションに取り組んでいます。最初のTrainium2インスタンスは2024年に顧客に提供できると予想しています。
また、MLシリコンのソフトウェアツールチェーンにも重点を置いてきました。特に、TrainiumとInferentiaから最大のパフォーマンスを引き出すためのソフトウェア開発キット(SDK)であるAWS Neuronの進化に注力しています。2019年にNeuronを導入して以来、私たちはコンパイラとフレームワークの技術に多額の投資を行っており、現在NeuronはメタのLlama 2、DatabricksのMPT、Stability AIのStable Diffusionなど、多くの人気のあるパブリックモデルをサポートしています。また、人気のあるMLフレームワークであるPyTorchやTensorFlow、JAXへのサポートも早ければ来年の初めに追加される予定です。顧客からは、Neuronが現存のモデルトレーニングおよび推論パイプラインをわずか数行のコードでTrainiumとInferentiaに切り替えることを容易にしたとの声を多くいただいています。
他には類を見ない最高のMLチップ、超高速ネットワーキング、仮想化、ハイパースケールクラスターの組み合わせを提供しているのは当社だけです。そのため、AI21 Labs、Anthropic、Hugging Face、Perplexity AI、Runway、Stability AIなど、一部の有名な創造的AIスタートアップがAWS上で稼働していることは驚くことではありません。しかし、効率的かつコスト効果の高いLLMや他のFMを構築、トレーニング、実行するためには、適切なツールが必要です。そして、これらのスタートアップの多くにとって、Amazon SageMakerがその答えです。独自のモデルをゼロから構築し、または多くの人気のあるパブリックモデルから始める場合でも、トレーニングは複雑で高価な作業です。これには大量のデータを取得して準備する必要があります。通常、データのクリーニング、重複の削除、充実および変換を含む多くの手作業が必要です。その後、大規模なGPU/アクセラレータのクラスタを作成および維持し、効率的にモデルトレーニングをクラスタ全体に分散させるためのコードを記述し、頻繁にモデルのチェックポイントを取り、一時停止して点検し、最適化し、クラスタ内のハードウェアの問題に手動で介入して対処する必要があります。これらの課題の多くは新しいものではありませんが、モデルトレーニングと展開に関わる多くの障壁を取り払うために、私たちは6年前にSageMakerを立ち上げた理由でもあります。数万の顧客がAmazon SageMakerを使用しており、LG AI Research、Perplexity AI、AI21、Hugging Face、Stability AIなど、その数は増え続けています。最近では、人気のあるFalcon LLMsのクリエータであるTechnology Innovation Instituteが、SageMaker上で最大の公開モデルであるFalcon 180Bをトレーニングしました。モデルのサイズと複雑さが増えるにつれて、SageMakerの範囲も拡大してきました。
これまでにAmazon SageMakerには、自動モデルチューニング、分散トレーニング、柔軟なモデル展開オプション、ML OPsツール、データ準備ツール、フィーチャーストア、ノートブック、MLライフサイクル全体でのヒューマンインザループ評価とのシームレスな統合、責任あるAIのための組み込み機能など、380以上のゲームチェンジングな機能と機能を追加してきました。私たちは、SageMakerの顧客がLLMsや他のFMsを含むすべてのモデルの構築、トレーニング、推論を継続して行えるよう、迅速にイノベーションを続けています。そして、2つの新しい機能を追加することで、顧客が大規模なモデルをより簡単かつコスト効果的にトレーニングおよび展開できるようにしています。まず、トレーニングを簡素化するために、高スケールで耐障害性の分散トレーニングに必要なプロセスを自動化するAmazon SageMaker HyperPodを導入しています。これにより、分散トレーニングライブラリの構成、数千のアクセラレータにわたるトレーニングワークロードのスケーリング、故障したインスタンスの検出と修復など、トレーニングを最大40%高速化できます。その結果、Perplexity AI、Hugging Face、Stability、Hippocratic、Alkaidなどの顧客は、SageMaker HyperPodを利用してモデルの構築、トレーニング、進化を行っています。次に、推論をよりコスト効果的にし、レイテンシーを低減するための新機能を導入しています。SageMakerは、同じインスタンスに複数のモデルをデプロイすることで、計算リソースを共有できるようになり、推論コストを平均50%削減できます。また、SageMakerは推論リクエストを処理しているインスタンスを積極的に監視し、利用可能なインスタンスに基づいてリクエストをスマートにルーティングすることで、推論レイテンシーを平均20%低減できます。Conjecture、Salesforce、Slackなどは、これらの推論最適化のためにSageMakerをモデルのホスティングに使用しています。
スタックの中間層:Amazon Bedrockは新しいモデルを追加し、新しい機能の波が顧客が安全に生成的AIアプリケーションを構築しスケーリングすることをより簡単にする
多くの顧客は独自のLLMsやその他のFMsを自分で構築したり、公開されているさまざまなオプションを進化させたりすることがありますが、多くの顧客はそのためにリソースと時間を費やしたくない場合もあります。そのために、スタックの中間層ではこれらのモデルをサービスとして提供しています。当社のソリューションであるAmazon Bedrockでは、顧客がAnthropic、Stability AI、Meta、Cohere、AI21、およびAmazonの業界をリードするモデルから選択し、独自のデータでカスタマイズし、AWSでお馴染みのセキュリティ、アクセス制御、および機能をすべて活用することができます。また、これはマネージドサービスを通じて行われます。Amazon Bedrockは9月末に一般提供され、顧客の反応は非常に好評であり、世界中のさまざまな業界の顧客がAmazon Bedrockを利用することに興奮しています。 adidasは「はじめに」の情報からより詳細な技術的な質問まで、開発者が迅速に回答を得るのを支援しています。Booking.comは、顧客ごとにカスタマイズされた旅行の推奨を作成するために生成的AIを使用する予定です。Bridgewater Associatesは、チャートの生成、財務指標の計算、および結果の概要を支援するために、LLMパワードの投資アナリストアシスタントを開発しています。Carrierは、より正確なエネルギーアナリティクスと洞察を顧客に提供することで、エネルギー
スタックの最上層:継続的なイノベーションで生成 AI をより多くのユーザーにアクセス可能に
スタックの最上層には、LLMや他のFMを活用したアプリケーションがあり、職場で生成 AI を利用することができます。生成 AI が既にゲームチェンジを起こしている分野の一つは、コーディングです。昨年、Amazon CodeWhispererを紹介しました。これは、リアルタイムでコードの提案や推奨を生成することで、アプリケーションの開発をより迅速かつ安全に支援します。Accenture、Boeing、Bundesliga、The Cigna Group、Kone、Warner Music Groupなどの顧客が、CodeWhispererを利用して開発者の生産性を向上させています。Accentureでは、50,000人のソフトウェア開発者やITプロフェッショナルにAmazon CodeWhispererを提供しています。できるだけ多くの開発者が生成 AI の生産性の利点を得られるよう、CodeWhispererはすべての個人に対して無料の推奨を提供しています。
ただし、AIコーディングツールは、開発者の業務を容易にする一方、内部のコードベースやAPI、ライブラリ、パッケージ、クラスなどの知識の不足によって、生産性の利益が制約されます。これは、新たに開発者を雇っても、世界クラスであっても、会社のベストプラクティスやコードを理解するまで、あまり生産性が高くないということを意味します。今日のAIパワードのコーディングツールは、まさにその新たに雇われた開発者のような存在です。それに対処するために、最近、Amazon CodeWhispererには新たなカスタマイズ機能のプレビューを提供しました。このカスタマイズ機能は、お客様の内部のコードベースを安全に活用し、より関連性の高い有用なコードの推奨を提供します。この機能により、CodeWhispererはお客様のコードに詳しい専門家となり、より関連性の高い推奨を提供し、さらに時間を節約できます。グローバルなデジタルエンジニアリングやエンタープライズモダニゼーション企業であるPersistentとの共同調査では、カスタマイズによって、CodeWhispererの一般的な機能よりも、タスクを最大28%高速化できることがわかりました。これにより、ヘルスケアテクノロジー企業の開発者は、CodeWhispererに対して「顧客IDに関連するMRI画像をインポートし、画像分類機にかけて異常を検出する」と依頼することができます。CodeWhispererはコードベースにアクセスできるため、MRI画像や顧客IDのインポート場所を含めた関連する提案を提供できます。CodeWhispererはカスタマイズを完全にプライベートに保ち、基盤となるFMはそれらをトレーニングに使用しません。このような能力を一般の顧客に提供しているのは、AWSが唯一の主要なクラウドプロバイダーです。
Amazon Q、職場向けの生成 AI パワードアシスタントの紹介
開発者だけが生成 AI を手に入れるわけではありません。数百万人の人々が生成 AI チャットアプリケーションを利用しています。この領域で早期のプロバイダーが行ってきたことは、消費者にとっては興味深く非常に役立つものですが、仕事ではうまく「機能」しない面もあります。彼らの一般的な知識や能力は素晴らしいですが、あなたの会社やデータ、顧客、業務、ビジネスについては知りません。それによって彼らがあなたを助けることができる範囲が制限されるのです。また、彼らはあなたの役割についてもあまり知りません。あなたが何を仕事として行っているのか、誰と一緒に働いているのか、どの情報を使用しているのか、そして何にアクセス可能なのか。これらの制限は理解できます。なぜなら、これらのアシスタントはあなたの会社のプライベートな情報にアクセスができず、このアクセスを提供するために必要なデータプライバシーやセキュリティ要件を満たすよう設計されていないからです。事後にセキュリティを追加してうまく機能することは困難です。私たちは、毎日の業務で安全に生成 AI を使用できるようにする、より良い方法を提案しています。
私たちは、職場に特化した新しいタイプの生成 AI パワードアシスタント、Amazon Qを紹介することを喜んでいます。Qは、会社の情報リポジトリ、コード、エンタープライズシステムに存在するデータと専門知識を活用して、迅速な関連性のある回答を提供し、問題を解決し、コンテンツを生成し、仕事でアクションを起こすのに役立ちます。Amazon Qとのチャット中に、Qは仕事のタスクを効率化し、意思決定を迅速化し、創造性とイノベーションを促進するための即座かつ関連性のある情報とアドバイスを提供します。私たちはAmazon Qを安全かつプライベートに設計し、既存のアイデンティティ、役割、権限を理解し尊重し、これらの情報を使用して対話をパーソナライズします。Qを使用せずに特定のデータにアクセス権限がないユーザーは、Qを使用してもアクセスできません。私たちはAmazon Qを、企業の厳格な要件を満たすようにデザインしました。いかなるコンテンツも、基盤となるモデルの改善には使用されません。
Amazon QはAWS上でのビルドをサポートする専門のアシスタント: Amazon Qは、17年間にわたるAWSの知識と経験に基づき、AWS上でのアプリケーションやワークロードの構築、展開、運用方法を変革することができます。 Amazon Qは、AWSマネジメントコンソールやドキュメント、IDE(CodeWhisperer経由)、Slackやその他のチャットアプリのチームチャットルームにチャットインターフェースを持っています。 Amazon Qは、新しいAWSの機能を探索するのに役立ち、より速く始めることができます。不慣れな技術を学ぶのにも役立ち、ソリューションの設計、トラブルシューティング、アップグレードなどもサポートします。また、AWSの適切なアーキテクチャパターン、ベストプラクティス、ドキュメント、ソリューションの実装においてもエキスパートです。以下は、新しいAWS専門のアシスタントでできることの一部です:
- AWSの機能、サービス、ソリューションに関する明確な回答とガイダンスを得る: Amazon Qに「Amazon Bedrockのエージェントについて教えてください」と尋ねると、Qはその機能の説明と関連資料へのリンクを提供します。AWSのサービスの動作に関する任意の質問(「DynamoDBテーブルのスケーリング制限は何ですか?」、「Redshift Managed Storageとは何ですか?」など)や、さまざまなソリューションの設計に関するベストプラクティスなども尋ねることができます。そして、Amazon Qは簡潔な回答をまとめ、常にソースを引用(およびリンク)します。
- ユースケースに最適なAWSサービスを選択し、素早く始める: Amazon Qに「AWS上でWebアプリを構築する方法はありますか?」と尋ねると、AWS Amplify、AWS Lambda、Amazon EC2などの潜在的なサービスのリストを提供します。その後、要件、好み、制約をQに理解させることで、オプションを絞り込むことができます(例:「コンテナを使用する場合にはこれらのうちどれがベストですか?」、「リレーショナルデータベースと非リレーショナルデータベースのどちらを使用すべきですか?」)。最後に、「どのように始めればよいですか?」と尋ねれば、Amazon Qは基本的なステップを説明し、追加のリソースに案内します。
- コンピュートリソースを最適化する: Amazon Qは、Amazon EC2インスタンスの選択に助言します。Qに「マイゲームアプリのビデオエンコーディングワークロードを展開するために、パフォーマンスが最も高いEC2インスタンスを見つけるのを助けてもらえますか?」と尋ねると、Qは各提案の理由を示すインスタンスファミリのリストを提供します。さらに、ワークロードに最適な選択肢を見つけるための質問をいくつでもできます。
- コードのデバッグ、テスト、最適化のサポートを得る: IDEでコーディング中にエラーが発生した場合、Amazon Qに「コードにIOエラーがあります。修正策を教えてもらえますか?」と尋ねると、Qがコードを生成します。提案が気に入った場合、Amazon Qに修正をアプリケーションに追加するように頼むことができます。Amazon QはIDE内にあるため、作業中のコードを理解し、修正を挿入する場所を知っています。また、単体テスト(「選択した関数の単体テストを作成してください」)も作成できます。テストはコードに挿入され、実行することができます。最後に、パフォーマンス向上のためのコードの最適化方法も教えてくれます。Qに「選択したDynamoDBクエリを最適化してください」と尋ねると、コードの理解に基づいた自然言語の提案と、クリックするだけで実装できる対応するコードを提供します。
- 問題の診断とトラブルシューティング: AWSマネジメントコンソールでEC2の許可エラーやAmazon S3の設定エラーなどの問題が発生した場合、単純に「Amazon Qでトラブルシューティング」ボタンを押すと、エラー種別とエラーが発生しているサービスの理解を活用して、修正の提案をしてくれます。ネットワークのトラブルシューティングもお任せください(例:「なぜSSHを使用してEC2インスタンスに接続できないのですか?」)。Qはエンドツーエンドの構成を分析し、診断結果を提供します(例:「このインスタンスはプライベートなサブネットにあるようですので、公開可能性が確立される必要があるかもしれません」)。
- 新しいコードベースを時間内にスムーズに理解する: IDEでAmazon Qとチャットすると、ソフトウェアの構築に関する専門知識とコードの理解が組み合わさります。過去には、他の誰かがプロジェクトを引き継ぐか、チームに新しく参加した場合、コードとドキュメントを手動で時間をかけて確認し、その動作や目的を理解する必要がありました。しかし今では、Amazon QがIDE内のコードを理解しているため、単にAmazon Qにコードの説明を求めることで、簡単に理解することができます(「このアプリケーションが何をしているのか、どのように動作するのかの説明を教えてください」と尋ねると、Qはコードが使用しているサービスや各関数の役割などの詳細を提供します。例えば、「このアプリケーションはPython FlaskとAWS Lambdaを使用して基本的なサポートチケットシステムを構築しています」と答え、各コアの機能、実装
Amazon Qはあなたのビジネスの専門家です:Amazon Qをビジネスのデータ、情報、システムに接続することで、それらを統合し、ビジネスに関連する問題の解決、コンテンツの生成、行動の実行をサポートするためのカスタマイズされた支援を提供できます。Amazon Qをビジネスに導入するのは簡単です。Amazon S3、Microsoft 365、Salesforce、ServiceNow、Slack、Atlassian、Gmail、Google Drive、Zendeskなどの人気のあるエンタープライズシステムへの40以上の組み込みコネクタを備えています。また、内部イントラネット、ウィキ、ランブックに接続し、Amazon Q SDKを使用して任意の内部アプリケーションに接続することも可能です。これらのリポジトリにAmazon Qを指定すると、貴社を特徴づける意味情報をキャプチャし、理解することができます。そして、会社全体の従業員が会話インターフェースと対話できるフレンドリーでシンプルなAmazon Q Webアプリケーションが提供されます。Amazon Qはまた、ユーザーのアイデンティティプロバイダーに接続して、ユーザーの役割やアクセス許可されたシステムを理解し、許可された情報のみを含む詳細で微妙な質問に対してカスタマイズされた結果を提供できます。Amazon Qは、提供された情報や知識に正確で忠実な回答や洞察を生成し、機密情報の制約、特定のキーワードのブロック、不適切な質問と回答のフィルタリングも行うことができます。以下は、貴社の新しい専門アシスタントでできることのいくつかの例です:
- ビジネスデータと情報に基づく明確で超関連な回答を取得する:従業員は、以前は様々なソースで検索しなければならなかったものについて、何でもAmazon Qに尋ねることができます。「ロゴ使用の最新ガイドラインは何ですか?」、「社内クレジットカードの申請方法は?」などを尋ねると、Amazon Qは関連するコンテンツを総合し、迅速な回答と関連ソースのリンク(例:ブランドポータル、ロゴのリポジトリ、会社のT&Eポリシー、カード申請)を返します。
- 日常のコミュニケーションを効率化する:質問するだけで、Amazon Qはコンテンツを生成(「このドキュメントに記載されている製品を発表するブログ記事と3つのソーシャルメディア見出しを作成してください」)、執行役員向け要約を作成(「アクションアイテムの箇条書きで当社のミーティングの要約を書いてください」)、メールのアップデートを提供(「インドのお客様向けQ3トレーニングプログラムについてのメールのドラフトを作成してください」)、ミーティングの構造化を支援(「最新の顧客満足度レポートについて話し合うミーティングアジェンダを作成してください」)します。
- タスクを完了する:Amazon Qは、特定のタスクの完了に役立ち、従業員がチケットのファイリングなどの繰り返し作業に費やす時間を減らすことができます。Amazon Qに「Slackで新しい価格提供に関する顧客フィードバックを要約してください」と尋ね、その情報を使用してJiraでマーケティングチームを更新するためのチケットを作成するように要求することができます。「この通話のトランスクリプトを要約してください」と尋ね、それから「Salesforceで顧客Aの新しいケースを開いてください」と要求することができます。Amazon Qは、ZendeskやService Nowなど他の人気のあるワークオートメーションツールもサポートしています。
Amazon QがAmazon QuickSightにあります:Amazon QuickSightのAmazon Qでは、AWSのビジネスインテリジェンスサービスを使用して、ユーザーはダッシュボードに対して「先月の注文数が増加した理由は何ですか?」などの質問をし、増加に影響を与えた要素の視覚化および説明を得ることができます。アナリストはまた、Amazon Qを使用してダッシュボードの構築にかかる時間を日数から数分に短縮することができます。「地域ごとの月間売上を積み上げ棒グラフとして表示してください」といった単純なプロンプトで、即座にその図が返され、ダッシュボードに簡単に追加したり、Qとさらに詳しくチャットしたりすることができます(例:「棒グラフをSankeyダイアグラムに変更してください」、「地域の代わりに国を表示してください」)。Amazon QuickSightのAmazon Qを使用すると、既存のダッシュボードを使用してビジネスステークホルダーに情報を提供し、重要な洞察をまとめ、データストーリーを使用して意思決定を簡素化することも容易になります。例えば、ユーザーはAmazon Qに対して「上級幹部とのビジネスレビューにおいて、過去1ヶ月間のビジネスの変化についてのストーリーを作成してください」と要求することができ、数秒でデータに基づいた魅力的で完全にカスタマイズ可能なストーリーが提供されます。これらのストーリーは、組織全体で安全に共有することができ、ステークホルダーを一元化し、より良い意思決定を促進するのに役立ちます。
Amazon QがAmazon Connectにあります:Amazon Connectは、お客様のサービスセンターサービスですが、Amazon Qによって、カスタマーサービスエージェントがより優れたカスタマーサービスを提供することができます。Amazon Qは、エージェントが通常顧客の情報を入手するために使用する知識リポジトリを活用し、それからエージェントがドキュメントを自分で検索する必要なく、Connect内でAmazon Qと直接チャットすることにより、迅速に顧客要求に対応するのに役立つ回答を得ることができます。また、Amazon Qとのスーパーファストな回答のチャットは素晴らしいですが、カスタマーサービスでは速すぎるものはありません。それがConnectのAmazon Qです。ライブカスタマーとエージェントの対話をプロンプトに変換し、エージェントに対して可能な回答、提案されたアクション、リソースへのリンクを自動的に提供します。たとえば、Amazon Qは、顧客がレンタカー会社に連絡して予約を変更しようとしていることを検出し、迅速に対応するためのエージェントへの回答を生成し、会社の変更手数料ポリシーがどのように適用されるかを素早く伝え、予約を更新するためにエージェントを案内することができます。
Amazon QはAWSサプライチェーン(近日公開)にあります: AWSサプライチェーンでは、供給と需要を計画する人、在庫管理者、および取引先がサプライチェーンを最適化するのを支援する、サプライチェーンインサイトサービスであるAmazon Qが活躍します。Amazon Qは個々のストックアウトや在庫過剰のリスクをまとめて強調し、問題解決のためのシナリオを視覚化することで、効果的なサプライチェーンの実現を支援します。ユーザーはサプライチェーンデータに関する「何を」「なぜを」「もしもを」の質問をAmazon Qに行い、さまざまなサプライチェーンの意思決定における複雑なシナリオやトレードオフについての対話を行うことができます。例えば、顧客が「自分の出荷の遅れの原因とスピードアップの方法は何か?」と尋ねると、Amazon Qは「90%の注文が東海岸にあり、東南部で大きな嵐が24時間の遅れを引き起こしています。マイアミではなくニューヨークの港への出荷にすることで、配送を迅速化しコストを50%削減できます。」と回答するかもしれません。
私たちのお客様は、AWS上で画期的なモデルを訓練し、Amazon Bedrockを使って記録的な速さで生成AIアプリケーションを開発し、Amazon Qのような画期的なアプリケーションを組織全体に展開しています。最新の発表により、AWSはお客様によりパフォーマンス、選択肢、イノベーションを提供しています。re:Inventで提供しているすべての機能の組み合わせにより、目標である画期的なAIをあらゆるサイズと技術能力のお客様にアクセス可能にする大きな節目を迎えました。それにより、お客様は可能性を再発見し変革することができます。
リソース
- G2 KrishnamoorthyとRahul Pathakは「データの価値を差別化要素として引き出す方法」についてアイデアを共有しています
- 「責任あるAIイノベーションを可能にする新しいツールと機能」について詳しく学ぶことができます
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 「SageMakerキャンバスモデルリーダーボードを使用して、高度な設定を持つ機械学習モデルを構築し、評価します」
- 大規模に基礎モデルをトレーニングするためのAmazon SageMaker HyperPodの紹介
- 「Amazon SageMakerを使用して数百のモデルにスケールされたファウンデーションモデルの推論 – パート1」
- 「Amazon SageMakerの最新機能を使用することで、モデルのデプロイコストを平均で50%削減します」
- 「Amazon SageMaker のルーティング戦略を使用して、リアルタイムの推論レイテンシを最小限に抑えましょう」
- 「Amazon SageMakerを使用して、クラシカルなMLおよびLLMsを簡単にパッケージ化してデプロイする方法、パート2:SageMaker Studioでのインタラクティブなユーザーエクスペリエンス」
- 「Amazon SageMakerを使用してクラシカルなMLとLLMsを簡単にパッケージ化し、デプロイする方法 – パート1:PySDKの改善」