アクセンチュアは、AWS上でジェネレーティブAIサービスを使用して、ナレッジアシストソリューションを作成しました
『アクセンチュアがジェネレーティブAIサービスを活用して、AWS上にナレッジアシストソリューションを開発』
この投稿は、アクセンチュアのイラン・ゲラー氏とシュユ・ヤン氏と共同執筆です。
現代の企業は、内部および外部のビジネス運営において情報と知識ベースを使用する際に、重大な課題に直面しています。絶えず進化する運用、プロセス、ポリシー、およびコンプライアンス要件により、社員や顧客が最新の情報に追いつくことは非常に困難です。同時に、このコンテンツの非構造化の性質により、従来の検索方法では回答を見つけるのに時間がかかります。
社内では、社員が仕事に必要な情報を見つけるために数時間を費やすことがよくあり、それによりイライラ感や生産性の低下が生じます。そして、回答が見つからない場合、問題をエスカレーションするか、完全な文脈を持たずに意思決定を行わなければならず、リスクが生じます。
外部では、顧客も求めている情報を見つけることが困難になることがあります。エンタープライズの知識ベースは顧客体験を改善してきましたが、依然として使いにくく煩雑な場合もあります。製品に関する質問の回答や営業時間や場所に関する情報を必要とする場合、悪い体験はイライラやさらには顧客離れを引き起こす可能性があります。
- 「DEHBを使用したXGBoostとPythonを使った機械学習モデルの最適化:包括的なガイド」
- 「メタのCode Llamaコード生成モデルは、Amazon SageMaker JumpStartを介して利用可能になりました」
- エッジでの視覚品質検査のためのエンド・ツー・エンドMLOpsパイプラインの構築-パート2
どちらの場合でも、知識管理がより複雑になるにつれ、ジェネレーティブAIは企業が人々をパフォーマンスとイノベーションのための情報とつなげるための画期的な機会を提供します。適切な戦略を持つことで、これらのインテリジェントなソリューションは、組織全体での知識の収集、整理、活用方法を変革することができます。
この課題に取り組むために、アクセンチュアはAWSと協力し、Knowledge Assistと呼ばれる革新的なジェネレーティブAIソリューションを構築しました。AWSのジェネレーティブAIサービスを利用することで、チームは大量の非構造化企業コンテンツを取り込み、理解することができるシステムを開発しました。
従来のキーワード検索ではなく、ユーザーは簡単な対話インタフェースで質問をすることができ、正確な回答を抽出することができます。ジェネレーティブAIは、知識ベース内の文脈と関係を理解し、個別化された正確な回答を提供します。さらにクエリを受けることで、システムは機械学習(ML)アルゴリズムを通じて言語処理を継続的に改善します。
このAIアシスタンスフレームワークを導入して以来、企業は社員の知識保持と生産性の向上に劇的な改善を見ています。情報への迅速で正確なアクセスを提供し、社員が自己サービスできるようにすることで、このソリューションは新入社員の研修時間を50%以上短縮し、エスカレーションを最大40%削減します。
ジェネレーティブAIの力により、企業は知識の収集、整理、共有の方法を変革することができます。既存の知識ベースを活用することで、企業は社員の生産性と顧客満足度を向上させることができます。アクセンチュアのAWSとの協力が示すように、企業の知識管理の未来は、人間と機械の相互作用を通じて進化するAI駆動のシステムにあります。
アクセンチュアは、クライアントがAmazon Bedrockを導入し、Amazon Titanなどの最先端の基礎モデルを利用し、Amazon SageMaker JumpStartやAmazon Inferentiaといった業界をリードするテクノロジーをAWSの他のMLサービスと併せて展開する支援を行っています。
この投稿では、Amazon Bedrockや他のAWSサービスを使用したAccentureによるプロダクションユースケース向けのエンドツーエンドのジェネレーティブAIソリューションの概要を提供します。
ソリューション概要
大規模な公共保健部門のクライアントは、毎日何百万人もの市民にサービスを提供しており、絶えず変化する健康状況に関する最新の情報への簡単なアクセスを求めています。アクセンチュアは、このジェネレーティブAIの機能を既存のFAQボットに統合し、チャットボットがより広範なユーザーの質問に回答できるようにしました。市民がセルフサービスで関連する情報にアクセスできる能力を高めることで、部門の時間と費用を節約し、コールセンターエージェントとの対話の必要性を減らすことができます。このソリューションの主な特徴には以下があります:
- ハイブリッドインテントアプローチ – ジェネレーティブおよび事前学習済みのインテントを使用
- マルチリンガルサポート – 英語とスペイン語で対話
- 会話分析 – ユーザーのニーズ、感情、懸念に関するレポート
- 自然な会話 – 人間のような自然言語処理(NLP)で文脈を保持
- 透明な引用 – ユーザーを情報のソースへと誘導
Accentureの生成AIソリューションは、以下の点で既存のチャットボットフレームワークと比べて次の利点を提供します:
- ユーザーのクエリに対して的確で関連性の高い、自然な回答を迅速に生成します
- 文脈を覚え、続く質問に回答します
- 英語やスペイン語など複数の言語でクエリを処理し、回答を生成します
- ユーザーフィードバックに基づいて継続的に学習し、回答を改善します
- 既存のウェブプラットフォームと簡単に統合できます
- 膨大な企業の知識ベースを取り込みます
- 人間らしい対応が可能です
- 知識の進化は、最小限またはほぼ努力を必要とせずに常に利用可能です
- 前払い費用なしの利用料金ベースのモデルを使用します
このソリューションのハイレベルなワークフローは、以下のステップから構成されます:
- ユーザーは既存のウェブプラットフォームとのシンプルな統合を作成します。
- データは、日0のバルクアップロードおよび日1以降の増分アップロードとしてプラットフォームに取り込まれます。
- ユーザーのクエリはリアルタイムで処理され、必要に応じてシステムのスケーリングが行われます。
- 会話はアプリケーションデータベース(Amazon Dynamo DB)に保存され、マルチラウンドの会話をサポートします。
- Anthropic Claude foundationモデルはAmazon Bedrock経由で呼び出され、最も関連性の高いコンテンツに基づいてクエリの回答を生成するために使用されます。
- Anthropic Claude foundationモデルは、クエリおよび回答を英語から他の言語に翻訳するために使用され、マルチ言語の会話をサポートします。
- Amazon Titan foundationモデルは、Amazon Bedrock経由で呼び出され、ベクトル埋め込みを生成します。
- Pineconeベクトルデータベースの埋め込みを使用して、生のコンテンツの埋め込みとユーザーのクエリの埋め込みの類似性に基づいてコンテンツの関連性が決定されます。
- ユーザーの質問と文脈を追加してプロンプトを作成し、それをAnthropic Claudeモデルに入力します。生成された応答はウェブプラットフォームを介してユーザーに提供されます。
以下の図は、ソリューションアーキテクチャを示しています。
アーキテクチャのフローは、次の2つのパートで理解することができます:
- オフラインデータのAmazon Kendraへのロード
- エンドユーザーのオンラインフロー
次のセクションでは、ソリューションのさまざまな側面とその詳細な開発について説明します。
モデルの選択
モデルの選択プロセスでは、Amazon Bedrockで利用可能なさまざまなモデルの回帰テストが行われました。AI21 Labs、Cohere、Anthropic、Amazon foundationモデルが含まれます。サポートされるユースケース、モデルの属性、最大トークン、コスト、精度、パフォーマンス、言語について確認しました。その結果、このユースケースに最適なClaude-2を選択しました。
データソース
Amazon Kendraインデックスを作成し、2つのレベルのディレクトリのルートWeb URLおよびディレクトリ深度を使用してデータソースを追加しました。複数のウェブページがAmazon Kendraインデックスに取り込まれ、データソースとして使用されました。
GenAIチャットボットのリクエストおよびレスポンスのプロセス
このプロセスのステップは、Amazon Lexからのリクエストと大規模言語モデル(LLM)からのレスポンスとのエンドツーエンドの対話から構成されます:
- ユーザーはリクエストを対話型フロントエンドアプリケーションに送信し、Amazon Simple Storage Service(Amazon S3)バケットを介してAmazon Route 53およびAmazon CloudFrontにホストされています。
- Amazon Lexは意図を理解し、リクエストをAWS Lambda関数にホストされているオーケストレータにリダイレクトします。
- オーケストレータのLambda関数は、次のステップを実行します:
- 関数は、DynamoDB管理のデータベースにホストされているアプリケーションデータベースと対話履歴のセッションIDおよびユーザーIDを操作します。
- Amazon Kendraインデックスに対して別のリクエストが送信され、関連するトップ5の検索結果を取得して関連コンテキストを構築します。このコンテキストを使用して、LLMモデルに必要な変更されたプロンプトが構築されます。
- Amazon Bedrockとオーケストレータの間に接続が確立されます。Amazon Bedrock Claude-2モデルにリクエストが投稿され、選択されたLLMモデルからの応答を取得します。
- LLMからのデータはポストプロセスされ、ユーザーに応答が送信されます。
オンラインレポート
オンラインレポートのプロセスは以下の手順で構成されています:
- エンドユーザーはCloudFront CDNのフロントエンドレイヤーを介してチャットボットと対話します。
- 各リクエスト/レスポンスのやり取りはAWS SDKによって促進され、ネットワークトラフィックはボットのNLPコンポーネントであるAmazon Lexに送信されます。
- リクエスト/レスポンスのペアに関するメタデータは Amazon CloudWatch にログされます。
- CloudWatchロググループはサブスクリプションフィルターで構成され、ログを Amazon OpenSearch Service に送信します。
- OpenSearch Serviceで利用可能になると、ログを使用してKibanaを用いたレポートとダッシュボードを作成できます。
まとめ
この記事では、AccentureがAWSの生成型AIサービスを使用してデジタルトランスフォーメーションに向けたエンドツーエンドのアプローチを実装している様子を紹介しました。従来の質問応答プラットフォームのギャップを特定し、グローバルユーザーとのエンゲージメントを継続しながら、より迅速な応答時間とシステムの継続的な改善のために生成型インテリジェンスをフレームワークに組み込みました。このソリューションについて深く探求し、クライアント向けにこのソリューションを展開するには、Accenture Center of Excellenceチームにお問い合わせください。
このKnowledge Assistプラットフォームは、健康科学、金融サービス、製造業など、さまざまな産業に適用できます。このプラットフォームは、安全な知識を用いて自然で人間らしい回答を提供します。このプラットフォームは、ユーザーがより効率的で生産性の高い行動を取ることを可能にします。
この共同の取り組みは、両社の15年にわたる戦略的な関係に基づき、Accenture AWS Business Group(AABG)によって構築された同じ証明済みのメカニズムとアクセラレータを使用しています。
AABGチームにアクセントアウトポイントをご連絡いただくことで、AWS上でインテリジェントなデータエンタープライズへの移行によってビジネスの成果を出すことができます。
Amazon Bedrockまたは Amazon SageMaker を使用したAWSにおける生成型AIについての詳細は、以下のリソースをご参照ください:
また、AWS生成型AIニュースレターにご登録いただくこともできます。このニュースレターには教育リソース、ブログ、サービスの最新情報が含まれています。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles