『今日、企業が実装できる5つのジェネレーティブAIのユースケース』
『企業が実装可能な5つのジェネレーティブAIのユースケース』
LLMsを始める準備はできましたか?ここでは、OpenAI、Vimeo、および他の企業のデータチームが現在実践している人気のある5つのアプリケーションを紹介します。
生成型AIに対する興奮は本物であり、データと機械学習のチームはその熱を感じています。
さまざまな業界で、経営陣はデータリーダーにAIを活用した製品の開発を促しています。これにより時間が節約され、収益が向上し、競争上の優位性が得られると期待しています。
また、OpenAI、Google、Amazon、Microsoftなどのテックジャイアントは、大規模な言語モデル(LLMs)や画像生成拡散モデルによる機能を駆使して市場を席巻しています。これらのモデルは、企業がデータを分析し、情報を要約および統合し、コンテンツを生成し、その他のビジネスの変革を支援することを約束しています。
しかし、実際には、企業は生成型AIを取り入れる際にどこから始めればいいのでしょうか?どのような生成型AIのユースケースが現実的で実現可能であり、実際にROI(投資対効果)があるのでしょうか?
私たちは早期の導入者の戦略を詳しく調査しました。企業が現在この技術をどのように活用しているのか、またデータチームがスケールでジェンエーアイを導入するためにはどのような要件があるのかを学びました。
知識労働者の効率的なワークフローを構築する
異なる業界で、企業は知識労働者の時間を節約し、プロセスを自動化および簡素化することで早期の生成型AIユースケースを推進しています。
LLMsは非構造化データから洞察を理解し抽出する能力を持つため、企業は大量の内部情報から要約、分析、検索、洞察の提供などで価値を見出しています。以下では、いくつかの主要なセクターがどのようにジェンエーアイを活用しているかを探ってみましょう。
法律事務所
法律業界では、AIパワードシステムが以下のような支援を行っています:
- 規制監視の自動化により、クライアントがコンプライアンスに最新の状態であることを確認
- 遺言書や契約などの標準文書の起案とレビュー
- 文書の大量レビューによるデューデリジェンスの支援。潜在的なリスクや問題を特定するために大量の文書をレビュー
- 契約の分析により、問題をフラグし、修正を提案
- 判例法、法令、ジャーナル、規制などの関連出版物からの相応しい情報の特定、分析、要約による法的研究の支援
テクソリューション:法律チームは、法のシステムにファインチューニングされたカスタムモデルまたはLLMsを採用しています。具体的にはCoCounsel(GPT-4によるパワーバイ)、Harvey、およびトムソン・ロイターのソフトウェアスイートがあります。
リアルライフユースケース:ロンドンの法律事務所MacfarlanesはHarveyを使用して、研究をサポートし、ドキュメントを分析および要約し、クライアントワークを含むメールやメモの最初の草案を作成しています。なお、人間の弁護士がその作業をレビューしています。
金融サービス
かつては、ゴールドマン・サックスやシティグループなどのウォール街機関がデータプライバシー上の懸念からChatGPTを禁止したことで有名でした。しかし、そのような「反AI」の見出しがあるにもかかわらず、金融業界は数年間にわたり機械学習アルゴリズムを活用しており、詐欺検出アルゴリズムや瞬時の信用判断を支えています。また、金融製品や企業は生成型AIにおける潜在的なユースケースに満ちています。
ただし、現在のところ、データブリックスによると、金融サービス業における80%の生成型AIユースケースは、時間とリソースを節約するためのプロセスの効率化に重点を置いています。具体的な例としては、
- 内部文書を知識ベースとして使用できる会話型金融チャットボット
- 請求書のキャプチャと処理などの基本的な会計機能の自動化
- 年次報告書、保険契約、収益通話の要約、抽出、洞察の分析
さらに、業界のリーダーたちは、AIが金融犯罪や詐欺を検出・防止する能力が非常に魅力的な応用であると考えています。
技術的なソリューション:カスタマイズされたソリューションが登場し始めており、その中には金融サービス向けに具体的に開発された500億パラメータLLMであるBloombergGPTなどがあります。
実際の使用例:2023年9月、モルガン・スタンレーはAIを活用したアシスタントを立ち上げ、研究報告書や文書の内部データベースへの簡単なアクセスを提供し、金融アドバイザーをサポートしています。従業員は市場、内部プロセス、推奨事項に関する質問をするためにこのツールを使用できます。
営業チーム
営業やマーケティングチームは、以下のような事例で生成AIを積極的に採用しています:
- メール、ランディングページ、ブログ記事などの最初の草稿の作成
- CRMのデータに基づいて個別のアウトリーチに向けたコンテンツのパーソナライズ
- 営業担当者の指導のための営業対話の分析
- 人口統計、企業情報、デジタルの行動に基づくリードスコアリングの自動化
- 電話やビデオ会議の対話の要約
技術的なソリューション:営業プラットフォームのGongは独自のモデルを使用してコールの要約を作成し、次のステップを推奨して見込み客を購買の旅路に進めるのに役立ち、SalesforceのEinstein Copilotは顧客の特定の文脈に基づいて電子メールの返信やアカウントの更新を自動生成します。
実際の使用例:アカウントエンゲージメントプラットフォームの6senseはAIを活用した会話型メールソリューションをプロスペクトコミュニケーションに使用しており、マーケティング関与のあるアカウントからの新しいパイプラインの10%を担当しています。
技術開発やデータ処理の自動化
生成AIにより、コーディングやデータエンジニアリングの繰り返しや単調な側面を自動化することで、ワークフローを効率化し、ソフトウェアエンジニアやデータエンジニアの生産性を向上させています。
例えば、チームは生成AIを使用して、以下の作業を行うことができます:
- コードのチャンクを自動生成し、コードのエラーをレビューする
- 自動的にデバッグし、細かいエラーを修正したり、バグが発生しやすい場所を予測したりする
- 実世界の情報をミラーリングした大量の合成データを生成し、プライバシーの問題を心配することなくモデルをテストする
- コードやプロジェクトに関する詳細なドキュメントを自動的に生成する
- 金融部門などで使われるCOBOLなどのレガシーソフトウェアをより最新の言語にアップデートする
LLMは開発者ソリューションに直接組み込まれることもあります。たとえば、Monte Carloプラットフォームでは、OpenAI APIを活用して、データオブザーバビリティをよりよく運用するための2つの機能であるFix with AI and Generate with AIをサポートしています。Fix with AIはLLMを使用してデータ品質チェックのバグを特定し、Generate with AIはLLMを使用して新しいデータ品質チェックの提案を生成します。
OpenAI自体でも、LLMはDevOpsや内部機能のサポートに使用されています。AI専門家のヘッドであるYaniv Markovsi氏によれば、彼らのチームはGPTモデルを使用して、サーバーログやソーシャルメディアのイベントなどの運用シグナルを集約し翻訳することで、顧客が製品を使用する際の経験を理解しています。これは、従来のアプローチであるサイトリライアビリティエンジニアリングチームが手動でインシデントを調査し、トライジングするよりも効率的です。
スペックソリューション:エンジニアリングチームは、GitHub CopilotやAmazon’s CodeWhispererなどのツールを採用して、日常のワークフローをサポートしています。開発者は自然言語のプロンプトを提供し、Python、JavaScript、Rubyなどの言語でコードのスニペットと提案を受け取ることができます。
実際のユースケース:あるグローバルメディア会社のデータエンジニアリングチームは、LLMsを使用してdbtワークフローでプルリクエストを異なるトリアージレベルに分類しています。変更の分類によって、モデルは異なるビルドコマンドをトリガーします。これにより、開発ワークフローが大幅に効率化されます。チームの代替案は、変更をテストするために適切なコマンドを決定するために複雑なパースをハードコードすることでした。
データを会社全体で共有する
データの世界では、非技術的なユーザーがデータへのアクセスを増やすためにジェンAIを活用するために最も適した機会となるかもしれません。LLMsは、組織全体のチームメンバーが自然言語のプロンプトを入力して、特定のデータポイントを取得したり、複雑な質問に答えたりするためのSQLクエリを生成することができます。
これは、Databricksの製品SVPであるAdam Conwayが最初のステップとして明確に示したユースケースです。
「大量の文書を持つ業界の例があります。彼らは内部チームが数万ページの記録から回答を取得できるようにしたいと考えています」とAdamは語ります。「それが正しいアプローチです。リスクは低く、手を汚すことができ、多くの価値を提供し、多くのリスクを生みません。Databricksでは、社内のチャットボットが従業員が問題を解決し、データを確認するのを支援してくれます。大きな価値を見出しています」。
テックソリューション:Databricksなどのプラットフォームは、埋め込み機能に取り組んでいます。彼らは最近、LakehouseIQを発表し、チームが平易な言語でデータをクエリできるようにすると約束しています。
これらの技術はまだ新興ですが、データチームは内部文書やナレッジベースを基にモデルを微調整し、組織にカスタマイズされた機能を構築したり、現実の例に示すように従業員が自己サービスのクエリに近道するためにジェンAIを使用したりすることができます。
実際のユースケース:ライブストリームショッピングプラットフォームであるWhatnotは、マーケティング、ファイナンス、オペレーションなどの非技術部門を含むすべての従業員がSQLを知って自分のデータをクエリし、自分自身のダッシュボードを作成し、独自のdbtモデルを作成することを強く推奨しています。ジェンAIは従業員のトレーニングにも役立っています。
エンジニアリングディレクターのEmmanuel Fuentesは最近、次のように述べています。「人々のスタートを支援しています。SQLのバックグラウンドを持たない場合でも、比較的短期間でスキルを上げるお手伝いをしています。たとえば、ウィンドウ関数のやり方を知らない人は、やりたいことを説明し、SQLの一部を取得し、そのデータテーブルを交換することができます。まるで高度な分析ができない人に対するチューターのようです」。
カスタマーサポートの拡大
カスタマーサポートチームは、LLMを使用したワークフローに特に適した聴衆として独自の称賛を受けています。セマンティックサーチを基本的なチャットボットやワークフローに組み込むことで、データチームはCSチームが情報にアクセスし、応答を作成し、リクエストを迅速に解決することができるようにします。
テックソリューション:一部のCXソリューションは既にプラットフォームにジェンAIの機能を組み込んでいます。たとえば、OracleのFusion Cloud CXは、LLMを使用して内部データを参照し、エージェントが顧客の相互作用の履歴に基づいてサービス要求に即時の応答を生成し、新しいナレッジベースコンテンツを提案します。
実際のユースケース:Vimeoのエンジニアは、ヘルプデスクチャットのプロトタイプを作るためにジェンAIを使用しました。このツールは、会社のZendeskホストされたヘルプ記事をベクトルストアにインデックス化し(以下でベクトルデータベースについて詳しく説明します)、そのストアをLLMプロバイダーに接続します。顧客が既存のフロントエンドチャットボットとの対話で成功しない場合、トランスクリプトはLLMに追加のヘルプのために送信されます。LLMは問題を単一の質問に再言語化し、関連するコンテンツを持つ記事のベクトルストアをクエリし、結果の関連するドキュメントを受け取ります。その後、LLMは顧客のために最終的な要約回答を生成します。
翻訳や言語サービスのサポート
ついに、生成型AIにより、組織間の翻訳や言語サポートを自動化できるようになりました。組織は年間約$600億を言語サービスに費やしていますが、生産されたコンテンツのわずか一部しか翻訳されていません。GPT-4などのLLMは、チームが多言語の顧客サービス対応、グローバルな感情分析、および大規模なコンテンツの地域化を行うのを支援する可能性があります。
テックソリューション: 現在、ほとんどのモデルは、あまり一般的でない言語について熟達するためのトレーニングデータを欠いているか、俗語や業界特有の用語に精通していません。したがって、チームはモデルを調整して堅実な結果を出す必要があります。それにも関わらず、Googleは、400以上の言語でトレーニングされた普遍的な音声モデルを開発することを目標としています。
実際の使用例: 伝統的な翻訳モデルとは一線を画す興味深い取り組みとして、ヘルステック企業Vitalは、AIを活用した医学の高度な専門用語をわかりやすい言葉に瞬時に変換する医師と患者の翻訳ツールを開発しました。
ジェネレーティブAIを導入する際の3つの重要な考慮事項
チームがジェネレーティブAIの常に変化する領域に参入する際には、いくつかの重要な考慮事項を心に留めておく必要があります。
テックスタックの補完
ジェネレーティブAIをサポートするために適切なテックスタックを用意することで、チームはより迅速にスケールを拡大し、価値を創造することができます。一般的なデータスタックの要素に加えて、以下の項目も検討すると良いでしょう:モダンデータスタック内に以下のものを追加することを検討してください。
ベクトルデータベース
ベクターデータベースは、OpenAIのLLMと連携してスケーラブルなアプリケーションを開発するための最も効果的な手段の一つです。ベクターデータベースは、データ内の関係やパターンをAIが理解するのに役立つ意味情報を保持しています。
チームは、PineconeやZillizのスタンドアロンのベクターデータベースを使用するか、DatabricksやSnowflakeの既存のデータストレージソリューション内のベクターエンベッド機能を利用することができます。
モデルの微調整
特定の要件に応じたカスタムなニーズを持つチームにとって、モデルの微調整 – 事前にトレーニングされたモデルを特定のデータセットに合わせてトレーニングすること – は、ベクターエンベッディング以降の次のステップとなるでしょう。TensorflowやHuggingFaceなどのツールを使用してモデルを微調整することができます。
非構造化またはストリーミングデータの処理
ジェネレーティブAIは、非構造化データの大量の洞察を抽出することで最も価値を提供します。もしまだ非構造化データ処理を導入していない場合は、Sparkやストリーミングデータに進出する場合はKafkaなどのツールを実装する必要があるでしょう。
適切なチームとリソースを確保する
AIのパイロットプロジェクトを作成するには時間とリソースがかかります。CEOが積極的にチームに投資するかもしれない場合でも、導入にかかる時間と費用について現実的な見通しを持つことが重要です。
チームを立ち上げる
経験豊富なジェネレーティブAI開発者はまだ存在しないため、おそらく既存の従業員をプロトタイプ作成やコンセプトの検証に向けてリダイレクトすることになるでしょう。これらのチームは通常、一定の機械学習の知識を持つデータエンジニアが参加します。
言い換えると、いくつかの貴重なプレイヤーは、AIのパイロットプロジェクトに取り組むために即座の収益を生み出す作業からリダイレクトする必要があります。内在する機会費用を考慮し、全体的な計画に組み込むことをお勧めします。また、ビジネスの価値に近づいたまま、リソースのシフトを支持できるビジネススポンサーとチームを組み合わせてください。
ハードウェアのコストを考慮
モデルを微調整する予定で、ML Opsに新しく取り組む場合、カスタムトレーニングに伴う計算コストに注目して予測してください。それらのGPUの稼働時間は積み上がっていく可能性があります。
データの品質を優先
技術スタック、選択したモデル、使用ケースに関わらず、ひとつの真実があります。つまり、データの入力と出力の品質を確保する必要があるということです。そうでない場合、自然言語プロンプトを介して直接、もしくはgen AIパワード製品を介して、悪いデータが他の内部チームに公開されるリスクがあります。
生成AIにはビジネスを変革する可能性がありますが、リスクや潜在的な落とし穴も存在します。データのテスト、データのモニタリング、AIガバナンス、およびデータの可観察性は、GenAIが組織にとって恥ずかしいデータの災害ではなく、莫大な価値を創造することを保証するのに役立ちます。
この記事のために私たちとの対談にご協力いただいたNaren Venkatraman、Yaniv Markovski、およびEmmanuel Fuentesに特別な感謝を申し上げます。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 大型言語モデル:DistilBERT — より小型・高速・安価・軽量
- 生成モデルとノイズと構造のダンス’ (Seisei moderu to noizu to kōzō no dansu)
- 「自分自身の生成モデルを選択して実行するためのステップバイステップガイド」
- 「階層トランスフォーマー ― パート2」
- データエンジニアになる方法
- HNSW(Hierarchical Navigable Small World)への序章
- Google DeepMindは、1M以上の軌跡データと汎用AIモデル(𝗥𝗧-X)を含むロボットデータセットであるOpen X-Embodimentをリリースし、ロボットが新しいスキルを学ぶ方法を進化させるための支援を行います