Learn more about Search Results NGC - Page 2

「LLMを活用したサプライチェーン分析におけるLangChainの提供- GPTで強化されたコントロールタワー」

サプライチェーンコントロールタワーは、エンドツーエンドのサプライチェーンオペレーションを効率的に管理するための可視性とモニタリング機能を提供する、中央集権的なソリューションとして定義されることがありますこの分析的な...

「LangChainが評価しようとしている6つのLLMの問題点」

「LangChainが高度な言語モデルの使用を通じて技術開発を向上させることで、ゲームが変わる方法を学びましょう」(Ranguchēn ga kōdo na gengo moderu no shiyō o tsūjite gijutsu kaihatsu o kōjō saseru koto de, gēmu ga kawaru hōhō o manabimashou.)

LangChain チートシート — すべての秘密を1ページにまとめました

作成されたワンページは、LangChainの基本をまとめたものですこの記事では、コードのセクションを進めて行き、LangChainで成功するために必要なスターターパッケージについて説明しますLangChainにおけるモデルは…

「検索強化生成(RAG) 理論からLangChainの実装へ」

「LangChain、OpenAI、およびWeaviateを使用したPythonでの検索増強生成(RAG)の実装例」

Amazon ComprehendとLangChainを使用して、生成型AIアプリケーションの信頼性と安全性を構築しましょう

私たちは、産業全体で生成型AIアプリケーションを動かすための大規模言語モデル(LLM)の活用が急速に増加していることを目撃していますLLMsは、創造的なコンテンツの生成、チャットボットを介した問い合わせへの回答、コードの生成など、さまざまなタスクをこなすことができますLLMsを活用してアプリケーションを動かす組織は、ジェネラティブAIアプリケーション内の信頼性と安全性を確保するために、データプライバシーについてますます注意を払っていますこれには、顧客の個人情報(PII)データを適切に処理することが含まれますまた、不適切で危険なコンテンツがLLMsに拡散されないように防止し、LLMsによって生成されたデータが同じ原則に従っているかどうかを確認することも含まれますこの記事では、Amazon Comprehendによって可能になる新機能について議論し、データプライバシー、コンテンツの安全性、既存のジェネラティブAIアプリケーションにおける迅速な安全性を確保するためのシームレスな統合を紹介します

エンタープライズデータの力を活用するための生成AI:Amazon Kendra、LangChain、および大規模言語モデルによる洞察

広範な知識を持つ大規模言語モデル(LLM)は、ほぼあらゆるトピックについて人間らしいテキストを生成することができますしかし、大量のデータセットでの訓練は、専門的なタスクに対しての利用価値を制限します継続的な学習がなければ、これらのモデルは初期の訓練後に現れる新しいデータやトレンドに無関心ですさらに、新しいLLMを訓練するためのコストも[…]

テキスト生成の新時代:RAG、LangChain、およびベクトルデータベース

はじめに 革新的な技術によって、自然言語処理の急速に変化するランドスケープの中で、機械が人間の言語を理解し生成する方法が常に再構築されています。そのような画期的なアプローチの1つが、Retrieval Augmented Generation(RAG)です。これは、GPT(Generative Pretrained Transformer)などの生成モデルのパワーとベクトルデータベースとLangchainの効率を組み合わせています。 RAGは機械が言語を処理する方法のパラダイムシフトを象徴し、従来に比べて類前の文脈理解と反応性を実現するために生成モデルと検索モデルの隔たりを埋める役割を果たしています。このブログ記事では、RAGのコアコンセプト、GPTモデルとの統合、ベクトルデータベースの役割、および現実世界での応用について説明します。 学習目標 Retrieval Augmented Generation(RAG)の基礎を理解する。 ベクトルデータベースとそのベクトルを使用した革新的なデータ保存および検索手法に洞察する。 RAG、LangChain、およびベクトルデータベースがユーザーのクエリを解釈し、関連情報を取得し、一貫した応答を生成するためにどのように連携するかを理解する。 特定の応用に統合されたテクノロジーの実践スキルを開発する。 この記事はData Science Blogathonの一部として公開されました。 RAGとは何ですか? Retrieval Augmented Generation(RAG)は生成モデルと検索モデルを融合させたものです。これにより、生成モデルの創造的な能力と検索システムの正確さをシームレスに組み合わせることで、多様で文脈に即したコンテンツの生成が可能となります。 テキストの補完や質問応答など、一部の従来の言語生成タスクでは、GPT(Generative Pretrained Transformer)などの生成モデルが豊富なトレーニングデータセットに基づいて文脈に即したテキストを生成する能力が優れていることが示されています。しかし、入力コンテキストが曖昧であるかデータが不足している場合、誤った応答や一貫性のない応答を生成する可能性があります。…

「LangchainとOllamaを使用したPDFチャットボットのステップバイステップガイド」

イントロダクション 情報との相互作用方法が技術の進化によって変化し続ける時代において、PDFチャットボットの概念は利便性と効率性を新たなレベルにもたらします。この記事では、オープンソースモデルを最小限の設定で利用できるようにするLangchainとOllamaを使用してPDFチャットボットを作成する魅力的な領域について説明します。フレームワークの選択やモデルパラメータの調整の複雑さにさようならを言い、PDFチャットボットの潜在能力を解き放つ旅に出かけましょう。Ollamaのシームレスなインストール方法、モデルのダウンロード方法、およびクエリに対して知識のある応答を提供するPDFチャットボットの作成方法を発見しましょう。技術と文書処理のエキサイティングな融合を探求し、情報の検索を今まで以上に簡単にしましょう。 学習目標 Ollamaをコンピュータにインストールする方法を理解する。 Ollamaを使用してオープンソースモデルをダウンロードおよび実行する方法を学ぶ。 LangchainとOllamaを使用してPDFチャットボットを作成するプロセスを発見する。 この記事はデータサイエンスブログマラソンの一環として公開されました。 前提条件 この記事を正しく理解するためには、以下が必要です: Pythonの良い知識と、 Langchainの基本的な知識、つまりチェーン、ベクトルストアなど。 Langchainは、LLMアプリの作成にさまざまな機能を提供します。それは独立した記事そのものに値するものです。Langchainが何であるかわからない場合は、Langchainに関する記事やチュートリアルをいくつか読んでください。このビデオもご覧いただけます。this Ollamaとは何ですか? Ollamaは、オープンソースモデルをダウンロードしてローカルで使用する機能を提供します。最も適したソースからモデルを自動的にダウンロードします。コンピュータに専用のGPUがある場合、モデルをGPUアクセラレーションで実行します。手動で設定する必要はありません。プロンプトを変更することでモデルをカスタマイズすることもできます(そのためLangchainは必要ありません)。OllamaはDockerイメージとしても利用可能であり、独自のモデルをDockerコンテナとして展開できます。エキサイティングですね?さあ、Ollamaをコンピュータにインストールする方法を見てみましょう。 Ollamaのインストール方法 残念ながら、OllamaはMacOSとLinuxのみ利用可能です。しかし、WindowsユーザーでもOllamaを使用できる方法があります – WSL2。コンピュータにWSL2がない場合、thisの記事を読んでください。ここでは、WSL2についてすべてを説明し、VS Codeでの使用方法も説明しています。すでにインストール済みの場合は、Ubuntuを開き、ターミナルで以下のコマンドを実行します。 curl https://ollama.ai/install.sh | sh これにより、OllamaがWSL2にインストールされます。使用しているMacOSの場合は、こちらを参照してください。これでOllamaを使用してモデルをダウンロードする準備が整いました。ターミナルを開いたままにして、まだ完了していません。…

「Langchainのチャットボットソリューションで複数のウェブサイトを強化しましょう」

イントロダクション AIの革新的な時代において、会話エージェントまたはチャットボットは、さまざまなデジタルプラットフォーム上でユーザーの関与、支援、およびユーザーエクスペリエンスの向上に不可欠なツールとして登場しました。高度なAI技術によって動作するチャットボットは、人間の対話に似た自動化されたインタラクティブな対話を可能にします。ChatGPTの登場により、ユーザーの質問に対する能力は飛躍的に向上しました。ChatGPTのようなカスタムデータ上でのチャットボットの構築は、ビジネスにとってより良いユーザーフィードバックとエクスペリエンスを提供することができます。この記事では、LangchainのChatbotソリューションを構築し、ChatGPTのようなカスタムウェブサイトとRetrieval Augmented Generation(RAG)テクニックを使用します。プロジェクトを始める前に、このようなアプリケーションを構築するためのいくつかの重要なコンポーネントを理解します。 学習目標 このプロジェクトから以下のことを学びます:大規模な言語チャットモデル カスタムデータ上でChatGPTのようなチャットボットを構築する方法 RAG(Retrieval Augmented Generation)の必要性 ローダー、チャンキング、埋め込みなどのコアコンポーネントを使用してChatGPTのようなチャットボットを構築する方法 Langchainを使用したインメモリベクトルデータベースの重要性 ChatOpenAIチャットLLMを使用したRetrievalQAチェーンの実装方法 この記事はデータサイエンスブログマラソンの一環として公開されました。 Langchainとは何か、なぜ使うのか ChatGPTのようなチャットボットを構築するために、Langchainのようなフレームワークがこのステップで必要です。応答を作成するために使用される大規模言語モデルを定義します。複数のデータソースを取り扱う際には、gpt-3.5-turbo-16kをモデルとして使用してください。これにより、トークンの数が増えます。このモデル名を使用して、便利なInvalidRequestErrorを避けてください。Langchainは、大規模言語モデル(LLM)によって駆動されるアプリケーションの開発を支援するオープンソースのフレームワークです。LangChainのコアとして、属性とコンテキストの理解を具備したアプリケーションの作成を容易にします。これらのアプリケーションは、プロンプトの指示、フューショットの例、およびコンテキストのコンテンツを含むカスタムデータソースにLLMを接続します。この重要な統合により、言語モデルは提供されたコンテキストに基づいて応答を行い、ユーザーとより微妙で情報のあるインタラクションを行うことができます。 LangChainは高レベルのAPIを提供し、言語モデルを他のデータソースに接続し、複雑なアプリケーションを構築することを容易にします。これにより、検索エンジン、高度な推薦システム、eBook PDFの要約、質問応答エージェント、コードアシスタントのチャットボットなどのアプリケーションを構築することができます。 RAG(Retrieval Augmented Generation)の理解 大規模な言語モデルは、従来のAIとして応答を生成する際に非常に優れています。コード生成、メールの作成、ブログ記事の生成など、さまざまなタスクを実行できます。しかし、ドメイン固有の知識に関しては、LLMsは通常、幻覚に陥りがちです。幻覚を減少させ、事前学習されたLLMsをドメイン特有のデータセットでトレーニングするという課題を克服するために、ファインチューニングという手法が使用されます。ファインチューニングは幻覚を減少させる上で効果的な方法であり、モデルにドメイン知識を学習させる最良の方法です。ただし、これには高いリスクが伴います。ファインチューニングにはトレーニング時間と計算リソースが多く必要とされ、コストがかかります。 RAGはその救世主となります。Retrieval Augmented…

「Amazon Textract、Amazon Bedrock、およびLangChainによるインテリジェントドキュメント処理」

今日の情報時代において、無数の書類に収められた膨大なデータ量は、企業にとって挑戦と機会を同時にもたらします従来の書類処理方法は、効率性や正確さの面でしばしば不十分であり、革新や費用効率化、最適化の余地がありますIntelligent Document Processing(IDP)の登場により、書類処理は大きな進歩を遂げました[…]

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us