Learn more about Search Results AWS Lambda - Page 11

「OpenAIやLM Studioに頼らずにAutoGenを使用する方法」

イントロダクション OpenAIやLMスタジオに頼らずに、あなた自身のAIチームを作成する準備はできていますか?もはや銀行を荒らすことも、アプリをダウンロードすることもありません。llama-cpp-pythonの設定から、autogenフレームワークのヘルプを借りてローカルLLMのパワーを探求するまで。OpenAI APIに依存せず、Autogenのフルポテンシャルを引き出す準備をしましょう。 学習目標 詳細に入る前に、この記事の主な学習目標を概説しましょう: さまざまなAIライブラリとツールを評価・比較する方法を学ぶ。 llama-cpp-pythonがOpenAI APIの代替として提供できる方法を探索する。 2つの現実世界の使用例で獲得した知識を適用する: アルゴリズムメンターチームの構築と金融チャート生成の自動化。 AutoGenの改善されたユーザーエクスペリエンスを探索し、統合されたIPythonを通じて即時のコード実行結果を得る。 この記事はData Science Blogathonの一環として公開されました。 ツール紹介: llama-cpp-python、AutoGen、およびローカルLLM しかし、このテックツールキットの特別な点は何でしょうか? llama-cpp-pythonは、LLMAのような有名なモデルを含めて、ローカルでLLMを実行するためのゲートウェイです。コンピュータ上にAIのスーパースターがいるようなもので、さまざまなBLASバックエンドのサポートにより、速度は驚異的です! AutoGen AutoGenは、基盤モデルを使用するための高レベルな抽象化として機能する統一されたマルチエージェント会話フレームワークです。LLM、ツール、および人間の参加者を統合し、自動化されたチャットを通じて能力のある、カスタマイズ可能で会話形式のエージェントを結合します。エージェント同士が自律的にコミュニケーションして共同作業を行うことができ、複雑なタスクを効率的に進めることやワークフローを自動化することが可能です。 もしAutoGenの機能をより深く探求し、戦略的なAIチームビルディングをどのように支援するかを調べることに興味があるなら、当社の専用ブログ「Strategic  AI Team Building…

Amazon Kendraを使用して保険請求をインテリジェントに処理するために、Amazon Comprehendで作成されたカスタムメタデータを使用します

構造化データとは、データベース内の列に格納された情報のように固定されたパターンに従うデータ、およびテキスト、画像、またはソーシャルメディアの投稿などの特定の形式やパターンを持たない非構造化データの両方が、さまざまな組織で生産され、消費され続けています例えば、国際データコーポレーション(IDC)によると、[…]

「Langchainを利用した半構造化データのためのRAGパイプラインの構築」

イントロダクション Retrieval Augmented Generation(RAG)は長い間存在しています。この概念を基にしたツールやアプリケーションが多数開発されており、ベクトルストア、検索フレームワーク、LLMなどがあり、カスタムドキュメント、特にLangchainを使用した半構造化データとの作業が容易で楽しくなっています。長くて密度のあるテキストとの作業はこれまでになく簡単で楽しいものとなりました。従来のRAGはDOC、PDFなどのドキュメントやファイル形式の非構造化テキストにはうまく対応していますが、PDFの埋め込みテーブルなどの半構造化データには対応していません。 半構造化データとの作業時には通常2つの問題が生じます。 従来の抽出およびテキスト分割方法ではPDFのテーブルを考慮していません。通常、テーブルが分割されてしまい、情報が失われます。 テーブルの埋め込みは正確な意味ベースの検索には適さない場合があります。 そのため、本記事ではLangchainを使用して半構造化データ用の検索生成パイプラインを構築し、これらの2つの問題に対処します。 学習目標 構造化、非構造化、半構造化データの違いを理解する。 RAGとLangchainの基本をおさらいする。 Langchainを使用して半構造化データを処理するためのマルチベクトル検索生成システムを構築する方法を学ぶ。 この記事はData Science Blogathonの一環として公開されました。 データの種類 通常、データには構造化データ、半構造化データ、非構造化データの3つのタイプがあります。 構造化データ:構造化データは標準化されたデータです。データは事前に定義されたスキーマ(行と列など)に従います。SQLデータベース、スプレッドシート、データフレームなどが該当します。 非構造化データ:非構造化データは、構造化データとは異なり、データモデルに従いません。データはランダムな形式となっています。たとえば、PDF、テキスト、画像などです。 半構造化データ:これは前述のデータタイプの組み合わせです。構造化データとは異なり、厳密な定義済みのスキーマを持ちませんが、データはいくつかのマーカーに基づいて階層的な順序を保持しています。これは非構造化データとは異なります。たとえば、CSV、HTML、PDFの埋め込みテーブル、XMLなどが該当します。 RAGとは何ですか? RAGはRetrieval Augmented Generation(検索拡張生成)の略であり、大規模言語モデルに新しい情報を提供する最も簡単な方法です。RAGについて簡単に説明しましょう。…

クラウド移行のマスタリング:成功させるためのベストプラクティス

「クラウド移行のプロセスはどれも同じではありません各システムには独自の要件があります始めるには、この記事をチェックして、試行された実践方法を確認してください」

エアライン事業で情報とモデルを明らかにして、明らかにスムースに動作するようにモニターする

イントロダクション 訓練と評価でパフォーマンスの良いモデルが、本番環境で悪化するという挫折感を経験したことがありますか?これは本番フェーズでよくある課題ですが、そこでEvidently.aiという素晴らしいオープンソースのツールが登場し、私たちのMLモデルを観察可能にして監視しやすくします。このガイドでは、本番環境でのデータとモデルのパフォーマンスの変化の背後にある理由と、実装するために必要なアクションについて取り上げます。また、このツールをStreamlit予測アプリと統合する方法も学びます。素晴らしい旅を始めましょう。 この記事はデータサイエンスブログマラソンの一環として公開されました。 必要な前提条件 1) リポジトリのクローン git clone "https://github.com/VishalKumar-S/Flight-Delay-Prediction-and-live-Monitoring-with-Azure-Evidently-and-Streamlit-with-MVC-Architecture.git" 2) 仮想環境の作成とアクティベート # 仮想環境を作成するpython3 -m venv venv# プロジェクトフォルダで仮想環境をアクティベートするsource venv/bin/activate # このコマンドはrequirements.txtファイルにリストされているPythonパッケージをインストールします。pip install -r requirements.txt 4)…

「Amazon Bedrock と Amazon Location Service を使用したジオスペーシャル生成AI」

今日、ジオスペーシャルのワークフローは、通常、データの読み込み、変換、そしてマップ、テキスト、またはチャートなどの視覚的インサイトの生成から構成されます生成AIは、これらのタスクを自律エージェントを介して自動化することができますこの投稿では、Amazon Bedrockの基本モデルを使用して、ジオスペーシャルタスクを完了するためにエージェントにパワーを与える方法について説明しますこれらのエージェントはさまざまなタスクを実行することができます[...]

「オートジェンへの参入:マルチエージェントフレームワークの基礎を探索する」

イントロダクション 「自動生成に飛び込む:マルチエージェントフレームワークの基礎を探る」というテーマでソフトウェア開発の未来へのスリリングな旅に出ましょう。OpenAIのChatGPTに続く専門領域であるLLMエージェントは、AIエージェントの開発を革新する前例のない急激な急増を経験しています。単調なタスクの自動化から、動的な意思決定の課題への取り組みまで、LLMエージェントはかつて不可能と思われていた領域の限界を押し広げています。LLMエージェントは、私たちが想像することができる未来の世界において、コンピュータが現実とシームレスに融合し、AIエージェントの重要性がますます高まる世界を思い浮かべてください。言葉やジェスチャーを使ってエージェントに指示を出し、彼らが優れた推論力と行動能力でタスクを実行する様子を想像してください。しかし、私たちはAIエージェントの革命の夜明けを迎えており、ますます複雑なタスクに取り組むエージェントを力づけるための新しいインフラストラクチャ、ツール、フレームワークが生まれる様子を目の当たりにしています。マルチエージェントチャットシステムのための最先端のフレームワークであるAutogenが、今回の探求の中心になります。 本記事では、革命の初期段階にあるAIエージェントの複雑さを解きほぐし、Autogenの能力を探求しながら、これらのインテリジェントな実体をどのように活かすかを発見していきます。 学習目標 LLMエージェントとは何かを理解する Autogenとは何かを理解し、Autogenを使用してエージェントを構築する基礎を探る AutogenとOpenAI APIを使用してエージェントを構築する LLMエージェントの実世界での使用例を探索する この記事はData Science Blogathonの一環として公開されました。 LLMエージェントとは何か 通常の言語モデルは、翻訳や質問応答など、多くのことに長けています。しかし、その知識と能力には限界があります。それは、家を建てるための道具を持たない職人のようなものです。しかし、LLM(俳句言語モデル)は、必要なツールさえ与えられれば、推論や行動が可能であることが観察されています。ほとんどのLLMは世界の知識が限られていますが、プロンプティングを介してカスタムソースからの情報を補完することができます。 この目的を達成するには、2つの方法があります。検索付き生成(Retrieval Augmented Generation)とLLMエージェントです。RAGでは、モデルに情報をカスタムのハードコードパイプラインを通じて提供します。しかし、エージェントでは、LLMは推論に基づいて手元のツールを使います。たとえば、GPT-4にSerperツールを組み合わせれば、インターネットを検索して回答することができます。また、Yahoo Financeツールにアクセスできる場合は、株式のパフォーマンスを取得して分析することもできます。つまり、LLM、ツール、推論および行動のためのフレームワークの組み合わせがAIエージェントの特徴です。 LLMエージェントの構築には、プラットフォームやツールが急速に増えてきています。Autogenもそのようなツールの1つです。そのため、Autogenが何であり、それを使用してLLMエージェントを作成する方法を理解しましょう。 Autogenとは何か Autogenは、マイクロソフトのオープンソースツールで、堅牢なマルチエージェントアプリケーションを構築するためのツールです。複数のエージェント間のコミュニケーションを重視して、ゼロから設計されています。このツールを使用して、複数のエージェントが提供された問題の解決策を見つけるためにお互いに会話するLLMアプリケーションを作成することができます。エージェントは高度にカスタマイズ可能であり、特定のタスクを実行するために彼らをガイドすることができます。また、Langchainツールエコシステムとも非常に統合されており、既存のLangchainツールを活用してエージェントを補完することができます。 タスクを達成するために、Autogenはさまざまなタイプのエージェントを提供しています。例えば、 アシスタントエージェント:コーディング、レビューなどのタスクを達成する責任を持つエージェントです。 ユーザープロキシエージェント:その名前の通り、これらのエージェントはユーザーの代わりに行動します。人間がエージェントループに参加し、会話をガイドするためのものです。…

「Serverlessを導入するのは難しいですか?」

「チームがサーバーレスを採用すると、さまざまな理由で困難を感じることがしばしばありますこの記事では、一般的な間違いを分析し、指摘します」

Amazon SageMakerを使用してモデルの精度を向上させるために、ファンデーションモデルを使用します

「住宅の価値を決定することは機械学習(ML)の典型的な例ですこの投稿では、ビジュアル質問応答(VQA)のために特に設計されたオープンソースモデルの使用について説明しますVQAでは、自然言語を使用して写真に質問ができ、質問に対する回答も平易な言葉で受け取ることができますこの投稿での目標は、この技術を使用して何が可能かを皆さんに示し、インスピレーションを与えることです」

「NVIDIA Grace Hopperスーパーチップは、グローバルの研究施設、システムメーカー、クラウドプロバイダーで40以上のAIスーパーコンピュータを駆動しています」

数十台の新しいスーパーコンピュータが、NVIDIAの画期的なGH200 Grace Hopper Superchipによって、巨大なスケールのAIとハイパフォーマンスコンピューティングを実現するために、まもなくオンラインに入る予定です。 NVIDIA GH200は、テラバイト単位のデータを実行する複雑なAIおよびHPCアプリケーションの高速化により、科学者や研究者が世界でもっとも困難な問題に取り組めるようにします。 NVIDIAは、SC23スーパーコンピュータショーで、Dell Technologies、Eviden、Hewlett Packard Enterprise(HPE)、Lenovo、QCT、Supermicroなど、さまざまなシステムへの導入を発表しました。 ArmベースのNVIDIA Grace CPUとHopper GPUアーキテクチャを組み合わせ、NVIDIA NVLink-C2Cインターコネクト技術を使用するGH200は、世界中の科学スーパーコンピューティングセンターのエンジンとしても機能します。 これらのGH200を搭載したセンターは、合わせて約200 エクサフロップのAI性能を持ち、科学的なイノベーションを推進します。 HPE CrayスーパーコンピュータはNVIDIA Grace Hopperを統合 HPEは、デンバーのショーでHPE Cray EX2500スーパーコンピュータを提供し、NVIDIA…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us