Learn more about Search Results RT-2 - Page 10

ゲーミングでのファウンデーションモデルの使い方はどのようなものですか?

AI技術は、メディアやエンターテイメント、自動車、カスタマーサービスなど、様々な業界において大きな影響を与えています。ゲーム開発者にとって、これらの進歩は、よりリアルで没入感のあるゲーム体験を創造するための道を開いています。 感情を伝えるような生き生きとしたキャラクターや、単純なテキストを魅力的なイメージに変換するために、基盤モデルは、開発者の作業を加速させると同時に総合コストを削減する上で不可欠な存在となっています。これらのパワフルなAIモデルは、デザイナーやゲーム開発者に高品質なゲーム体験の構築を可能にしました。 基盤モデルとは何ですか? 基盤モデルは、膨大なデータを学習し、さまざまなタスクに対応するために適応されたニューラルネットワークです。テキスト、画像、音声の生成など、さまざまな一般的なタスクを可能にします。基盤モデルの人気と使用は、過去1年間で急速に増加しており、現在数百のモデルが利用可能となっています。 例えば、GPT-4は、コンテキストや過去の会話に基づいて人間らしいテキストを生成することができる、OpenAIが開発した大規模なマルチモーダルモデルです。また、DALL-E 3は、自然言語で書かれた説明からリアルな画像やアートワークを作成することができます。 NVIDIA NeMoやNVIDIA Picassoのようなパワフルな基盤モデルを使用することで、企業や開発者は既存のワークフローにAIを組み込むことが容易になります。たとえば、NVIDIA NeMoフレームワークを使用することで、組織はスケールできる生成AIモデルを迅速にトレーニング、カスタマイズ、展開することができます。また、NVIDIA Picassoを使用することで、チームは独自の企業データで事前トレーニングされたEdifyモデルを微調整し、生成AI画像、動画、3Dアセット、テクスチャ素材、360 HDRiのカスタム製品やサービスを構築することができます。 基盤モデルはどのように構築されていますか? 基盤モデルは、複数のタスクを実行できるAIシステムのベースとして使用することができます。企業は、膨大な未ラベル化データを使用して独自の基盤モデルを簡単かつ迅速に作成することができます。 データセットは可能な限り大きく多様である必要があります。データ量が少なすぎるか、品質が低い場合、生成された出力には不正確さ(幻覚とも呼ばれる)や細かいディテールの欠落が生じる可能性があります。 次に、データセットを準備する必要があります。これには、データのクリーニング、エラーの削除、モデルが理解できる形式に整形する作業が含まれます。データセットの準備時には、偏見が普遍的な問題となるため、これらの不一致や不正確さを測定し、削減、解決することが重要です。 基盤モデルのトレーニングには時間がかかる場合があります。モデルのサイズや必要なデータ量に加えて、NVIDIA A100やH100 Tensor Core GPUなどのハードウェア、およびNVIDIA DGX SuperPODなどの高性能データシステムを使用すると、トレーニングを加速することができます。例えば、ChatGPT-3は、約34日間で1,000以上のNVIDIA A100…

「ULTRA 知識グラフ推論のための基礎モデル」

「任意のデータセットを解決するための単一の一般的なモデルを訓練することは、特に基盤モデルの時代において、機械学習の研究者にとって常に夢でしたこのような夢は知覚の領域で実現されていますが…」

「確信せよ、ただし検証せよ」

非決定的なソフトウェアの開発、テスト、および監視の課題を理解することこれは、可観測性のための新しいかつ重要な課題です (Hiteki teki na sofutowea no kaihatsu, tesuto, oyobi kanshi no kadai o rikai suru koto. Kore wa, kakanokusaburutokusei no tame no atarashī katsu…

「Arxiv検索のマスタリング:Haystackを使用したQAチャットボットの構築のDIYガイド」をマスターする

イントロダクション カスタムデータに関する質問と回答は、大規模言語モデルの最も求められるユースケースの一つです。LLMの人間のような対話スキルとベクトル検索手法を組み合わせることで、大量のドキュメントから回答を抽出することがより容易になります。いくつかのバリエーションを加えることで、ベクトルデータベースに埋め込まれたデータ(構造化、非構造化、準構造化)と対話するシステムを作成することができます。このクエリ埋め込みとドキュメント埋め込みの類似性スコアに基づいてLLMに取得データを追加する手法は、「RAGまたはRetrieval Augmented Generation」と呼ばれています。この手法により、arXiv論文の読解など、さまざまなことが簡単になります。 AIやコンピュータサイエンスに興味がある方なら、少なくとも一度は「arXiv」を聞いたことがあるでしょう。arXivは電子プレプリントおよびポストプリントのためのオープンアクセスリポジトリであり、ML、AI、数学、物理学、統計学、電子工学などのさまざまな主題の検証済み論文をホストしています。arXivは、AIや理系の研究のオープンな研究を推進する上で重要な役割を果たしています。しかし、研究論文を読むことはしばしば困難で時間がかかります。それでは、論文から関連するコンテンツを抽出し、回答を取得するためのRAGチャットボットを使用することで、少しでも改善することはできるでしょうか? この記事では、Haystackというオープンソースツールを使用して、arXiv論文用のRAGチャットボットを作成します。 学習目標 Haystackとは何かを理解し、LLMを活用したアプリケーションを構築するためのコンポーネントを把握する。 「arxiv」ライブラリを使用してArXiv論文を取得するコンポーネントを構築する。 Haystackノードでインデックスとクエリパイプラインを構築する方法を学ぶ。 Gradioを使用してチャットインターフェースを構築し、ベクトルストアからドキュメントを取得し、LLMから回答を生成するパイプラインを調整する方法を学ぶ。 この記事はData Science Blogathonの一環として公開されました。 Haystackとは何か? HaystackはスケーラブルなLLMパワードアプリケーションを構築するためのオープンソースのNLPフレームワークです。Haystackはセマンティックサーチ、質問応答、RAGなどの本番向けNLPアプリケーションを構築するための非常にモジュラーかつカスタマイズ可能なアプローチを提供します。これはパイプラインとノードのコンセプトに基づいて構築されており、パイプラインはノードを繋げることで効率的なNLPアプリケーションを構築するのに非常に便利です。 ノード:ノードはHaystackの基本的な構成要素です。ノードはドキュメントの前処理、ベクトルストアからの取得、LLMからの回答生成など、一つのことを達成します。 パイプライン:パイプラインはノードを繋ぐためのもので、ノードの連鎖を構築するのが容易になります。これによってHaystackでアプリケーションを構築することが容易になります。 HaystackはWeaviate、Milvus、Elastic Search、Qdrantなど、主要なベクトルストアを直接サポートしています。詳細については、Haystackのパブリックリポジトリを参照してください:https://github.com/deepset-ai/haystack。 したがって、この記事では、Haystackを使用してArxiv論文のためのQ&AチャットボットをGradioインターフェースで構築します。 Gradio Gradioは、任意の機械学習アプリケーションのデモをセットアップおよび共有するためのHuggingfaceのオープンソースソリューションです。バックエンドにはFastapiが使用され、フロントエンドコンポーネントにはsvelteが使用されています。これにより、Pythonでカスタマイズ可能なWebアプリを作成することができます。機械学習モデルやコンセプトのデモアプリを構築して共有するのに最適です。詳細は、Gradioの公式GitHubをご覧ください。Gradioを使用したアプリケーションの構築については、「GradioでChat GPTを構築しましょう」という記事も参考にしてください。…

「GPTからMistral-7Bへ:AI会話のエキサイティングな進化」

紹介 人工知能の分野では、特に大規模な言語モデルの領域で驚くべき進展が見られています。大規模言語モデルは、人間のようなテキストを生成したり、文書を要約したり、ソフトウェアコードを書いたりすることができます。Mistral-7Bは、英語のテキストとコード生成の能力をサポートする最近の大規模な言語モデルの一つであり、テキスト要約、分類、テキストの補完、コードの補完など、さまざまなタスクに使用することができます。 Mistral-7B-Instructの特徴は、パラメータが少ないにもかかわらず、優れたパフォーマンスを発揮する能力です。ベンチマークの結果によると、このモデルはすべての7Bモデルを凌駕し、さらに13Bチャットモデルとも競争力を持っています。本ブログでは、Mistral 7Bの機能や能力、使用事例、パフォーマンス、モデルの微調整に関する実践的なガイドなどについて探っていきます。 学習目標 大規模言語モデルとMistral 7Bの動作を理解する Mistral 7Bのアーキテクチャとベンチマーク Mistral 7Bの使用事例とパフォーマンス 推論とモデルの微調整のためのコードの詳細な解説 この記事はData Science Blogathonの一環として公開されました。 大規模言語モデルとは何ですか? 大規模言語モデルのアーキテクチャは、トランスフォーマーを使用して構築されており、アテンションメカニズムを使用してデータの長距離依存性を捉えます。複数のトランスフォーマーブロックの層には、マルチヘッドのセルフアテンションやフィードフォワードニューラルネットワークが含まれています。これらのモデルはテキストデータで事前学習され、シーケンス内の次の単語を予測することを学習し、言語のパターンを捉えます。事前学習された重みは特定のタスクで微調整することができます。Mistral 7B LLMのアーキテクチャと、その特徴について詳しく見ていきましょう。 Mistral 7Bのアーキテクチャ Mistral 7Bモデルのトランスフォーマーアーキテクチャは、アテンションメカニズムとキャッシュ戦略を使用して、高いパフォーマンスとメモリ使用量を効率的にバランスさせ、より大きなモデルよりも速度と品質で優れた結果を出します。4096ウィンドウのスライディングウィンドウアテンション(SWA)を使用して、各トークンが直前のトークンの一部に注意を払うことで、より長いシーケンスに対するアテンションを最大化します。 特定の隠れ層は、ウィンドウサイズと層の深さによって、入力層のトークンに対して決定された距離からアクセスできます。モデルは、Flash…

コードを解読する LLMs

最近の数年間は、言語モデルの進化が著しく、トランスフォーマーの導入によって、私たちが日常的なタスクを行う方法、例えばメールの書き方や作成方法などが革命化されました...

「時系列分析による回帰モデルの堅牢性向上—Part 2」

第1部では、SARIMA(季節性自己回帰和分移動平均)を使用して、タイムシリーズモデルを成功裏に構築することに成功しましたさらに、構築したモデルを評価しました

「言語の力を解き放つ:NVIDIAのアナマライ・チョッカリンガムがLLMの台頭について語る」

生成型AIおよび大規模言語モデルは、産業全体に変革をもたらしていますが、NVIDIAのシニアプロダクトマネージャーであるアナマライ・チョッカリンガム氏によれば、「私たちはまだ序盤です」とのことです。 NVIDIAのAIポッドキャストの最新エピソードでは、ホストのノア・クラビッツ氏がチョッカリンガム氏とLLM(大規模言語モデル)について話しました。具体的には、LLMとは何か、現在の状況、そして将来の可能性についてです。 チョッカリンガム氏はLLMを「より大きな生成型AI運動の一部」と表現し、言語に関して5つのことができると述べました。それは、生成、要約、翻訳、指示、またはチャットです。「これらのモダリティとアクションを組み合わせることで、任意の問題を解決するためのアプリケーションを構築できます」と彼は述べています。 彼女によれば、企業はLLMを利用して革新を推進し、新たな顧客体験を開発し、競争上の優位性を得ています。彼らはまた、これらのモデルの安全なデプロイメントについても検討しており、責任ある開発、信頼性、繰り返し性を実現しようとしています。 検索補完生成などの新しいテクニックにより、LLMの開発が向上する可能性があります。検索補完生成では、モデルに最新のデータソースやサードパーティのAPIを与えることで、「より適切な応答」を実現することができるとチョッカリンガム氏は述べています。これにより、モデルは現在のコンテキストを把握し、より良い回答を生成することができます。 チョッカリンガム氏は、LLMに興味を持つ人々に対して、「手を汚して始める」ことを奨励しています。これには、ChatGPTなどの人気のあるアプリケーションを使用するか、NVIDIA NGCカタログで事前学習済みモデルを使って遊ぶなど、様々な方法があります。NVIDIAは、LLMを実験する開発者や企業向けにフルスタックの計算プラットフォームを提供しており、400万人以上の開発者と1600以上の生成型AI組織からなるエコシステムを持っています。詳細については、11月17日に開催されるLLM Developer Dayに参加して、NVIDIAの専門家からアプリケーションの開発方法について学びましょう。 AIポッドキャストを購読:Amazon Musicで利用可能 AIポッドキャストは、Amazon Musicを通じて利用できるようになりました。 さらに、AIポッドキャストは、iTunes、Google Podcasts、Google Play、Castbox、DoggCatcher、Overcast、PlayerFM、Pocket Casts、Podbay、PodBean、PodCruncher、PodKicker、Soundcloud、Spotify、Stitcher、およびTuneInを通じても聴くことができます。 AIポッドキャストをより良くするために、数分のお時間をいただけますか?このリスナー調査にご協力いただければ幸いです。

シュナイダーエレクトリックは、SageMakerでのリトリーバルアグメントドLLMsを活用して、ERPシステムのリアルタイムの更新を確実にしています

この投稿は、Schneider ElectricのNorth America Artificial IntelligenceのソリューションエンジニアリングおよびアーキテクチャのマネージャーであるAnthony Medeirosと、ビジネスインテリジェンスマネージャーのBlake Santschiによって共同執筆されましたその他のSchneider Electricの専門家には、Jesse Miller、Somik Chowdhury、Shaswat Babhulgaonkar、David Watkins、Mark Carlson、およびBarbara Sleczkowskiが含まれます企業資源計画(ERP)システムは、企業が使用するものです...

統計的推定と推論の初心者向け解説

大数の法則と中心極限定理書籍「データサイエンス-統計と機械学習の入門」からの抜粋

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us