Learn more about Search Results BLOOM - Page 5

イノベーションと持続可能性のバランス:ジェネラティブAIの環境への影響を解明する

フランスのデータウィズグッド協会が、生成AIに関連する社会的および環境的な問題を探求したホワイトペーパーを発表しました私は特に環境への影響に興味を持ちました

QLoRA:16GBのGPUで大規模な言語モデルの訓練を行う

「我々は、モデルのための量子化などの体重減少技術と、パラメータ効率の良いファインチューニング技術であるLoRAを組み合わせる予定ですこの組み合わせの結果として生まれるのが、QLoRAです」

「ユーレカ!NVIDIAの研究によるロボット学習の新たな進展」

ロボットに複雑なスキルを教えることができるNVIDIA Researchによって開発された新しいAIエージェントは、ロボットの手にペン回しのテクニックを迅速に演じることを学習しました。これは人間と同じくらいのスキルです。 上記のビデオで見られる驚くべき手品は、ユーレカによってほぼ30のタスクを学習させることによって達成されました。ユーレカは報酬アルゴリズムを自律的に書き、ボットをトレーニングします。 ユーレカは、引き出しやキャビネットを開ける、ボールを投げてキャッチする、はさみを使うなどのタスクもロボットに教えました。 今日発表されたユーレカの研究には、論文とこのプロジェクトのAIアルゴリズムが含まれており、開発者はNVIDIA Isaac Gymを使用して実験することができます。これは強化学習研究のための物理シミュレーションリファレンスアプリケーションです。アイザックジムは、オープンUSDフレームワークに基づいた3Dツールやアプリケーションを構築するための開発プラットフォームであるNVIDIA Omniverse上に構築されています。ユーレカ自体は、GPT-4大規模言語モデルによって動作します。 「ここ10年で強化学習は素晴らしい成果を上げてきましたが、報酬設計などの課題はまだ存在します。それは試行錯誤のプロセスです。」と、NVIDIAのAI研究の上級ディレクターであるアニマ・アナンドクマールは語りました。彼女はまた、ユーレカの論文の共著者でもあります。「ユーレカは、困難なタスクを解決するために生成的学習と強化学習の手法を統合する新しいアルゴリズムを開発するための第一歩です。」 AIがロボットをトレーニング 論文によると、ユーレカが生成する報酬プログラムは、ロボットの試行錯誤学習において、専門家によって作成されたものよりも80%以上のタスクで優れたパフォーマンスを発揮しています。これにより、ボットの平均パフォーマンスが50%以上向上しています。 https://blogs.nvidia.com/wp-content/uploads/2023/10/franka_cabinet.mp4 ユーレカによって引き出しを開けるように学習されたロボットアーム。 このAIエージェントは、ロボットに強化学習のためのソフトウェアコードを生成するためにGPT-4 LLMと生成的AIを活用しています。具体的なタスクの促しや事前定義された報酬テンプレートは必要ありません。また、開発者のビジョンにより正確に合わせて報酬を修正するための人間のフィードバックをすぐに組み込むことができます。 Isaac GymのGPUアクセラレーションされたシミュレーションを使用することにより、ユーレカは効率的なトレーニングのために大規模な報酬候補の品質を迅速に評価することができます。 ユーレカは、トレーニング結果からキーとなる統計情報の要約を作成し、LLMに報酬関数生成の改善を指示します。このように、AI自体が自己改善しています。ユーレカは、四足歩行、二足歩行、クアッドローター、器用な手、共同作業者のアームなど、あらゆる種類のロボットにあらゆる種類のタスクを実行することを教えてきました。 この研究論文では、20のユーレカによるトレーニングされたタスクについて、ロボットの手が幅広い複雑な操作スキルを示す必要があるオープンソースの手先器用さベンチマークに基づく詳細な評価が提供されています。 NVIDIA Omniverseを使用して生成された視覚化で、9つのIsaac Gym環境の結果が紹介されています。 https://blogs.nvidia.com/wp-content/uploads/2023/10/humanoid.mp4 ユーレカを通じて走りの足技を学ぶヒューマノイドロボット。…

「生成AIの未来はエッジです」

「ChatGPTとジェネレーティブAIの登場は、技術史における画期的な瞬間であり、インターネットやスマートフォンの誕生と同様に評価されています ジェネレーティブAIは知的な対話を展開でき、試験に合格でき、複雑なプログラムやコードを生成でき、目を引く画像やビデオを作成する能力により、無限の可能性を示しています」

『ランチェーンでチェーンを使用するための包括的ガイド』

イントロダクション 言語処理の最前線に足を踏み入れてください!言語が人間とテクノロジーの間の重要なつながりである領域で、自然言語処理の進歩はいくつかの驚異的な高みを開拓しました。この進歩の中には、画期的な大規模言語モデルがあります。これはテキストベースの情報との相互作用を再構築する革命的な力です。本総合学習プログラムでは、テキストベースの情報との相互作用を再構築する革新的なツールであるLangChainの複雑さに深く入り込んでいきます。あなたは「Langchain」はどんなチェーンか、考えたことはありますか? LangChainは、大規模言語モデルの最もダイナミックなフィールドへのゲートウェイとして独立して立っており、これらのモデルが生の入力を洗練された人間らしい反応に変換する方法について深い理解を提供しています。この探求を通じて、LangChainの基本的な構成要素を解き明かし、LLMチェーンやシーケンシャルチェーンからルーターチェーンの複雑な構造までを理解していきます。 学習目標 LLMチェーンやシーケンシャルチェーンを含むLangChainのコアコンポーネントを理解し、入力がシステムを流れる様子を観察します。 プロンプトテンプレートと言語モデルの接続を探求し、異なる要素を一貫して統合する方法を学びます。 現実のタスクに対して機能的なチェーンを作成する実践的な経験を積みます。 構造、テンプレート、パーシング技術を微調整することにより、チェーンの効率を向上させるスキルを開発します。 この記事はData Science Blogathonの一環として公開されました。 LLMとは何ですか? 大規模言語モデル(LLM)とは、人間らしいテキストを理解し生成するために設計された人工知能の一種を指します。OpenAIのGPT-3.5などのこれらのモデルは、人間の言語のパターンや構造を理解するために豊富なテキストデータでトレーニングされます。彼らは翻訳、コンテンツの作成、質問への回答など、さまざまな言語関連のタスクを実行することができます。 LLMは自然言語処理の貴重なツールであり、チャットボット、コンテンツ生成、言語翻訳サービスなどの分野で応用されています。 LangChainとは何ですか? LangChain Chainsの複雑さを解き明かす前に、LangChain自体の本質を把握しましょう。LangChainは、OpenAI、Cohere、Bloom、Huggingfaceなどのさまざまな大規模言語モデル(LLM)プロバイダーとの対話を簡素化するために設計された堅牢なライブラリです。LangChainの特徴的な点は、1つまたは複数のLLMを結ぶチェーンと論理的な接続を作成できる能力です。 LangChainを使う理由 LangChainは、想像力によって限られた機会を提供します。 情報を提供するだけでなく、ウィットと魅力でユーザーと関わるチャットボットを想像してください。 購入を迫られるほど正確に製品を提案する電子商取引プラットフォームを思い浮かべてください。 個別の医療情報を提供し、個人が健康に関する情報に基づいた意思決定を行えるようにする医療アプリを想像してください。 LangChainを使えば、非凡な体験を生み出す力があります。これらのアイデアを現実に変える可能性は、あなたの指先にあります。 LangChainにおけるチェーンの理解…

「ベクターデータベースを使用してLLMアプリを作成する方法」

イントロダクション 人工知能の領域では、OpenAIのGPT-4、AnthropicのClaude 2、MetaのLlama、Falcon、GoogleのPalmなど、Large Language Models(LLMs)やGenerative AIモデルが問題解決の方法を革新しています。LLMsはディープラーニングの技術を使用して、自然言語処理のタスクを実行します。この記事では、ベクトルデータベースを使用してLLMアプリを構築する方法を紹介します。おそらくAmazonの顧客サービスやFlipkartのDecision Assistantのようなチャットボットと対話したことがあるかもしれません。それらは人間に近いテキストを生成し、実際の会話と区別がつきにくいインタラクティブなユーザーエクスペリエンスを提供します。しかし、これらのLLMsは最適化する必要があります。特定のユースケースに対して非常に関連性が高く具体的な結果を生成するようにするためには。 例えば、Amazonの顧客サービスアプリに「Androidアプリで言語を変更する方法は?」と尋ねた場合、正確にこのテキストでトレーニングされていないため、答えることができないかもしれません。ここでベクトルデータベースが助けになります。ベクトルデータベースは、ドメインのテキスト(この場合はヘルプドキュメント)と、注文履歴などを含むすべてのユーザーの過去のクエリを数値の埋め込みとして保存し、リアルタイムで似たようなベクトルの検索を提供します。この場合、このクエリを数値ベクトルにエンコードし、ベクトルデータベース内で類似のベクトルを検索し、最も近い隣人を見つけるために使用します。このようなヘルプを通じて、チャットボットはユーザーを正しくAmazonアプリの「言語設定の変更」セクションに案内できます。 学習目標 LLMsの動作原理、制約、およびベクトルデータベースの必要性について学ぶ。 埋め込みモデルの紹介と、アプリケーションでのエンコードと使用方法について学ぶ。 ベクトルデータベースとそれがLLMアプリケーションアーキテクチャの一部である方法について学ぶ。 ベクトルデータベースとTensorFlowを使用してLLM/Generative AIアプリケーションをコーディングする方法を学ぶ。 この記事はデータサイエンスブログマラソンの一環として公開されました。 LLMsとは何ですか? Large Language Models(LLMs)は、自然言語を処理し理解するためにディープラーニングアルゴリズムを使用する基本的な機械学習モデルです。これらのモデルは大量のテキストデータでトレーニングされ、言語のパターンやエンティティの関係を学習します。LLMsは、言語の翻訳、感情分析、チャットボットの会話などのさまざまなタイプの言語タスクを実行することができます。彼らは複雑なテキストデータを理解し、エンティティとそれらの間の関係を識別し、統率的で文法的に正確な新しいテキストを生成することができます。 LLMsについてもっと詳しく読む。 LLMsはどのように動作するのですか? LLMsは大量のデータ(しばしばテラバイト、さらにはペタバイト)を使用してトレーニングされ、数十億または数兆のパラメータを持ち、ユーザーのプロンプトやクエリに基づいて関連する応答を予測および生成することができます。入力データをワード埋め込み、自己注意層、およびフィードフォワードネットワークを通じて処理し、意味のあるテキストを生成します。LLMアーキテクチャについてもっと読むことができます。 LLMsの制約 LLMsは非常に高い精度で応答を生成するように見えますが、多くの標準化テストでは人間を超える結果を示すことがありますが、それでもこれらのモデルには制約があります。まず第一に、彼らは自身のトレーニングデータに頼ることだけで推論を行い、データ内の特定の情報や現在の情報が欠けているかもしれません。これにより、モデルが誤ったまたは異常な応答を生成することがあります(「幻覚」とも言われます)。これを軽減するための取り組みが継続中です。第二に、モデルはユーザーの期待に合致するように振る舞ったり応答するとは限りません。…

取りましょう NVIDIA NeMo SteerLMは、推論中にモデルの応答をカスタマイズすることができるようにします

開発者は、強力な大規模な言語モデル(LLMs)を自分たちの目的地に到達する際に、AIパワードステアリングホイールを利用して道路にしっかりと踏み入れることができます。 NVIDIA NeMo SteerLMは、会社がモデルの応答をプロダクション中にダイアルインするためにノブを定義することができるようにし、それを推論と呼ばれるプロセスとして実行できるようにします。LLMをカスタマイズするための現在の手法とは異なり、単一のトレーニングランは、何十も、または何百ものユースケースに対応できるモデルを作成し、時間とお金を節約することができます。 NVIDIAの研究者は、SteerLMを作成し、AIモデルにユーザーが関心を持つ内容、たとえば特定のユースケースや市場での従うべき道路標識やユーザー定義の属性を教えるために使用しました。これらの属性はほぼ何でも評価できます-例えば、モデルの応答の有用さやユーモアの程度などです。 1つのモデル、多岐にわたる用途 その結果、新たな柔軟性が生まれました。 SteerLMを使用すると、ユーザーは望む属性をすべて定義し、それらを1つのモデルに組み込むことができます。そして、モデルが実行されている間に、特定のユースケースに必要な組み合わせを選択することができます。 例えば、特定の会計、販売、またはエンジニアリング部門、または特定の市場の固有のニーズに合わせてカスタムモデルを調整することができます。 この方法は、継続的な改善サイクルも可能にします。カスタムモデルの応答は、将来のトレーニングランのデータとして使用でき、モデルをより有用なレベルに調整する際に役立ちます。 時間とお金の節約 これまで、特定のアプリケーションのニーズに合わせた生成型AIモデルの適合は、エンジンのトランスミッションを再構築するのと同等でした。開発者は、データセットに労力をかけてラベルを付け、たくさんの新しいコードを書き、ニューラルネットワークのパラメータを調整し、モデルを何度も再トレーニングする必要がありました。 SteerLMは、このような複雑で時間のかかるプロセスを次の3つの簡単なステップに置き換えます: 基本的なプロンプト、応答、および目的の属性を使用して、これらの属性のパフォーマンスを予測するAIモデルをカスタマイズする。 このモデルを使用してデータセットを自動生成する。 標準の監督付き微調整技術を使用してデータセットでモデルをトレーニングする。 多岐にわたる企業のユースケース 開発者は、SteerLMをテキスト生成を必要とするほとんどの企業のユースケースに適応させることができます。 SteerLMを使用することで、会社はリアルタイムに顧客の態度、人口統計情報、または状況に合わせて調整できる単一のチャットボットを作成することができます。さまざまな市場や地域で提供される顧客に合わせた独自の新しい体験を提供するためのツールとして、SteerLMはすぐれています。 SteerLMはまた、1つのLLMが企業全体の柔軟な執筆補助として機能することも可能にします。 例えば、法律関係者は、法的なコミュニケーションに対して公式なスタイルを採用するために、推論の間にモデルを変更することができます。また、マーケティングスタッフは、対象とする観客に対してより会話的なスタイルを選択することができます。 SteerLMでゲームをエンジョイ SteerLMの潜在能力を示すために、NVIDIAはそのクラシックアプリケーションの1つ、ゲームにおいてデモンストレーションを行いました(下記の映像をご覧ください)。 現在、いくつかのゲームには、プレーヤーが制御できないキャラクター、つまりユーザーや状況に関係なく機械的に事前録音されたテキストを繰り返す非プレイアブルキャラクターが数多く存在します。…

「最大AIパフォーマンス:最新のNVIDIA GPUによって高速化されたAdobeの最新アップデートは、何百万ものクリエイターのワークフローを改善します」

生成AIは、多くの産業で創造的な人々が思い描いたアイデアを類まれな速さで実現するのに役立っています。 この技術は、Adobe MAXで展示されます。10月12日(木曜日)まで、対面とバーチャルで行われます。Adobe MAXをご覧ください。 Adobeは、Adobe Fireflyのリリースにより、創作者たちの手に生成AIの力を与えています。NVIDIAのGPUを使用して、Adobeは芸術家やその他の人々が生成AIを加速させるための新たな機会をもたらし、数百万人のユーザー向けに生成AIの拡張を解放しています。Fireflyは現在、スタンドアロンのアプリとして利用可能であり、他のAdobeアプリとも統合されています。 Adobe Premiere Pro、Lightroom、After Effects、Substance 3Dの最新のアプリのアップデートにより、クリエイターに新たなAI機能がもたらされました。さらに、GeForce RTXおよびNVIDIA RTXのGPUは、これらのアプリやAIエフェクトを高速化し、膨大な時間の節約をもたらします。 ビデオエディターは、最適化された話し声の品質を向上させるAIのEnhance Speech(ベータ版)機能を活用したり、RTX GPUでのPremiere ProでのARRIRAWカメラのオリジナルデジタルフィルムクリップのGPUアクセラレーションデコードで、Apple MacBook Pro 16 M2 Maxと比較して最大60%高速化される点を活用したりすることができます。さらに、After Effectsで利用できる次世代Roto Brush(バージョン3.0)機能により、改善されたロトスコーピングの品質も活用できます。…

中途の旅行 vs 安定した拡散:AI画像生成器の戦い

「Midjourney vs Stable Diffusion、あなたにとって最適なのはどちら?両方のAI画像生成機の強みと弱みを探ってみましょう」

「2023年に試してみることができるChatGPTのトップ22の代替品(無料および有料)」

ChatGPTは、さまざまなタスクにおいて最も有名で一般的に使用されているAIツールです。さまざまなコースや教材があり、その潜在能力を最大限に統合し活用するための知識も豊富なため、定期的に利用しているユーザーは関連する課題にもおなじみです。2021 年までは信頼性に欠け、限定的な知識しか持たなかったため、個人は代替手段を探し出すことを余儀なくされていました。検索を終了するため、ここではChatGPTの代替手段のリストをご紹介します。オプションを探索して、新しいお気に入りのAIを見つけましょう。 ライティング用のChatGPTの代替手段 1. Chatsonic (Writesonic) (無料および有料) このAIは、ChatGPTに似ていますが、ライティングで強化された機能を備えています。GPT-4の機能を活用しています。これは、カスタマイズ可能で使いやすい機能を提供する会話型AIであり、NLPおよびML技術を備えたものです。Googleの検索トレーニングによって、現在のイベントやトレンド情報を取り入れることができます。 プロンプト: クラス5の子供にAditya L-1について説明するための100語の魅力的なコンテンツを生成してください。 アクセスはこちら: Writesonic 2. Claude (無料および有料) Anthropicによる次世代の会話型AIです。Claudeは複数の入力を同時に受け付けることができます。ユーザーに役立ち、正直な無害なAIシステムを生成することを重視して開発されました。Claude AIは創造的なライティング、コーディング、および質問への回答が可能です。個々の利用に向け、異なる振る舞い、パーソナリティ、トーンに切り替えることができます。 プロンプト: インドへのイギリスの侵略につながった出来事の年表を列挙してください。 アクセスはこちら: Anthropic Claude もっと読む:…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us