Learn more about Search Results A - Page 258

「このGSAi中国のAI論文は、LLMベースの自律エージェントの包括的な研究を提案しています」

自律エージェントは、さまざまな程度の独立性を示す自己操作システムを表します。最近の研究では、広範なトレーニングデータセットと多数のモデルパラメータの組み合わせによって、LLMが人間の知能を模倣する驚異的な能力を持っていることが強調されています。この研究論文では、LLMを利用した自律エージェントのアーキテクチャの側面、構築技術、評価方法、および関連する課題について包括的な研究を提供しています。 https://arxiv.org/abs/2308.11432v1 LLMは、人間の意思決定プロセスを再現し、人工知能システムを強化するための中核的なオーケストレータとして使用されています。上記の画像は、LLMを基盤とした自律エージェントの成長トレンドを示しています。3番目のポイント以降、X軸が年から月に切り替わることに注目すると興味深いです。これらのLLMベースのエージェントは、受動的な言語システムから積極的で目標志向の推論能力を持つエージェントへと進化していることがわかります。 LLMベースの自律エージェントの構築 人間のような能力を効果的に示すために、次の2つの重要な側面に注意する必要があります: アーキテクチャ設計:最適なアーキテクチャを選択することは、LLMの能力を最適に活用するために重要です。既存の研究は体系的に統合され、包括的かつ統一的なフレームワークの開発につながりました。 学習パラメータの最適化:アーキテクチャの性能を向上させるために、次の3つの広く採用されている戦略が登場しました: 例から学習:注意深く選ばれたデータセットを使用してモデルを微調整する方法です。 環境フィードバックから学習:リアルタイムの相互作用と観察を活用してモデルの能力を向上させる方法です。 人間のフィードバックから学習:モデルの応答を改善するために人間の専門知識と介入を活用する方法です。 LLMベースの自律エージェントの応用 さまざまな分野でのLLMベースの自律エージェントの応用は、問題解決、意思決定、およびイノベーションのアプローチに根本的な変化をもたらします。これらのエージェントは、言語理解、推論、適応性を持ち、優れた洞察力、サポート、および解決策を提供することにより、大きな影響を与えます。このセクションでは、LLMベースの自律エージェントが社会科学、自然科学、およびエンジニアリングの3つの異なる領域でどのように変革的な影響を与えているかについて詳しく説明します。 LLMベースの自律エージェントの評価 LLMベースの自律エージェントの効果を評価するために、主観的評価と客観的評価の2つの評価戦略が導入されました。 主観的評価:エージェントの知能やユーザビリティなどの潜在的な特性は、定量的なメトリックでは測定できません。したがって、主観的評価は現在の研究において不可欠です。 客観的評価:客観的評価を利用することには、人間の評価と比較して多くの利点があります。定量的なメトリックは、さまざまなアプローチの簡単な比較や時間の経過による進歩のモニタリングを容易にします。包括的な自動テストの実施の実現可能性により、わずかな数ではなく、多くのタスクの評価が可能となります。 最後に、これまでの研究は多くの有望な方向性を示してきましたが、この分野はまだ初期段階にあり、役割プレイ能力、一般化された人間の調整、プロンプトの堅牢性などのさまざまな課題が存在しています。結論として、この調査はLLMベースの自律エージェントに関するすべての知識を詳細に研究し、体系的なまとめを提供します。

「25,000台のコンピュータがChatGPTを訓練した方法」

「おはよう」とか「さようなら」と思うかもしれませんしかし、「大きな良い」とは言いませんそれはただ意味をなしません数十年にわたり、コンピュータ科学者はAIにこの具体的な問題を解決するよう訓練してきました...

生成AIにおけるプロンプトエンジニアリングの基本原則

導入 この記事では、生成型AIにおけるChatGPTプロンプトエンジニアリングについて説明します。ChatGPTは2022年11月以来、技術者や非技術者の間で最も話題となっているトピックの一つです。これは知的な会話の一形態であり、知的な会話の時代の幕開けを示しています。科学、芸術、商業、スポーツなど、ほぼ何でも尋ねることができ、それらの質問に答えを得ることができます。 この記事はデータサイエンスブログマラソンの一環として公開されました。 ChatGPT Chat Generative Pre-trained Transformer、通常はChatGPTとして知られているものは、ユーザープロンプトに基づいて新しいテキストを生成する役割を示すChat Generative Pre-trained Transformerの頭字語です。この会話フレームワークは、オリジナルのコンテンツを作成するために広範なデータセットでのトレーニングを行います。Sam AltmanのOpenAIは、ChatGPTによって示されるように、最も重要な言語モデルの一つを開発したとされています。この素晴らしいツールは、テキスト生成、翻訳、要約のタスクを容易に実行することができます。これはGPTの3番目のバージョンです。ChatGPTの使い方はほとんどの人が知っているため、インターフェースや操作方法などについては議論しません。しかし、LLMについては議論します。 プロンプトエンジニアリングとは何ですか? 生成型AIにおけるプロンプトエンジニアリングは、AI言語モデルの能力を活用する高度なツールです。これにより、モデルに明確で具体的な指示が与えられ、言語モデルのパフォーマンスが最適化されます。指示を与える例は以下の通りです。 モデルに明示的な指示を与えることは、回答を正確にするために有益です。例 – 99 * 555は何ですか?「回答が正確であることを確認してください」という指示は、「99 * 555は何ですか?」よりも良いです。 大規模言語モデル(LLM) LLMは、自己教師あり学習技術を用いて、大量のデータに対してニューラルネットワークの技術を適用して、人間らしいテキストを生成するAIベースのアルゴリズムです。OpenAIのChat GPTやGoogleのBERTなどがLLMの例です。LLMには2つのタイプがあります。…

ルーターLangchain:Langchainを使用してコーディングアシスタンスを作成する方法

AIの力を借りて、自分自身のコーディングチャットボットを作成することで、コーディングスキルを向上させたいですかLangchianとOpenAiによって作られたOpenAi APIを使用することで、高度なNLPモデルを統合することができます...

『広範な展望:NVIDIAの基調講演がAIの更なる進歩の道を指し示す』

ハードウェア性能の劇的な向上により、生成型AIが生まれ、将来の高速化のアイデアの豊富なパイプラインが構築され、機械学習を新たな高みに導くでしょう。これについて、NVIDIAの最高科学者であり、研究担当のシニアバイスプレジデントであるビル・ダリー氏は、今日の基調講演で述べました。 ダリー氏は、プロセッサとシステムアーキテクトのための年次イベントであるHot Chipsでの講演で、すでに印象的な結果を示しているいくつかの手法について説明しました。 「AIの進歩は莫大であり、ハードウェアのおかげで可能になっていますが、まだ深層学習ハードウェアに制約を受けています」とダリー氏は述べ、世界有数のコンピュータ科学者であり、かつてスタンフォード大学のコンピュータ科学部の部長を務めた人物です。 彼は、例えば、数百万人に使用されている大規模言語モデル(LLM)であるChatGPTが、彼の講演のアウトラインを提案することができることを示しました。このような能力は、過去10年間のGPUによるAI推論性能の向上に大いに負うところがあると彼は述べました。 シングルGPUの性能向上は、データセンターサイズのスーパーコンピュータへのスケーリングで数百万倍の進歩を含んでいます。 研究成果:100 TOPS/Wattを達成 研究者たちは、次の進歩に向けて準備を整えています。ダリー氏は、LLM上で1ワットあたりほぼ100テラオペレーションを実証したテストチップについて説明しました。 この実験では、生成型AIで使用されるトランスフォーマーモデルをさらに高速化する省エネの方法を示しました。これには、将来の進歩を約束するいくつかの簡略化された数値アプローチの1つである4ビット算術が適用されています。 ビル・ダリー氏 さらにダリー氏は、対数的な数学を使用して計算を高速化し、エネルギーを節約する方法についても議論しました。これは、NVIDIAが2021年に特許を取得した手法です。 AI向けのハードウェアの最適化 彼は、AIタスクに合わせてハードウェアを最適化するための半ダースの他の手法を探求しました。これは、新しいデータ型や演算を定義することで実現されることが多いです。 ダリー氏は、ニューラルネットワークを簡素化する方法についても説明しました。NVIDIA A100 Tensor Core GPUで最初に採用された構造的疎結合という手法で、シナプスとニューロンを剪定します。 「スパース化に関してはまだ終わっていません」と彼は言いました。「アクティベーションに何かする必要があり、重みにもより大きなスパース化を行うことができます。」 彼はまた、研究者がハードウェアとソフトウェアを同時に設計する必要があると述べ、貴重なエネルギーをどこに使うかを慎重に決定する必要があると指摘しました。たとえば、メモリと通信回路はデータ移動を最小限に抑える必要があります。 「コンピュータエンジニアであることは楽しい時代です。AIにおけるこの巨大な革命を実現していますが、まだその革命がどれほど大きいかを完全に理解していないのです」とダリー氏は述べました。 より柔軟なネットワーク 別の講演では、NVIDIAのネットワーキング副社長であるケビン・ディアリング氏が、NVIDIA…

「UMass Amherstのコンピュータ科学者がAIを使用して、計算速度を数千倍に加速」

彼らの開発するScaleneは、プログラミング言語Pythonの処理速度を劇的に向上させるオープンソースツールであり、コンピュータの処理速度を制限する問題を回避します

「AIツールを使用してマイクロサービス開発の生産性を向上させる」

「AIツールをマイクロサービス開発に利用することで、コーディングプロセスが効率化され、特に大規模なデータモデルにおいては精度も向上します」

「Google CloudとNVIDIAが協力を更に進展させる」

生成AIと大規模言語モデル(LLMs)が革新を推進する中で、トレーニングと推論のためのコンピューティング要件は驚異的なペースで増え続けています。 そのニーズに応えるため、Google Cloudは本日、NVIDIA H100 Tensor Core GPUを搭載した新しいA3インスタンスの一般提供を発表しました。これらのGPUは、Transformer Engineによる前例のないパフォーマンスをもたらし、LLMsを加速するように特別に設計されたAIアプリケーションに対応しています。 A3インスタンスの提供は、NVIDIAがGoogle Cloudの生成AIパートナー・オブ・ザ・イヤーに選ばれた直後に行われました。この賞は、両社の深いかつ継続的な協力を認めるものであり、Google Cloud上での生成AIの加速に向けた取り組みを評価しています。 この共同の取り組みは、インフラ設計から広範なソフトウェアの有効化まで、Google Cloudプラットフォーム上でのAIアプリケーションの構築と展開を容易にするためのものです。 Google Cloud Nextカンファレンスでは、NVIDIAの創設者兼CEOであるJensen Huangが、Google CloudのCEOであるThomas Kurianとともにイベントの基調講演を行い、NVIDIA H100 GPUを搭載したA3インスタンスの一般提供を祝い、GoogleがDeepMindやその他の部門で内部研究と推論にNVIDIA H100およびA100 GPUを使用していることについて語りました。 議論の中で、Huangは、PaxMLフレームワークのためのNVIDIA…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us