Learn more about Search Results 構成 - Page 5

「CMUの研究者たちがRoboToolを公開:自然言語の指示を受け取り、シミュレーション環境と実世界のロボットを制御するための実行可能なコードを出力するAIシステム」

カーネギーメロン大学とGoogle DeepMindの研究者が協力して、RoboToolと呼ばれるシステムを開発しました。このシステムは大規模な言語モデル(LLM)を活用して、ロボットに物理的な制約や長期的な計画に関わるタスクで創造的にツールを使用させる能力を与えます。このシステムは以下の4つの主要なコンポーネントで構成されています: 自然言語の解釈を行うアナライザー 戦略を生成するプランナー パラメータを計算する計算機 計画を実行可能なPythonコードに変換するコーダー GPT-4を使用したRoboToolは、従来のタスクとモーションプランニングの方法に比べて、複雑なロボティクスタスクに対する柔軟で効率的かつユーザーフレンドリーなソリューションを提供することを目指しています。 この研究は、ロボットがツールを創造的に使用するという課題に取り組んでおり、動物がツールを使用する際の知性に類似したものです。これは、ロボットがツールを単に予定された目的のために使用するだけでなく、柔軟な解決策を提供するために創造的かつ非伝統的な方法でツールを使用することの重要性を強調しています。従来のタスクとモーションプランニング(TAMP)の方法は、暗黙の制約を伴うタスクの処理において見直す必要があり、計算コストも高くなる傾向があります。大規模な言語モデル(LLM)は、ロボティクスタスクに有益な知識をエンコードすることで有望な成果を示しています。 この研究は、ツールの選択、順次ツールの使用、および製造など、創造的なツール使用能力を評価するためのベンチマークを導入しています。提案されたRoboToolは、シミュレートおよび実世界の環境で評価され、創造的なツール使用がなければ困難なタスクの処理能力を実証しています。このシステムの成功率は、ベースラインの方法を上回り、暗黙的な制約を伴う複雑な長期的な計画タスクの解決における効果を示しています。 評価は、以下の3種類のエラーを計算することで行われました: ツール使用エラーは、正しいツールが使用されているかを示します 論理エラーは、ツールの誤った順序での使用や提供された制約の無視などの計画エラーに焦点を当てます 数値エラーは、誤った目標位置の計算や間違ったオフセットの追加などの計算エラーを含みます アナライザーを使用しないRoboToolは、大きなツール使用エラーがあり、計算機を使用しないRoboToolは、ロボツールと比べて大きな数値エラーがあります。これは、それぞれの役割がモデルにおいて果たしていることを示しています。 まとめると、言語モデルを活用したRoboToolは、暗黙的な物理的な制約を持つ長期的な計画問題を解決する能力を持つ創造的なロボットツールユーザーです。このシステムのキー概念の識別、創造的な計画の生成、パラメータの計算、実行可能なコードの生成は、創造的なツール使用が必要な複雑なロボティクスタスクの処理に貢献しています。

「MLX対MPS対CUDA:ベンチマーク」

「もしMacユーザーであり、深層学習の愛好家であれば、おそらくMacが重いモデルを処理できると願っていたことでしょうそうですよね?実は、AppleがMLXというフレームワークをリリースしました…」

Amazon SageMaker Studioで生産性を向上させる:JupyterLab Spacesと生成AIツールを紹介

「Amazon SageMaker Studioは、機械学習(ML)開発における広範なセットの完全に管理された統合開発環境(IDE)を提供していますこれには、JupyterLab、Code-OSS(Visual Studio Codeオープンソース)に基づいたCode Editor、およびRStudioが含まれていますそれは、データの準備から構築・トレーニングまでの各ステップのための最も包括的なツールのアクセスを提供します...」

LangChain表現言語とLLMを使用した検証実装のチェーン’ (LangChainひょうげんげんごとLLMをしようしたけんしょうじっそうのチェーン)

導入 人工知能(AI)の分野では、正確性と信頼性を追求する持続的な探求が、ゲームチェンジングな革新をもたらしています。これらの戦略は、生成モデルがさまざまな質問に関連する回答を提供するために、重要な役割を果たしています。さまざまな洗練されたアプリケーションでのGenerative AIの使用に関する最大の障壁の1つは、幻想です。最近Meta AI Researchが発表した「大規模言語モデルにおける幻覚を減らすための検証チェーン」に関する論文で、テキスト生成時の幻想を直接的に減らすための簡単な技術について説明しています。 この記事では、幻視の問題について学び、論文で言及されているCoVeの概念、そしてそれをLLM(Large Language Models)、LangChainフレームワーク、およびLangChain Expression Language(LCEL)を使用して実装する方法について探求します。 学習目標 LLMでの幻視の問題を理解する。 幻視を軽減するためのChain of Verification(CoVe)メカニズムについて学ぶ。 CoVeの利点と欠点について知る。 LangChainを使用してCoVeを実装し、LangChain Expression Languageを理解する。 この記事はData Science Blogathonの一環として公開されました。 LLMにおける幻覚の問題とは? まず、LLMにおける幻覚の問題について学んでみましょう。オートリージェレーティブジェネレーションアプローチを使用すると、LLMモデルは前の文脈が与えられた場合の次の単語を予測します。よくあるテーマの場合、モデルは正しいトークンに対して高い確率を自信を持って割り当てるため、十分な例を見ています。しかし、モデルが珍しいまたは不慣れなトピックについてトレーニングされていないため、高い確信を持って正確でないトークンを生成することがあります。これにより、それ自体は正しそうな情報の幻視が生じます。…

「NYUとGoogle AIの研究者が、機械学習の先進的な演繹的推論のフロンティアを探る」

多くの割引ルールの使用とサブプルーフの構築により、証明の複雑さは医療診断や定理の証明などの多くの論理推論の課題において無限に発展することができます。巨大な証明領域のため、すべてのサイズの保証をカバーするためのデータを見つけることは実際的ではありません。したがって、基本的な証明から始めて、一般的な推論モデルはより複雑な証明へと拡張することができるはずです。 NYUとGoogle AIの研究者のチームは、インコンテキストの学習(ICL)と思考連鎖(CoT)のプロンプトを使用してトレーニングされた場合、LLMsが論理的な推論を行うことができることを実証しました。過去の研究では、モーダスポネンスなどの一部の割引ルールが主な焦点でした。評価もデモンストレーション中であり、テストケースはインコンテキストのデモンストレーションと同じ分布から抽出されたものです。 LLMsがデモンストレーションよりも洗練された証明を一般化できる能力は、ニューヨーク大学、Google、ボストン大学の研究者による新しい研究のテーマです。学者は証明を以下の3つの次元で分類します: デモンストレーションの各ステージで使用される前提の数。 証明を構成する一連の手順の長さ。 使用される割引ルール。 証明の総サイズはこれらの3つの次元の関数です。 このグループは、LLMsの一般的な論理的推論能力を評価するために、以前の研究を2つの重要な点で拡張しています。モーダスポネンス以外の割引ルールもマスターしているかどうかをテストします。彼らの推論能力は次の2つの方法でテストされます: 深度と幅の一般化では、インコンテキストの例よりも長い証明に対する推論が行われます。 構成的一般化では、1つの証明で多くの割引ルールを使用します。 彼らの研究によると、基本的な例を提示することで、論理的な推論タスクはインコンテキストの学習から最も利益を得ることができます。モデルが適合しすぎないようにするためには、インコンテキストの例に、証明において未知の割引の原則(例:ケースによる証明や反証による証明など)が含まれる必要があります。さらに、これらの例には迷彩要素も含まれている必要があります。 研究結果によると、CoTはLLMsにおける組成的証明へのOOB推論を引き起こすことができます。これらのLLMsには、スケールとトレーニング目標が異なるGPT-3.5 175B、PaLM 540B、LLaMA 65B、FLAN-T511Bが含まれています。この発見は驚くべきものであり、LLMsには組成的一般性がないとする文献の豊富さを考えると意外です。ICLは、インコンテキストのサンプルに対する監督学習とは異なる方法で一般化します。テスト例と同じ分布からのインコンテキストの例を与えることは明らかに悪影響です。たとえば、インコンテキストの例に特定の割引ルールが組み込まれている場合、研究者は時折、組成的証拠へのより高度な一般化が見られました。 事前学習では、モデルに仮説的なサブプルーフを作成させることはありません。具体的な例がないと、LLMsは特定の割引ルール(例:ケースによる証明や反証による証明など)を一般化することはできません。モデルのサイズとパフォーマンスの関係は弱いです。指導の調整とより長い事前学習により、より小さなモデル(最小ではなく比較可能なもの)がより大きなモデルと競合することができます。 ICLとCoTのトリガリングプロセスをさらに理解するために、研究者は今後の調査において重要な領域に注目しています。彼らは、最良のインコンテキストの例が、テスト例自体とは異なる分布から得られることを発見しました。ベイズ推論と勾配降下はこれを考慮していません。彼らは、テストケースがやや洗練されているにもかかわらず、よりシンプルな例がより良く機能するかどうかを調査することに興味を持っています。具体的なインスタンスからの外挿をさらに特徴づけるためには、追加の研究が必要です。

『Amazon SageMaker を使用して、Talent.com の ETL データ処理を効率化する』

この投稿では、Talent.comでの求人推薦モデルのトレーニングと展開のために開発したETLパイプラインについて説明します当社のパイプラインは、大規模なデータ処理と特徴抽出のためにSageMaker Processingジョブを使用して効率的なデータ処理を行います特徴抽出コードはPythonで実装されており、一般的な機械学習ライブラリを使用してスケーラブルな特徴抽出を行うため、コードをPySparkを使用する必要はありません

「AI戦略にデータ管理を実装する方法」

データはAI戦略の核ですデータの品質、データの統合、データのガバナンスは、データを最も効果的に扱うための3つの主要な要素です

「Amazon ComprehendのためのPDFの事前ラベル付けを自動化する」

「Amazon Comprehend」はテキストデータから洞察を得るための事前トレーニング済みおよびカスタムAPIを提供する自然言語処理(NLP)サービスですAmazon Comprehendのお客様は、位置、人名、日付など、ビジネスに特有の興味のあるエンティティを抽出するためのカスタムなる名前エンティティ認識(NER)モデルをトレーニングすることができますカスタムモデルをトレーニングするには、[...]

『AWSプロトタイピングによるICL-GroupのAmazon SageMaker上でのコンピュータビジョンモデルの構築』

「これはICLとAWSの従業員が共同執筆した顧客投稿ですICLは、イスラエルに拠点を置く多国籍の製造および鉱業企業で、ユニークな鉱物に基づいた製品を製造し、主に農業、食品、エンジニアリング材料の三つの市場で人類の基本的なニーズを満たしています彼らの鉱山サイトでは、監視が必要な産業用機器が使用されています...」

「2024年に探索する必要のある10の最高のGPU」

イントロダクション 人工知能(AI)、機械学習(ML)、深層学習(DL)の時代において、驚異的な計算リソースの需要は最高潮に達しています。このデジタル革命は私たちを未知の領域に駆り立て、データ駆動の洞察がイノベーションの鍵となる時代へと導いています。しかし、これらのフロンティアを開拓するためには、私たちの高まる野望に対応できるツールが必要です。 魅惑的なクラウドGPUの世界へようこそ。これらのグラフィックス処理ユニット(GPU)は、単なる計算リソースに留まらず、限りないパワーのエンジンです。クラウドGPUは、重い前払いのハードウェア投資なしに、超コンピューティング能力を利用する非凡な能力をユーザーに提供します。 このガイドは、主要なクラウドプロバイダーを舞台に、その強みや隠れた魅力を明らかにし、AI/ML/DLの旅をサポートします。 最高のGPUの概要 プロバイダー GPUオプション 価格 無料ティア 特徴 最適な用途 Amazon Web Services(AWS) T4、G4ad(Radeon Pro V520) オンデマンド&スポットインスタンス はい(制限付き) 多様なGPUオプション、広範なエコシステム 大企業、高要求のワークロード Microsoft Azure T4、A100、V620、M60、MI25…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us