Learn more about Search Results 4 - Page 15
- You may be interested
- 「データ分析の最先端にいるための私のイ...
- バイオメディカル文献のアトラスは、捏造...
- 創造力の解放:生成AI芸術アプリケーショ...
- 「Pandasによるデータクリーニング」
- 「Scikit-LLMを使用したゼロショットテキ...
- 「AIが航空会社のコントレイルによる気候...
- ACIDトランザクションとは何ですか?
- 「修理の闘い」
- 3つの高額なミスを避けて、A/Bテストを保...
- 「短期予測を改善したいですか?デマンド...
- 「新しいコードが量子コンピューティング...
- UnityゲームをSpaceにホストする方法
- A.I.-検出ツールを騙すのはどれくらい簡単...
- 「CutLER(Cut-and-LEaRn):人間の注釈な...
- 「生成AIは世界を変える可能性があるが、...
トップ40+の生成AIツール(2023年10月)
ChatGPT – GPT-4 GPT-4はOpenAIの最新のLLMであり、これまでの前任者よりも革新的かつ正確で安全です。 また、画像、PDF、CSVなども処理することができる多モードの機能も備えています。 Code Interpreterの導入により、GPT-4は自分自身のコードを実行して幻覚を避け、正確な回答を提供することができます。 Bing AI Bing AIはOpenAIのGPT-4モデルによって駆動されており、正確な回答を提供するためにウェブを横断する能力を持っています。 また、ユーザーのプロンプトから画像を生成する能力も備えています。 GitHub Copilot GitHub Copilotは、コードを分析し、即時のフィードバックと関連するコードの提案を提供するAIコード補完ツールです。 DALL-E 2 DALL-E 2はOpenAIによって開発されたテキストから画像を生成するツールであり、ユーザーのプロンプトに基づいてオリジナルの画像を作成します。 不適切なユーザーリクエストを拒否するよう設計されています。 Cohere Generate Cohere…
M42がMed42を導入:医療知識へのアクセス拡大のためのオープンアクセスクリニカル大規模言語モデル(LLM)
M42ヘルスは、アブダビ、UAEに拠点を置き、有望な新しいオープンアクセスの臨床大規模言語モデルであるMed42を発表しました。この700億パラメータのモデルのリリースは、医療の革新をもたらす可能性のある高度なAI機能への一般のアクセスを増やす取り組みにおいて、画期的な瞬間です。 MetaのLlama-2 – 70Bモデルから微調整されたMed42は、オープンソースの医療AIの先行モデルよりも大幅に優れています。このモデルは、多くの医療問答データセットでOpenAIのChatGPT 3.5を上回り、USMLEのゼロショット評価で最大72%の正確さを実現しています。これは、Med42が医師に簡単に統合された医学知識へのアクセスを提供することにより、臨床的な意思決定を支援する能力を示しています。 M42 Health AIチームは、大規模な人間がキュレーションした医学文献と患者情報のデータセットを使用してMed42を構築しました。M42、Cerebras、およびCore42(M42の子会社)は、Condor Galaxy 1スーパーコンピュータを微調整するために協力しました。モデルの有効性は、Mohamed bin Zayed University for Artificial Intelligence(MBZUAI)の専門家によって評価されました。 M42のMed42は、一般の人々に医学情報をより公開するために作成された無料で公開されている臨床の大規模言語モデル(LLM)です。LLaMA-2に基づき、700億のパラメータを持ち、この生成型のAIシステムは医学的な問い合わせに正確な応答を提供します。 Med42の最も強力なポイントの一つはその適応性です。AIの助手として、それは医学的な判断を大きく変える可能性があります。医療記録に基づいた個別の治療計画の生成から、大量の医学資料の整理プロセスの高速化まで、さまざまなことに使用することができます。 臨床的な意思決定の改善や医療用途のLLMへのアクセスの拡大の可能性を持つAIの助手として、Med42は現在テストと評価のために利用可能です。使用例としては以下があります: 健康に関する質問への回答 医療歴の概要 医学診断のサポート 一般的な健康に関する質問 Med42のコードとウェイトはHugging…
「7つの新興量子テクノロジーの探求(2024)」
「2024年を形作る7つの量子テクノロジーを発見する:量子機械学習、クラウドコンピューティング、AI、暗号化、イメージング、気候モデリング」
「GPT4による高度なデータ分析:ヨーロッパの観光トレンドのマッピング」
生データをデータビジュアライゼーションに変換することは、従来の方法では退屈で面倒な作業ですデータのクリーニングからデータフレームの作成、厄介なチャートの構文操作にいたるまで、様々な手間がかかりますそれに対して...
「3年以内に労働力の40%がAIの影響を受ける予測」
「ジェネラティブAIブームによる次の3年間に何を期待すべきか?」
NVIDIAの研究者が「Retro 48B」を導入:前の指示調整よりも前にリトリーバルが行われた最大のLLM Pretrained
NvidiaとIllinois大学の研究者は、「Retro 48B」という以前の検索増強モデル(Retro(7.5Bパラメータ)など)よりも遥かに大きな言語モデルを紹介しました。Retro 48Bは広範なコーパスでリトリーバルを使って事前学習され、パープレキシティが改善されます。InstructRetroのエンコーダは抽出されることができ、継続的な検索増強の事前学習が質問応答においてデコーダーのパフォーマンスを向上させることを示唆しています。 検索増強言語モデルは、事前学習および推論中に開放領域の質問応答に利益をもたらします。このアプローチにより、モデルのパープレキシティが低下し、事実性が向上し、ファイントゥーニング後のタスクパフォーマンスが向上します。既存の検索増強モデルはデコーダーオンリーモデルと比較してサイズが制約されており、インストラクションチューニング後のゼロショットの汎用性が制限されています。自然言語理解に重要なインストラクションチューニングは、FLAN、OpenAssistant、Dollyなどの高品質のデータセットからのサポートを得ており、チャットや質問応答のタスクにおいて優れたパフォーマンスを実現しています。 Retroなどのリトリーバルを使って言語モデルを事前学習することは、パープレキシティの低下と事実の正確性の向上において有望な成果を示しています。ただし、既存の検索増強モデルはより多くのパラメータとトレーニングデータが必要であり、大規模な言語モデルの一般化におけるタスクパフォーマンスに影響を及ぼします。この研究では、43B GPTモデルに追加のトークンを使って事前学習を続けることにより、最大の検索増強モデルであるRetro 48Bを紹介しています。このプロセスから得られたInstructRetroは、従来のGPTモデルと比較してゼロショットの質問応答を大幅に改善します。エンコーダを抽出した場合でも、InstructRetroのデコーダーは同様の結果を達成し、質問応答におけるコンテキスト統合のための検索増強事前学習の効果を示しています。 この研究では、GPTモデルを事前学習してRetro 48Bを作成し、ゼロショットの質問応答能力を向上させるために指示を与え、さまざまなタスクでのパフォーマンスを評価するという包括的なプロセスを探求しています。最大の検索増強言語モデルであるInstructRetro 48Bは、GPTモデルと比較して幅広いオープンエンドの質問応答タスクでゼロショットの精度を大幅に向上させます。Retroの拡大アプローチによって、大規模な検索増強モデルの潜在能力が自然言語理解において示されています。 リトリーバルを使って事前学習されたRetro 48Bは、元のGPTモデルよりもパープレキシティが優れています。インストラクションチューニング後、InstructRetroと呼ばれるこのモデルは、ゼロショットの質問応答において、短文タスクでは7%、長文タスクでは10%の改善があります。驚くべきことに、InstructRetroのデコーダーバックボーンのみでも同等の結果が得られ、QAのコンテキスト統合のための事前学習の効果を示しています。 最大の検索増強言語モデルであるInstructRetro 48Bは、GPTモデルと比較してさまざまな開放型なQAタスクにおいてゼロショットの精度を大幅に向上させます。Retroの追加方法を使った検索増強事前学習により、パープレキシティが改善されます。この研究の結果は、インストラクションチューニングの前に回収を使った継続的な事前学習がQAにおいてGPTデコーダーを向上させるための有望な方向を示しています。驚くべきことに、デコーダーは同等の精度を達成しており、コンテキスト統合のための事前学習の効果を示しています。InstructRetroは長文QAタスクで優れたパフォーマンスを発揮し、検索増強事前学習の潜在能力を示しています。
印象的なパフォーマンス:TensorRT-LLMを使用したRTXで最大4倍高速化された大規模言語モデル(LLM) for Windows
Generative AIは、個人コンピューティングの歴史で最も重要なトレンドの一つであり、ゲーミング、創造性、ビデオ、生産性、開発などに進歩をもたらしています。 また、GeForce RTXとNVIDIA RTX GPUは、Tensor Coreと呼ばれる専用のAIプロセッサを搭載しており、1億台以上のWindows PCとワークステーションにネイティブで生成AIのパワーをもたらしています。 本日、TensorRT-LLM for Windowsにより、PC上の生成AIが最大4倍速くなりました。TensorRT-LLMは、AI large language models(Llama 2やCode Llamaなど)の推論性能を高速化するオープンソースライブラリであり、先月のデータセンター版TensorRT-LLMの発表に続きます。 NVIDIAは、TensorRT-LLMでカスタムモデルを最適化するスクリプト、TensorRTで最適化されたオープンソースモデル、およびLLMの速度と品質を示す開発者リファレンスプロジェクトなど、開発者がLLMを加速するためのツールもリリースしています。 TensorRTの高速化は、Automatic1111配布の人気のあるWeb UI内のStable Diffusionでも利用できます。これにより、従来の実装よりも生成AIの拡散モデルが最大2倍速くなります。 さらに、RTX Video Super Resolution(VSR)バージョン1.5は、今日のGame…
スタンフォード大学とマイクロソフトの研究者が自己向上型AIを紹介:GPT-4を活用して足場プログラムのパフォーマンスを向上させる
ほぼすべての目標は、自然言語で説明される場合には、言語モデルのクエリによって最適化されることができます。ただし、プログラムは、言語モデルへのいくつかの組織された呼び出しを行うことによって、より高い目的関数値を提供することがあります。これらを「足場付き」プログラムと呼び、それらは一般的に(人々によって)Pythonなどのコンピュータ言語を使用して作成されます。彼らの主な発見は、足場付きプログラムの設計は、最適化問題と言語モデルにわたる任意の分布において最適化の問題です。Microsoft ResearchとStanford Universityの研究者は、この論文で、自己教育最適化プログラム(STOP)と呼ばれる技術を説明し、再帰的にコードを適用することで、与えられたソリューションを改善することができるようにする方法を説明しています。 彼らの方法では、言語モデルを使用して次の課題への応答を向上させるために言語モデルを使用する初期のシード「改善者」足場付きプログラムから始まります。システムが反復するにつれて、モデルはこの改善者プログラムを改善します。彼らの自己最適化アーキテクチャの有効性を測定するために、彼らは限られた選択の下流アルゴリズムタスクを適用します。その結果、モデルは自己改善の技術を使用してより多くの反復を実行するにつれて改善されることが示されます。STOPは、言語モデルがこのような方法でメタ最適化器として機能する方法を示しています。さらに、モデルが提案する自己改善の戦術の種類、および推奨される戦略が下流タスクにどれだけうまく翻訳されるか、モデルが危険な自己改善技術に対して脆弱性を持つかについて、彼らは分析しています。 図1: ここにはGPT-4が提案して使用される自己改善技術の例が示されています。足場を含む任意のコードは、それぞれの足場として各技術を使用して改訂されます。 この問題は、基礎となる言語モデルが変更されないため、再帰的に自己改善するコード生成として知られており、ただし、完全に再帰的自己改善(RSI)システムではありません。RSIの概念が形式化されたのは少なくとも50年前のことですが、その試みは一般的により優れたシステムを作成し、モデルが自身のコードのすべての部分を改善できるという前提に基づいていました。彼らの研究は、その方向への控えめな進歩であり、反復的に呼び出される足場の向上能力のみを考慮しています。この研究で、RSIコード生成の問題は数学的に定義されています。 そして、彼らはRSIコード生成の可能な使用例を示すためにSTOPを作成して評価します。さまざまな下流タスクで改善が示されています。2021年までのデータでトレーニングされたGPT-4言語モデルを使用する場合、図1はSTOPが提供するいくつかの興味深く有用な足場を示しています。さらに、モデルがどのように頻繁にサンドボックスフラグをオフにしようとするかを追跡する追加のテストも行われています。最後に、このような技術の倫理的な開発に関する問題に取り組んでいます。 この研究の主な貢献は次のとおりです: 足場システムが再帰的に自己改善するメタ最適化戦略の策定 このシステムが現代の言語モデル(特にGPT-4)を使用して再帰的に自己改善できることを示すこと モデルが提案および実装した自己改善技術、およびモデルがサンドボックスなどの安全対策をどのように回避するかについて調査すること
オートジェン(AutoGen)は驚くべきものです:AIエージェントを作成するための最先端フレームワークとなる4つの機能
「AIエージェントの協力により、現在の大規模言語モデルから得られる最良の結果を得ることができます注 AIエージェントは広範なトピックですこの記事では、AIエージェントと言及する際には、次のようなものを指しています...」
「産業4.0の未来を探索する:プロセスマイニングを通じた組織変革マネジメントの公開」
「デジタルテクノロジーは、様々なセクターの組織にとって不可欠な存在となり、ビジネスの改善、収益の成長、持続可能性を促進していますデジタル化は組織のパフォーマンスを向上させ」
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.