Learn more about Search Results A - Page 41

このAIペーパーは、さまざまなタスクでChatGPTに追いついたり超えたりすると主張するオープンソースの大規模言語モデルの詳細なレビューを公開しています

昨年のChatGPTのリリースは、人工知能コミュニティを驚かせました。最新の大規模言語モデルであるGPTのトランスフォーマーアーキテクチャに基づいて開発されたChatGPTは、学術および商業アプリケーションの両方に大きな影響を与えています。このチャットボットは、リインフォースメントラーニングフロムヒューマンフィードバック(RLHF)の能力を利用し、監視付きのファインチューニングを通じて指示を調整することで、簡単に人間に応答し、コンテンツを生成し、クエリに答え、さまざまなタスクを実行することができます。 最近の研究では、シンガポール国立大学(NTU)、SalesForce AI、I2Rの研究者チームが、オープンソースの大規模言語モデル(LLM)の最新研究をまとめ、さまざまなコンテキストでChatGPTと同等またはそれ以上のパフォーマンスを発揮するモデルの完全な概要を提供するために広範な調査を行いました。ChatGPTのリリースと成功により、学界と産業界の両方で、この分野に専念したスタートアップから生まれた新しいLLMが豊富に見られるなど、LLM関連の追求が盛んになりました。 AnthropicのClaudeのようなクローズドソースのLLMは一般的にオープンソースの対抗モデルよりも優れているものの、OpenAIのGPTなどのモデルはより速く進化してきました。特定のタスクで同等またはそれ以上のパフォーマンスを達成するという主張が増えており、これによりクローズドソースモデルの歴史的な優位性が危うくなっています。 研究の観点から、新しいオープンソースのLLMの連続的なリリースとそれらの成功が、これらのモデルの強みと弱点を再評価することを余儀なくさせています。オープンソースの言語モデリングソフトウェアの進展は、言語モデルを組織の運営に取り入れたい企業にとって、ビジネスに関連する課題を提供しています。独自の代替品と同等またはそれ以上のパフォーマンスを得る可能性のおかげで、企業は独自の要件に最適なモデルを選択するためにより多くの選択肢を持つようになりました。 チームは、調査の貢献を特徴づけるために使用できる3つの主要なカテゴリを共有しました。 評価のまとめ:調査では、オープンソースのLLMがChatGPTとどのように異なるかについて客観的かつ包括的な視点を提供するために、さまざまな評価をまとめました。この総合は、オープンソースのLLMの利点と欠点を読者に包括的に理解させます。 モデルのシステマティックなレビュー:ChatGPTと同等またはそれ以上のパフォーマンスを発揮するオープンソースのLLMが、さまざまなタスクで調査されました。さらに、チームはリアルタイムで更新されるウェブページを共有しました。これにより、読者は最新の変更を確認できます。これは、オープンソースのLLMの開発のダイナミックな性質を反映しています。 助言と洞察:レビューや評価に加えて、調査はオープンソースのLLMの進化に影響を与えるパターンについての洞察力のある情報を提供しています。また、これらのモデルの潜在的な問題を探求し、オープンソースのLLMを教育するためのベストプラクティスについても議論しています。これらの結果は、企業セクターと学術コミュニティの両方に対して、既存のコンテキストと将来の可能性について詳細な視点を提供しました。

「SceneTexをご紹介:屋内シーンにおける高品質でスタイル一貫性のあるテクスチャ生成のための革新的なAI手法」

高品質の3Dコンテンツ合成は、自動運転、ロボットシミュレーション、ゲーム、映画製作、将来のVR / ARシチュエーションなど、多くのアプリケーションにとって重要かつ困難な問題です。 3Dジオメトリ生成のトピックは、3Dコンテンツデータセットの利用可能性により、コンピュータビジョンとグラフィックスコミュニティからの研究の関心の高まりを見てきました。 3Dジオメトリモデリングは長い道のりを歩んできましたが、アイテムのルックスやテクスチャを作成するには、依然として多くの人的労働が必要です。 開発と編集にはかなりの時間がかかり、Blenderなどのプログラムを使用した3Dモデリングの経験が求められます。 そのため、人間の技能への高い需要と関連するコストは、自律的なテクスチャデザインと拡張が完全な産業化に達することを妨げてきました。 テキストから3D作成の分野では、特に事前定義された形態のテクスチャ合成において、最新の2D拡散モデルの発展を利用して大きな進展がありました。 Text2TexとLatent-Paintの2つの画期的な作品は、高品質のオブジェクトの外観を生み出し、入力プロンプトから高品質なテクスチャ合成を可能にしました。 これらのアプローチは、単一のアイテムに対して興味深い結果を生み出しますが、シーンのテクスチャを生成するためにスケールアップすることはまだいくつかの困難をもたらします。 一方、2Dビューを3Dオブジェクト表面に逐次的に変形する自己回帰アルゴリズムでは、テクスチャの継ぎ目、蓄積されたアーティファクト、ループクロージャの問題などが一般的な問題です。 画像全体でスタイルの一貫性を保つことは、各オブジェクトごとにテクスチャが存在する場合には難しいです。 逆に、スコア蒸留ベースの方法を使用して低解像度の潜在空間でテクスチャ最適化が行われるため、誤ったジオメトリの詳細とかすんだRGBテクスチャが生じる場合があります。 したがって、従来のテキスト駆動型アプローチでは、高品質の3Dシーンテクスチャを生成することはできません。 ミュンヘン工科大学とSnap Researchの研究チームは、シーンテクスという独自の設計を提案し、深度から画像への拡散事前知識を使用して、内部シーンメッシュの高品質かつスタイルの一貫性のあるテクスチャを生成することで、上記の問題を克服します。 研究チームは、テクスチャの作成を既存の技術とは異なり、RGB空間でテクスチャの最適化課題としてフレーム化するという独自の戦略を採用しています。 基本的に、研究グループは、メッシュの外観を微妙に描写するための多解像度テクスチャフィールドを導入します。 研究チームは、多解像度テクスチャを使用して、テクスチャの詳細を正確に描写するために複数のサイズでテクスチャ要素を保持します。 その結果、彼らの設計では、低周波数と高周波数で適応的に外観情報を学習することができます。 研究チームは、自己遮蔽によるスタイルの不整合を軽減するためにクロスアテンションデコーダを使用し、作成されたテクスチャのスタイルの一貫性を確保します。 具体的には、各デコードされたRGB値は、各オブジェクトに分散されたプリサンプルされた参照面の位置と相互参照することで生成されます。 各可視場所が全体のインスタンスルックに対してグローバルな参照を受けるため、研究チームは各モデル内でグローバルなスタイルの一貫性をさらに保証することができます。 研究チームは、SceneTexが言語信号に基づいて内部シーンの正確な柔軟なテクスチャ作成を可能にすることを示しています。…

MLを学ぶ勇気:可能性、MLE、およびMAPの解読

「勇気を持ってMLを学ぶ」へようこそこのシリーズは、複雑な機械学習の概念を分かりやすく解説し、それをリラックスした情報の対話形式で紹介します『The...』と同様に、魅力的なスタイルでお楽しみいただけます

LLMとGNN グラフデータ上の両AIシステムの推論力を向上させる方法

グラフニューラルネットワーク(GNN)と大規模言語モデル(LLM)は、人工知能の主要な2つの分野として登場し、グラフ構造化および自然…を学習することで驚異的な成功を収めています

ニューヨーク大学とMetaの研究者が、「Dobb-E」という家庭用ロボット操作のためのオープンソースかつ汎用フレームワークを紹介した

NYUとMetaの研究者チームは、DobbEという高度に適応性のあるシステムを開発し、家庭環境におけるロボットの操作学習の課題に取り組みました。DobbEはユーザーのデモンストレーションから学習し、適応することができるシステムです。実験では、システムの効率性が示されましたが、現実の環境でのユニークな課題も浮き彫りにされました。 この研究は、ロボットのデータセットの大量収集に関する最近の進歩を認識し、家庭や第一者のロボットとの相互作用に焦点を当てたデータセットのユニークさを強調しています。iPhoneの機能を活用して、このデータセットは高品質のアクションとレアな深度情報を提供します。既存の自動操作に焦点を当てた表現モデルに比べ、汎用的な表現のためのドメイン内での事前学習が重視されています。さらなる改善のために、ロボット以外の家庭のビデオからのドメイン外情報をデータセットに追加することを提案し、その研究の可能性を認めています。 序文では、包括的な家庭用アシスタントの構築における課題に取り組み、制御された環境から実際の家庭への転換を主張しています。効率性、安全性、ユーザーの快適さが強調され、これらの原則を体現するフレームワークとしてDobbEが紹介されています。大規模なデータと最新の機械学習を利用した効率性、安全性のための人間のデモンストレーション、ユーザーの快適さのためのエルゴノミックなツールを組み合わせて、ハードウェア、モデル、アルゴリズムをHello Robot Stretchの周りに統合しています。ニューヨークの家庭データセット、22の家庭からの多様なデモンストレーション、ビジョンモデルのための自己教師あり学習手法も議論されています。 この研究では、行動複製フレームワークを用いてDobbEを訓練し、人間やエキスパートエージェントの振る舞いを模倣します。設計されたハードウェアセットアップにより、異なる家庭のデータ、iPhoneのオドメトリなどを活用してデモンストレーションの収集とロボットに転送がスムーズに行われます。基礎モデルはこのデータで事前学習されます。訓練されたモデルは実際の家庭でテストされ、視覚表現、必要なデモンストレーション、深度知覚、デモンストレータの専門知識、パラメトリックポリシーの必要性など、システムの異なるコンポーネントを評価するアブレーション実験が行われます。 DobbEは、5分のデモンストレーションと15分のHome Pretrained Representationsモデルの適応のみで、未知の家庭環境で81%の成功率を示しました。10の異なる家庭で30日間にわたって、DobbEは109のタスクのうち102を成功裏に学習し、ビジュアル表現にはResNetモデル、アクション予測には2層ニューラルネットワークなど、シンプルながらパワフルな方法の効果を証明しました。タスクの達成時間と難易度は回帰分析によって分析され、アブレーション実験ではグラフィカル表現やデモンストレータの専門知識など、異なるシステムコンポーネントが評価されました。 結論として、DobbEはさまざまな家庭環境でテストされた費用対効果の高い多目的なロボット操作システムで、驚異的な81%の成功率を示しました。DobbEチームは、システムのソフトウェアスタック、モデル、データ、ハードウェア設計を自由にオープンソース化し、家庭用ロボットの研究の推進とロボット執事の広範な普及を促進しています。DobbEの成功は、行動複製やアクション予測のための2層ニューラルネットワークなど、パワフルでシンプルな手法によるものです。実験はまた、照明条件や影がタスクの実行に影響を与える課題についての示唆も提供しました。

LangChainの発見:ドキュメントとのチャット、チャットボット翻訳、ウィキペディアとのチャット、合成データ生成

「ジェネラティブAIの世界の成長は、重要なPythonライブラリであるLangChainのおかげで可能になっています興味も最近の数ヶ月間で増しており、次のチャートで示されています」

GenAIの製品:速く進んで失敗する

2022年の秋、私はクールなプロジェクトに取り組んでいましたはい、あなたは正解です-企業固有のデータでLLMsを調整していましたしかし、それにもかかわらず、ChatGPTがリリースされ、世界中で話題となりましたそして、何が…

「3Dシーン表現の境界を破る:新しいAIテクニックによる高速かつ効率的なレンダリングとストレージ要件の削減によるゲームの変革」

NeRFは、連続的な3Dボリュームとしてシーンを表します。離散的な3Dメッシュやポイントクラウドの代わりに、シーン内の任意の3Dポイントの色と密度の値を計算する関数を定義します。異なる視点からキャプチャされた複数のシーン画像でニューラルネットワークをトレーニングすることにより、NeRFは観測された画像と整合性のある正確な表現を生成する方法を学習します。 NeRFモデルがトレーニングされると、任意のカメラの視点からシーンの写真のような新しいビューを合成し、高品質のレンダリング画像を作成できます。NeRFは、従来の3D再構築方法では難しい複雑な照明効果、反射、透明性を含む高忠実度のシーンの詳細を捉えることを目指しています。 NeRFは、高品質な3D再構築とシーンの新しいビューのレンダリングにおいて有望な結果を示し、コンピュータグラフィックス、仮想現実、拡張現実などの分野で精度の高い3Dシーン表現が重要なアプリケーションに役立つものとなっています。ただし、大規模かつ詳細なシーンをキャプチャするために、NeRFは記憶容量や処理能力の要件による計算上の課題も抱えています。 3Dガウス描画では、高品質のレンダリング画像を維持するために多数の3Dガウスが必要とされ、これには多大なメモリとストレージが必要とされます。ガウス点の数を削減しながら性能を犠牲にせずにガウス属性を圧縮することは効率を高めます。成均館大学の研究者は、高いパフォーマンスを保持しながらガウスの数を大幅に削減する学習可能なマスク戦略を提案しています。 また、彼らは球面調和関数に頼らず、グリッドベースのニューラルフィールドを使用することで、ビュー依存の色のコンパクトで効果的な表現を提案しています。彼らの研究は、高いパフォーマンス、高速トレーニング、コンパクトさ、リアルタイムの描画を実現する3Dシーン表現の包括的なフレームワークを提供します。 彼らは実際のシーンや合成シーンを含むさまざまなデータセットでコンパクトな3Dガウス表現を幅広くテストしています。データセットに関係なく、実験全体で、3Dガウス描画と比較してストレージが10倍以上削減され、シーン表現の品質を維持しながら描画速度が向上することが一貫して確認されました。 ポイントベースの手法は3Dシーンの描画に広く使用されています。最も単純な形式はポイントクラウドです。しかし、ポイントクラウドは穴やエイリアシングなどの視覚的なアーティファクトを引き起こす可能性があります。研究者たちは、ポイントをラスタ化ベースのポイントスプラッティングと微分可能なラスタ化を介して処理することによってこれを軽減する点ベースのニューラルレンダリング手法を提案しました。 NeRFの未来は、3Dシーンの理解とレンダリングを革新する可能性を秘めており、現在の研究の取り組みがさらなる範囲を拡大し、効率的でリアルなさまざまなドメインでの応用を可能にすることが期待されています。

「マイクロソフトの研究者が提案するMAIRA-1:胸部X線写真(CXR)から放射線報告書を生成するための放射線学専用マルチモーダルモデル」

Microsoftの研究チームは、MAIRA-1と呼ばれる放射線学に特化したマルチモーダルモデルを開発することで、胸部X線画像(CXR)のための高品質なレポートの生成問題に取り組みました。このモデルは、CXRに特化した画像エンコーダと、Vicuna-7Bに基づく微調整されたLLMを利用し、Findingsセクションに焦点を当てたテキストベースのデータ増強を行います。この研究は、課題を認識し、将来のバージョンでは現在と過去の研究情報を取り入れて情報の錯覚を減らすことを提案しています。 研究で探求されている既存の手法は、PaLMやVicuna-7Bなどのマルチモーダル機能を持つLLMを使用して、胸部X線写真から叙述的な放射線学のレポートを作成することです。評価プロセスには、ROUGE-LやBLEU-4といった従来のNLPメトリックや、臨床的に関連のある側面に焦点を当てた放射線学固有のメトリックが含まれます。この研究は、所見の詳細な説明を提供することの重要性を強調しています。現在の評価手法の制約にも対処しながら、機械学習が放射線学のレポート生成において持つ可能性を示しています。 MAIRA-1の方法は、ビジョンと言語モデルを組み合わせて、胸部X線写真から詳細な放射線学レポートを生成します。このアプローチは、臨床的なレポート生成の特定の課題に対応し、品質と臨床的な関連性を測定するメトリックを使用して評価されます。研究結果は、MAIRA-1の方法が放射線学レポートの正確さと臨床的な有用性を向上させることができることを示しており、医学画像の機械学習における進歩を表しています。 提案されたMAIRA-1は、胸部X線写真のための放射線学に特化したマルチモーダルモデルです。このモデルは、CXR画像エンコーダ、学習可能なアダプタ、および微調整されたLLM(Vicuna-7B)を利用して、画像と言語を融合させ、レポートの品質と臨床的な有用性を向上させます。さらに、追加のレポートのためにGPT-3.5を使用したテキストベースのデータ増強を行います。評価メトリックには、従来のNLP指標(ROUGE-L、BLEU-4、METEOR)と放射線学固有の指標(RadGraph-F1、RGER、ChexBertベクトル)が含まれ、臨床的な関連性を評価します。 MAIRA-1は、胸部X線レポートの生成において、RadCliQメトリックや放射線科医に合致した語彙メトリックの向上を示しました。モデルの性能は所見のクラスによって異なり、成功と課題が観察されました。MAIRA-1は、通常の評価手法では捉えられない微妙な不具合モードを効果的に解明し、言語上と放射線学固有の側面をカバーする評価メトリックによって示されました。MAIRA-1は胸部X線レポートの包括的な評価を提供します。 まとめると、MAIRA-1は、ドメイン固有の画像エンコーダと的確かつ正確に微妙な所見を特定する能力を備えた既存のモデルを上回る、胸部X線レポートの生成において非常に効果的なモデルです。ただし、既存の手法の制約と臨床的な文脈の重要性を評価することも重要です。モデルの改善のためには、多様なデータセットと複数の画像を考慮する必要があります。 MAIRA-1の将来の発展では、GPT-3.5と前回の作業で示されているように、現在のおよび以前の研究からの情報を取り入れてレポートの錯誤を軽減することができるようになるかもしれません。クリニカルエンティティの抽出における外部モデルへの依存に対処するために、将来の取り組みでは強化学習アプローチを検討することができます。より大規模かつ多様なデータセットでの強化トレーニングや複数の画像と視点の考慮を進め、MAIRA-1の性能をさらに高めることが推奨されます。

「Meditronを紹介:LLaMA-2に基づいたオープンソースの医学用大規模言語モデル(LLM)のスイート」

大規模言語モデル(LLMs)の最もエキサイティングな応用の1つは、医学分野であり、その使用例には医学研究、カスタマイズされたヘルスプラン、臨床診断などが含まれます。ただし、この分野が安全上の問題であるため、これらのモデルをさまざまな用途でストレステストして安全に使用できることを確認する必要があります。さらに、これらのモデルは、公開されて検証を可能にする必要があります。 そのため、研究者グループは、LLMa-2に基づき、ドメイン適応されたMediTronというLLMのセットを公開しました。モデルには7Bパラメータのバリアントと70Bのバリアントがあります。MediTronは、RLHFまたはインストラクションチューニングを使用して特定の下流タスクに使用できる基礎モデルであり、その使用例には医学試験の質疑応答、一般的な健康に関する問い合わせ、疾患情報の問い合わせ、および差異診断のサポートが含まれます。 MediTronのトレーニングデータセットは非常に包括的で、臨床プラクティスガイドライン、医学論文とその要約、一般的なドメインのプリトレーニングデータで構成されています。メガトロン-LLM分散トレーニングライブラリを使用してトレーニング効率を最適化し、並列化スキームではデータ、パイプライン、テンソル並列化を使用してプロセスを高速化しています。 研究者は、モデルの真実性をベースラインモデルに対して初期評価しました。 彼らはTruthfulQAデータセットをベンチマークとして使用し、7Bモデルに対してワンショット評価を行い、70Bモデルに対してゼロショット評価を行いました。両モデルは他のモデルよりも優れており、MediTron-70Bの平均スコアが54.8のLLaMA-2-70Bに比べて71.2、MediTron-7Bの平均スコアが12.6のLLaMA-2-7Bに比べて28.3でした。 続いて、研究者はMedQA、PubMedQAなどのさまざまなテストベンチマークを使用し、多肢選択問題回答タスクの正確性を計算しました。結果を比較するために、LLMa-7B、LLMa-70B、Mistral-7B-instructなどの異なるLLMも使用しました。結果は、MediTron-7BとMediTron-70Bがほぼすべてのデータセットで他の競合モデルを上回り、その優れた機能を示しています。 このモデルは多数の医学データでトレーニングされ、複数のベンチマークで良いパフォーマンスを発揮しますが、追加のテストなしで医療アプリケーションに展開することは避けるべきです。研究者はまだこのモデルの能力と制約を理解し始めたばかりであり、現時点では医療システムでの使用に関して慎重を要します。 まとめると、MediTronは、幅広い医学データセットでトレーニングされた、ドメイン固有のLLMのセットです。7Bパラメータと70Bの2つのバリアントがあり、両方のバリアントは評価対象の他のモデルよりも優れていました。研究者はまた、このモデルは現時点では追加のトレーニングなしで展開されるべきではないと述べています。医学において、このモデルは興味深い進展であり、さまざまな医療タスクを解決し、医療専門家を支援する可能性を秘めています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us