Learn more about Search Results A - Page 94

このAI論文は、オープンエンドのシナリオでの大規模言語モデルのスケーラブルな評価のための新しいアプローチ、JudgeLMを紹介しています

最近、大規模な言語モデル(LLM)は、優れた命令の従順さと幅広いオープンエンドシナリオの処理能力により、注目を浴びています。研究者は命令の微調整を通じて、FlanT5、OPT、LLaMA、およびPythiaなどのオープンソースのLLMに基づいてこれらのモデルを人間の好みと調整するための多くの技術を提供しています。調整されたLLMは、人間の命令の理解力が向上し、より論理的な応答を生成します。しかし、オープンエンドのシナリオでのLLMの能力は、現在のベンチマークと従来の測定によって十分に評価される必要があります。 したがって、オープンエンドの活動でのLLMの評価を徹底的に評価する新しいベンチマーク手法が必要です。同時の研究では、LLMのパフォーマンスを決定するための異なる手法を調査しています。アリーナ形式の手法は、クラウドソーシングプラットフォームを利用して匿名化されたLLMの競争結果を取得します。人間の評価は信頼性がありますが、コストがかかり、多くの努力が必要です。一部の手法ではGPT-4を仲裁者として使用しますが、これらの手法には可変APIモデルのシフトと可能なデータの開示への支援が必要であり、裁判官の繰り返し可能性が危険にさらされる可能性があります。PandaLMは、回答評価に使用されるオープンソースのLLMを改善することを目指しています。 図1(a):JudgeLMのデータ生成パイプライン。105Kのシードタスクが最初に質問として収集されます。その後、11つのLLMから回答を取得し、回答セットから2つをランダムに選択します。最後に、タスク、サンプル回答ペア、および必要に応じてGPT-4への応答を入力します。これにより、裁判官インストラクターのスコアと綿密な理由が生成されます。 ただし、精緻なモデルの有用性は、モデルのサイズ、トレーニングデータの品質、および固有のLLMバイアスから生じる制約により弱体化します。北京人工知能研究院と華中科技大学の研究者は、本研究で最適化されたオープンソースのLLMを使用してLLMを評価することを提案しており、スケーラブルな裁判官(JudgeLM)として十分な合意に達する裁判官としての機能を持つLLMを組み合わせます。彼らの手法では、裁判官モデルのトレーニングと評価に役立つ高品質のデータセットを組み合わせ、スケーラブルな裁判官を使用してオープンエンドの割り当てで評価します。彼らは、オープンソースのLLMを彼らのフレームワーク内で裁判官として使用するために改変し、モデルのサイズ(7Bから33B)とトレーニングデータのボリューム(3.5Kから100K)の観点でどれだけスケールするかを調査します。 図1(b):JudgeLMの異なる特徴と微調整の例。スケーラブルな裁判官としてのLLMのパフォーマンスを向上させるために、裁判官のサンプルを使用します。また、形式バイアス、知識バイアス、および位置バイアスを克服するために、LLMをウェイトジャッジとして微調整するために参照ドロップ、参照サポート、およびスワップ増強も提案されます。 図1aに示すように、彼らのデータセットは105Kのシード質問、LLM回答ペア、および教師裁判官で構成されています。各シードチャレンジについて、生徒は参考回答で1つと参考回答なしで1つの意思決定を行いました。このデータセットの分割では、トレーニング用に100Kのシード質問を確保し(PandaLMよりも大きい×2倍)、残りの質問を検証用に確保し(PandaLMよりも29倍大きい)、LLMを裁判官として使用する際には、位置バイアス(特定の状況での応答を好む)、知識バイアス(事前トレーニングされた情報に対する過度の依存)、および形式バイアス(特定のプロンプト形式の下でのみ最適なパフォーマンス)などのバイアスが必ず導入されます。 彼らはそれらに対処する方法を提供しています。さらに、図1bに示されるように、彼らのJudgeLMシステムには、マルチターンの会話、単一の応答の評価、およびマルチモーダルモデルに加えて複数の回答の判断など、拡張された機能があります。アリーナ形式のアプローチと比較して、彼らのものは迅速かつコストパフォーマンスの高い解決策です。例えば、JudgeLM-7Bは3分で5000の応答ペアを評価することができ、たった8つのA100 GPUだけが必要です。JudgeLMは、クローズドソースのLLMジャッジよりもプライバシー保護と繰り返し可能性を提供します。彼らの方法では、同時にオープンソースのLLMジャッジと比較して、LLMの微調整のスケーリング能力とバイアスを調査しています。 さらに、彼らが提示するデータセットは最も包括的で優れており、将来のモデル分析の研究に大いに役立ちます。以下に彼らの主要な貢献を簡単に説明します: • 彼らはJudgeLMを提案しており、オープンエンドのシナリオでLLMを評価するために設計されたスケーラブルな言語モデルジャッジです。 • 彼らは、多様なシードタスク、LLMが生成した回答、およびGPT-4からの詳細な判断を組み込んだ高品質で大規模なデータセットを導入し、LLMの評価に関する将来の研究のための基盤を築きました。これには人間との合意を超える90%以上の合意があります。さらに、JudgeLMは長時間のジョブを処理するための幅広い機能を備えています。 • 彼らはLLMの中に存在するバイアス、ジャッジの微調整を調査し、いくつかの解決策を提示しています。彼らの技術は、様々なシナリオでのモデルの一貫性を大幅に向上させ、JudgeLMの信頼性と適応性を高めます。

このAI論文では、GraphGPTフレームワークを紹介しています大規模な言語モデルのテクニックを使って、優れたゼロショット学習のパフォーマンスを実現するために、グラフニューラルネットワークを強化しています

最近の研究「GraphGPT:大規模言語モデルのためのグラフ指示チューニング」では、自然言語処理の分野で特にグラフモデルの文脈で、重要な課題に取り組んでいます。彼らが解決しようとした問題は、グラフモデルの拡張一般化能力の必要性であり、それは広範な適用性の重要な要素です。 彼らの革新的なフレームワークであるGraphGPTが導入される前、グラフを扱うためのさまざまな方法とフレームワークが利用可能でしたが、それらはしばしばドメイン固有の構造的知識を言語モデル(LLM)に効果的に組み込むことに苦労していました。これらのモデルは、グラフの構造的な要素を理解し解釈する能力に制約があり、全体的なパフォーマンスに影響を及ぼしていました。 研究者たちは、これらの制約に対処するためにGraphGPTという革新的なフレームワークを提案しました。このフレームワークは、双層のグラフ指示チューニングパラダイムとグラフテキストアラインメントプロジェクタを使用して、ドメイン固有の構造的な知識をLLMに注入します。これらの技術の組み合わせにより、LLMがグラフの構造要素を理解する能力が向上し、グラフモデリングにおける重要な進歩が達成されました。 提案されたGraphGPTフレームワークは、さまざまな設定での包括的な評価を通じて有望な結果を提供しています。これらの評価は、教師ありおよびゼロショットのグラフ学習シナリオの両方をカバーしています。いずれの場合でも、このフレームワークは、グラフ関連のタスクと学習の向上においてその効果を示しています。この適応性は重要であり、他のモデルにおける致命的な忘却現象から免れずに多様なダウンストリームのデータセットとタスクを処理することができるからです。 これらの評価から得られた結果は、GraphGPTがLLMのグラフ関連のタスクの一般化能力を向上させる潜在能力を示しています。さまざまな設定で既存の手法を上回り、そのため、これはこの分野への価値ある追加となります。 結論として、GraphGPTの導入はグラフモデリングの領域における重要な進展を表しています。グラフモデルの一般化能力を向上させるという長年の問題に取り組み、ドメイン固有の構造的知識をLLMに組み込む強力な解決策を提供しています。包括的な評価は、教師ありおよびゼロショットのグラフ学習シナリオの両方でこのフレームワークの効果を明確に示しており、グラフデータに依存するさまざまなアプリケーションにおいてその潜在能力を強調しています。 今後の展望については、研究者らはモデル全体のサイズを削減し、そのパフォーマンスを保持するための剪定技術の探求を提案しています。これにより、GraphGPTフレームワークの実用性と効率性がさらに向上する可能性があります。全体的に見て、この研究はグラフモデリングの領域での大きな進歩を示し、グラフデータに依存するさまざまなアプリケーションに大きな影響を与えることが期待されます。

AIは、人間の確証バイアスを克服できるか?

『思考、速思速行』という本でノーベル賞受賞者ダニエル・カーネマンは、私たちは皆、人間の脳が本来すべきことからは遠く離れていることを知っています感情的な衝動に加えて...

『RAG データとの会話の仕方』

「以前の記事では、ChatGPTを使用してトピックモデリングを行う方法についてご紹介しました私たちのタスクは、さまざまなホテルチェーンの顧客からのコメントを分析し、それぞれに言及された主要なトピックを特定することでした...」

『FastSpeech:論文の概要と実装』

2019年、FastSpeechはニューラルテキスト音声変換のフロンティアを推し進め、推論速度を大幅に改善しながら、単語の繰り返しや省略を防ぐ堅牢性を保ちましたそれは...

Luma AIがGenieを発売:テキストから3Dオブジェクトを作成できる新しい3D生成AIモデル

3Dモデリングでは、リアルな3Dオブジェクトの作成はしばしば複雑で時間のかかる作業でした。人々は専門のソフトウェアを使いこなすスキルを持っている必要がありました。しかし、今では新しい解決策があります。Luma AIはGenieを紹介し、3Dモデリングを文章を書くように簡単にすることを実現しました。 Genieが現れる前は、BlenderやUnityなどの3Dデザインソフトウェアで3Dモデルを作成するために専門知識が必要でした。これらのツールは強力ですが、初心者にとっては難しさがありました。これは、誰でも3Dモデリングに没頭する時間やスキルを持っていなかったためです。 Genieの登場により、誰でも簡単に迅速に3Dモデルを生成することができます。誰かが自分のビジョンを具現化したい場合、Genieに説明を入力するだけで、深層ニューラルネットワークの力によって提供された説明に合致する4つの異なる解釈が生成されます。さらに、ユーザーはモデルの素材やスタイルをカスタマイズして好みに合わせることができます。これらのレンダリングされたモデルは拡張現実で表示でき、ユーザーが自分の想像力によって生み出した創造物を探求して対話することができる没入型の体験を提供します。 Genieはすでにオンラインコミュニティで話題となっています。人々はその可能性に興奮し、自分の創作物をソーシャルメディアで共有しています。例えば、あるユーザーはGenieに対してモダンなパープルソファを求め、14秒で4つの3Dモデルを得ました。これは、Genieがアイデアを具体的な3Dオブジェクトに迅速かつ効果的に変換できることを示しています。 Genieは3Dコンテンツの制作を民主化する大きな進歩ですが、まだ開発初期段階であることに注意することが重要です。常に完璧な結果を生み出すわけではありませんが、それは問題ありません。Luma AIはツールを改善することに取り組んでいます。さらにデータを収集し、新しい機能を追加し、ユーザーのフィードバックを考慮に入れる予定です。これにより、Genieはますます優れた性能と信頼性を備えるようになります。 Luma AIのGenieやその他の3D AI技術を利用したツールに対するビジョンは、誰もが複雑なソフトウェアの専門家になることなく、3Dビデオやシーン、世界を作成できるようにすることです。目標は、アイデアを迅速かつ簡単に3Dの現実に変える力を人々に与えることです。 まとめると、Luma AIのGenieは3Dモデリングにおいて重要な一歩を示しています。複雑で時間のかかる3Dモデリングの問題を解決し、シンプルでアクセスしやすい解決策を提供しています。Genieはまだ進化中で完璧ではないかもしれませんが、大いに期待されています。Genieによって、3Dコンテンツの制作はユーザーフレンドリーになり、誰でも自分の3Dビジョンを具現化しやすくなっています。 この記事は、「Luma AI Launches Genie: A New 3D Generative AI Model that Lets…

In Japanese ゼファー7Bベータ:必要なのは良い教師だけです (Zefā 7B bēta Hitsuyō na no wa yoi kyōshi dake desu)

ミストラル7Bは、最高の事前学習済み大規模言語モデル(LLM)の1つですHugging Faceは、Zephyr 7B Alphaをリリースすることで、DPOで微調整されたミストラル7Bがチャットモデルよりも優れたパフォーマンスを発揮できることを示しています

「日本で2番目のAI技術を搭載した候補者が公職を求める」

「AIは産業だけでなく、公職にも広がりつつあるようです少なくとも試みられているようです日本の真鶴町では、AIメイヤーという名前の候補者が、日本で初めてAIパワーを持つ公職者になりたいと願っていますしかし、AIメイヤーは最初のAIプログラムではありません...」

このAI論文は、ChatGPTを基にしたテキストデータの拡張アプローチであるAugGPTを提案しています

“`html NLP、または自然言語処理は、言語を使用した人間とコンピュータの対話に焦点を当てたAIの分野です。テキスト分析、翻訳、チャットボット、感情分析などがその多くの応用の一部です。NLPは、コンピュータが人間の言語を理解し、解釈し、生成することを目指しています。 最近のNLPの研究では、データの不十分さに対応するための少ないデータ学習(FSL)方法の改善に焦点が当てられています。これらの方法は、アーキテクチャの設計や事前学習言語モデルを通じてモデルの能力を向上させますが、データの品質や数量の制限は依然として存在します。 さらに、テキストデータの拡張方法は、サンプルの数の制限に対処するための貴重なツールとして注目されています。シノニムの置換やバックトランスレーションなどのより高度な手法を含む、モデルに依存しないこれらの技術は、NLPのFSL方法を補完し、これらの課題に対する解決策を提供します。 同じ文脈において、研究チームは「AugGPT」と呼ばれる新しいデータ拡張手法を紹介する新しい論文を発表しました。この方法は大きな言語モデルであるChatGPTを活用して、少数のフューショットテキスト分類タスクのための補助的なサンプルを生成します。 この方法は、限られたデータで訓練されたモデルがわずか数例しかないターゲットドメインで一般化することが期待される少数学習における課題に対応します。提案されているAugGPT方法は、ChatGPTを活用してより多くのサンプルを生成し、テキスト分類のためのトレーニングデータを向上させることを目的としています。 具体的には、モデルは比較的大規模なラベル付きサンプルセットを含むベースデータセット(Db)と、わずかなラベル付きデータのみを含む新しいデータセット(Dn)で訓練されます。目標は、新しいデータセットにおいて満足のいく一般化能力を達成することです。AugGPTのフレームワークは、ベースデータセットでBERTを微調整し、ChatGPTを使用して拡張データ(Daugn)を生成し、拡張データでBERTを再度微調整するというものです。データ拡張にはChatGPTが使用され、入力文を追加の文に再表現してフューショットサンプルを増やすことが行われます。フューショットテキスト分類モデルはBERTに基づいており、クロスエントロピーとコントラスティブ損失関数を使用して効果的にサンプルを分類します。AugGPTは、シノニムの置換や文字、単語レベルの置換、キーボードシミュレーションなどの他のデータ拡張手法と比較されます。本方法のプロンプトは、シングルターンとマルチターンの対話に適しており、さまざまなデータセットとシナリオに対して効果的なデータ拡張を可能にします。 要約すると、提案されたAugGPTの手法を実行するためには、以下の手順が取られます: 1- データセットのセットアップ: ラベル付きサンプルの大規模なベースデータセット(Db)を作成します。 ラベル付きサンプルがわずかしか含まれていない新しいデータセット(Dn)を準備します。 2- BERTの微調整: ベースデータセット(Db)でBERTモデルを微調整し、事前学習言語理解能力を活用します。 3- ChatGPTによるデータ拡張: 少数学習のテキスト分類タスクに向けて、大規模な言語モデルであるChatGPTを利用して拡張データ(Daugn)を生成します。 ChatGPTを使用して入力文を言い換え、少数学習サンプルを増やすための追加の文を作成します。このプロセスにより、データの多様性が向上します。 4- 拡張データを使ったBERTの微調整: 拡張データ(Daugn)を使ってBERTモデルを微調整し、少数学習分類タスクに適応させます。 5- 分類モデルのセットアップ:…

安全ループに会いましょう:複雑なAIタスクのパフォーマンスを向上させるために少ないエネルギーを必要とするディープラーニングアクセラレータの最適な設計を特定するためのAIパワード検索ツール

ディープラーニングは、医療、音声認識、ビデオ分析など、さまざまなアプリケーションでディープニューラルネットワーク(DNN)の急速な普及を目撃しています。このDNNの利用の急増に伴い、機密データを保護し最適なパフォーマンスを確保するために強化されたセキュリティ対策が必要となっています。現在の研究は主に、中央処理装置(CPU)上でのDNNの実行環境のセキュリティを重視していますが、ハードウェアアクセラレータの登場により、これらの先進的なアーキテクチャに固有のセキュリティ上の考慮事項と処理の要求を対応するために特別に設計されたツールの重要性が強調されています。 この分野では、特定の文脈内では効果的ですが、現在のソリューションはよりダイナミックかつ多様なハードウェア構成への対応が必要とされます。このギャップを認識し、MITの先駆的な研究チームがセキュアループを導入し、暗号エンジンが装備されたさまざまなDNNアクセラレータを考慮して精緻に設計された高度な設計空間探索ツールを紹介しました。この画期的なツールは、オンチップ計算、オフチップメモリアクセス、暗号操作の統合に伴うクロスレイヤーの相互作用を含むさまざまな要素の相互作用を精緻に考慮した包括的なソリューションです。 セキュアループは、オフチップデータアクセスごとに関連する暗号オーバーヘッドを緻密に考慮した最新のスケジューリング検索エンジンを統合し、モジュラ算術技術の熟練した適用により各層の認証ブロック割り当てを最適化します。さらに、セキュアループ内にシミュレーテッドアニーリングアルゴリズムを組み込むことで、クロスレイヤーの最適化をスムーズに行い、セキュアなDNN設計の全体的な効率とパフォーマンスを著しく向上させます。比較パフォーマンス評価は、セキュアループが従来のスケジューリングツールに比べて33.2%の速度向上と、セキュアなDNN設計のエネルギーアプローダクトを50.2%改善するという類まれな優位性を示しています。 セキュアループの導入は、既存のツールとDNNアクセラレータの広がりにわたるハードウェア構成におけるセキュリティとパフォーマンスの総合的なソリューションの需要とのギャップを効果的に埋める画期的なマイルストーンです。この研究で示された類まれな進歩は、セキュアループがセキュアなDNN環境の実行を最適化するだけでなく、セキュアコンピューティングとディープラーニングの広範な領域内での将来の進歩と革新の基礎を築いています。セキュアかつ効率的な処理の需要がさらに高まる中、SecureLoopなどの先駆的なツールの開発は、研究者がセキュアコンピューティングとディープラーニングアプリケーションのフロンティアを推進するための忘れ難い貢献の証です。 記事「Meet SecureLoop: An AI-Powered Search Tool to Identify an Optimal Design for a Deep Learning Accelerator that can Boost the…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us