Learn more about Search Results RLHF - Page 4

「UCバークレーの研究者たちは、スターリング-7Bを発表しました:AIフィードバックからの強化学習でトレーニングされたオープンな大規模言語モデル(LLM)です(RLAIF)」

大規模言語モデル(LLM)は、自然言語処理タスクのための人工知能モデルです。これらのモデルは膨大なデータセットでトレーニングされ、人間のようなテキストを理解し、生成することができます。彼らは人間のようなテキストを理解し、生成する能力によって自然言語処理を変革しました。その役割は、生活のあらゆる分野に及んでいます。 UCバークレーの研究者たちは、Reinforcement Learning from AI Feedback(RLAIF)によってトレーニングされたオープンな大規模言語モデル(LLM)であるStarling-7Bを開発しました。このモデルは、最近開発された報酬訓練およびポリシーチューニングパイプライン、新しいGPT-4ラベル付きランキングデータセットNectar、最先端の報酬訓練およびポリシーチューニングパイプラインの機能を活用しています。 https://starling.cs.berkeley.edu/ Starling-7Bの基盤は、GPT-4のラベル付きランキングデータセットNectarにあります。このデータセットには183,000のチャットプロンプトが含まれており、各プロンプトにはGPT-4、GPT-3.5-instruct、GPT-3.5-turbo、Mistral-7B-Instruct、およびLlama2-7Bなどのさまざまなモデルからの7つの応答があります。これにより、380万組の比較が可能となります。研究者たちは、GPT-4の順位付けを求める際に位置バイアスを軽減するためにかなりの努力を注いでおり、データセットのセクションで詳細に説明しています。 https://huggingface.co/berkeley-nest/Starling-LM-7B-alpha 彼らは学習報酬モデルを使用してOpenchat 3.5言語モデルを洗練させ、結果は印象的であると結論づけました。アルパカ評価スコアは88.51%から91.99%に向上し、MT-Benchスコアは7.81から8.09に向上しました。これらのメトリックは、チャットボットの有用性を評価する基準として機能します。 研究者たちは、Direct Preference Optimization(DPO)を使用してZephyra-7B、Neural-Chat-7B、およびTulu-2-DPO-70Bなどの既存のオープンソースモデルとモデルを比較しました。これらのモデルはChatbot Arenaで良いパフォーマンスを発揮しましたが、MT BenchではOpenHermes 2.5やOpenchat 3.5などのトップSFTモデルと比較してRLHFの完全なポテンシャルには及びませんでした。 研究者たちは、このモデルには特定の課題があると強調しました。それは欺瞞的または操作的な手法に対して脆弱です。また、モデルは数学的または推論タスクに苦労し、出力の事実的な正確性は時々しか保証されません。彼らはまた、モデルが時折冗長になり、ジェイルブレイキングプロンプトに対しても脆弱であることを指摘しました。これらの欠点に対しては、Starling-7Bの改善に引き続き取り組んでいます。 この問題に対処するために、彼らはGPT-4をガイドとして使用するルールベースの報酬モデルを利用して、モデルをさらに洗練することを提案しました。GPT-4の技術レポートで概説されている技術を使用します。 まとめると、Starling-7Bは、LLMにおける重要な進歩を示し、AIフィードバックからの強化学習の可能性を示しています。自然言語処理の分野は、これらのモデルとコミュニティの共有知識の協力によって向上しています。研究者たちは、モデルのパフォーマンスを向上させ、制限を解決するために取り組んでいます。 この投稿は、UCバークレーの研究者によるStarling-7Bの紹介:AIフィードバックからの強化学習によってトレーニングされたオープンな大規模言語モデル(LLM)が最初に掲載されたMarkTechPostです。

このAIペーパーは、さまざまなタスクでChatGPTに追いついたり超えたりすると主張するオープンソースの大規模言語モデルの詳細なレビューを公開しています

昨年のChatGPTのリリースは、人工知能コミュニティを驚かせました。最新の大規模言語モデルであるGPTのトランスフォーマーアーキテクチャに基づいて開発されたChatGPTは、学術および商業アプリケーションの両方に大きな影響を与えています。このチャットボットは、リインフォースメントラーニングフロムヒューマンフィードバック(RLHF)の能力を利用し、監視付きのファインチューニングを通じて指示を調整することで、簡単に人間に応答し、コンテンツを生成し、クエリに答え、さまざまなタスクを実行することができます。 最近の研究では、シンガポール国立大学(NTU)、SalesForce AI、I2Rの研究者チームが、オープンソースの大規模言語モデル(LLM)の最新研究をまとめ、さまざまなコンテキストでChatGPTと同等またはそれ以上のパフォーマンスを発揮するモデルの完全な概要を提供するために広範な調査を行いました。ChatGPTのリリースと成功により、学界と産業界の両方で、この分野に専念したスタートアップから生まれた新しいLLMが豊富に見られるなど、LLM関連の追求が盛んになりました。 AnthropicのClaudeのようなクローズドソースのLLMは一般的にオープンソースの対抗モデルよりも優れているものの、OpenAIのGPTなどのモデルはより速く進化してきました。特定のタスクで同等またはそれ以上のパフォーマンスを達成するという主張が増えており、これによりクローズドソースモデルの歴史的な優位性が危うくなっています。 研究の観点から、新しいオープンソースのLLMの連続的なリリースとそれらの成功が、これらのモデルの強みと弱点を再評価することを余儀なくさせています。オープンソースの言語モデリングソフトウェアの進展は、言語モデルを組織の運営に取り入れたい企業にとって、ビジネスに関連する課題を提供しています。独自の代替品と同等またはそれ以上のパフォーマンスを得る可能性のおかげで、企業は独自の要件に最適なモデルを選択するためにより多くの選択肢を持つようになりました。 チームは、調査の貢献を特徴づけるために使用できる3つの主要なカテゴリを共有しました。 評価のまとめ:調査では、オープンソースのLLMがChatGPTとどのように異なるかについて客観的かつ包括的な視点を提供するために、さまざまな評価をまとめました。この総合は、オープンソースのLLMの利点と欠点を読者に包括的に理解させます。 モデルのシステマティックなレビュー:ChatGPTと同等またはそれ以上のパフォーマンスを発揮するオープンソースのLLMが、さまざまなタスクで調査されました。さらに、チームはリアルタイムで更新されるウェブページを共有しました。これにより、読者は最新の変更を確認できます。これは、オープンソースのLLMの開発のダイナミックな性質を反映しています。 助言と洞察:レビューや評価に加えて、調査はオープンソースのLLMの進化に影響を与えるパターンについての洞察力のある情報を提供しています。また、これらのモデルの潜在的な問題を探求し、オープンソースのLLMを教育するためのベストプラクティスについても議論しています。これらの結果は、企業セクターと学術コミュニティの両方に対して、既存のコンテキストと将来の可能性について詳細な視点を提供しました。

「Meditronを紹介:LLaMA-2に基づいたオープンソースの医学用大規模言語モデル(LLM)のスイート」

大規模言語モデル(LLMs)の最もエキサイティングな応用の1つは、医学分野であり、その使用例には医学研究、カスタマイズされたヘルスプラン、臨床診断などが含まれます。ただし、この分野が安全上の問題であるため、これらのモデルをさまざまな用途でストレステストして安全に使用できることを確認する必要があります。さらに、これらのモデルは、公開されて検証を可能にする必要があります。 そのため、研究者グループは、LLMa-2に基づき、ドメイン適応されたMediTronというLLMのセットを公開しました。モデルには7Bパラメータのバリアントと70Bのバリアントがあります。MediTronは、RLHFまたはインストラクションチューニングを使用して特定の下流タスクに使用できる基礎モデルであり、その使用例には医学試験の質疑応答、一般的な健康に関する問い合わせ、疾患情報の問い合わせ、および差異診断のサポートが含まれます。 MediTronのトレーニングデータセットは非常に包括的で、臨床プラクティスガイドライン、医学論文とその要約、一般的なドメインのプリトレーニングデータで構成されています。メガトロン-LLM分散トレーニングライブラリを使用してトレーニング効率を最適化し、並列化スキームではデータ、パイプライン、テンソル並列化を使用してプロセスを高速化しています。 研究者は、モデルの真実性をベースラインモデルに対して初期評価しました。 彼らはTruthfulQAデータセットをベンチマークとして使用し、7Bモデルに対してワンショット評価を行い、70Bモデルに対してゼロショット評価を行いました。両モデルは他のモデルよりも優れており、MediTron-70Bの平均スコアが54.8のLLaMA-2-70Bに比べて71.2、MediTron-7Bの平均スコアが12.6のLLaMA-2-7Bに比べて28.3でした。 続いて、研究者はMedQA、PubMedQAなどのさまざまなテストベンチマークを使用し、多肢選択問題回答タスクの正確性を計算しました。結果を比較するために、LLMa-7B、LLMa-70B、Mistral-7B-instructなどの異なるLLMも使用しました。結果は、MediTron-7BとMediTron-70Bがほぼすべてのデータセットで他の競合モデルを上回り、その優れた機能を示しています。 このモデルは多数の医学データでトレーニングされ、複数のベンチマークで良いパフォーマンスを発揮しますが、追加のテストなしで医療アプリケーションに展開することは避けるべきです。研究者はまだこのモデルの能力と制約を理解し始めたばかりであり、現時点では医療システムでの使用に関して慎重を要します。 まとめると、MediTronは、幅広い医学データセットでトレーニングされた、ドメイン固有のLLMのセットです。7Bパラメータと70Bの2つのバリアントがあり、両方のバリアントは評価対象の他のモデルよりも優れていました。研究者はまた、このモデルは現時点では追加のトレーニングなしで展開されるべきではないと述べています。医学において、このモデルは興味深い進展であり、さまざまな医療タスクを解決し、医療専門家を支援する可能性を秘めています。

AIの進歩における倫理的な課題のナビゲーション

「AIの進展に伴う倫理的な課題の多面的な景観を探求してみましょうAIが社会により統合されるにつれて倫理と責任に関する懸念をどのように対処するかについて、詳細な視点を提供します」

「OpenAIモデルに対するオープンソースの代替手段の探索」

序文 AIの領域では、11月はドラマチックな展開がありました。GPTストアやGPT-4-turboのローンチ、そしてOpenAIの騒動まで、まさに忙しい一ヶ月でした。しかし、ここで重要な問題が浮かび上がります:クローズドモデルとその背後にいる人々はどれだけ信頼できるのでしょうか?自分が実際に運用しているモデルが内部の企業ドラマに巻き込まれて動作停止するのは快適な体験とは言えません。これはオープンソースモデルでは起こらない問題です。展開するモデルには完全な管理権限があります。データとモデルの両方に対して主権を持っています。しかし、OSモデルをGPTと置き換えることは可能でしょうか?幸いなことに、既に多くのオープンソースモデルが、GPT-3.5モデル以上の性能を発揮しています。本記事では、オープンソースのLLM(Large Language Models)およびLMM(Large Multi-modal Models)の最高の代替品をいくつか紹介します。 学習目標 オープンソースの大規模言語モデルについての議論。 最新のオープンソース言語モデルとマルチモーダルモデルについての探求。 大規模言語モデルを量子化するための簡易な導入。 LLMをローカルおよびクラウド上で実行するためのツールやサービスについて学ぶ。 この記事は、データサイエンスブログマラソンの一環として公開されました。 オープンソースモデルとは何ですか モデルがオープンソースと呼ばれるのは、モデルの重みとアーキテクチャが自由に利用できる状態にあるからです。これらの重みは、例えばMeta’s Llamaのような大規模言語モデルの事前訓練パラメータです。これらは通常、ファインチューニングされていないベースモデルやバニラモデルです。誰でもこれらのモデルを使用し、カスタムデータでファインチューニングして下流のアクションを実行することができます。 しかし、それらはオープンなのでしょうか?データはどうなっているのでしょうか?多くの研究所は、著作権に関する懸念やデータの機密性の問題などの理由から、ベースモデルの訓練データを公開しません。これはまた、モデルのライセンスに関する部分にも関連しています。すべてのオープンソースモデルは、他のオープンソースソフトウェアと同様のライセンスが付属しています。Llama-1などの多くのベースモデルは非商用ライセンスとなっており、これらのモデルを利用して収益を上げることはできません。しかし、Mistral7BやZephyr7Bなどのモデルは、Apache-2.0やMITライセンスが付属しており、どこでも問題なく使用することができます。 オープンソースの代替品 Llamaのローンチ以来、オープンソースの領域ではOpenAIモデルに追いつこうとする競争が繰り広げられています。そしてその結果は今までにないものでした。GPT-3.5のローンチからわずか1年で、より少ないパラメータでGPT-3.5と同等またはそれ以上のパフォーマンスを発揮するモデルが登場しました。しかし、GPT-4は依然として理性や数学からコード生成までの一般的なタスクには最も優れたモデルです。オープンソースモデルのイノベーションと資金調達のペースを見ると、GPT-4のパフォーマンスに近づくモデルが間もなく登場するでしょう。とりあえず、これらのモデルの素晴らしいオープンソースの代替品について話しましょう。 Meta’s Llama 2 Metaは今年7月にLlama-2という彼らの最高のモデルをリリースし、その印象的な能力により一瞬で人気を集めました。MetaはLlama-7b、Llama-13b、Llama-34b、Llama-70bの4つの異なるパラメータサイズのLlama-2モデルをリリースしました。これらのモデルは、それぞれのカテゴリにおいて他のオープンモデルを上回る性能を発揮しました。しかし、現在ではmistral-7bやZephyr-7bのような複数のモデルが、多くのベンチマークで小さなLlamaモデルを上回る性能を発揮しています。Llama-2 70bはまだそのカテゴリーで最高のモデルの一つであり、要約や機械翻訳などのタスクにおいてGPT-4の代替モデルとして価値があります。 Llama-2はGPT-3.5よりも多くのベンチマークで優れたパフォーマンスを発揮し、GPT-4に迫ることもできました。以下のグラフは、AnyscaleによるLlamaとGPTモデルのパフォーマンス比較です。…

『オープンソースLLMの歴史:模倣と整合性(パート3)』

オープンソースの大規模言語モデル(LLM)に関する以前の研究の大部分は、事前訓練ベースモデルの作成に重点を置いていましたしかしながら、これらのモデルは微調整されていないため、失敗することがあります...

このAIニュースレターはあなたが必要なすべてです#75

今週は、OpenAIのドラマが終わり、Sam AltmanとGreg BrockmanがOpenAIに復帰し、2人の新しい取締役が任命されました(既存の1人とともに…

このAIニュースレターは、あなたが必要とするすべてです#74

今週は、残念ながらOpenAIの連続する出来事に注目が集まり、いくつかの興味深い新しいモデルの発表が overshadow されてしまいましたおそらく、あなたはその曲折を追いかけていることでしょう...

ユレカ:大規模な言語モデルをコーディングすることによる人間レベルの報酬設計

近年、大型言語モデルの進化によって、これらのLLMフレームワークが連続的な高レベルの意思決定タスクのための意味的なプランナーとして優れている理由が驚くほど明らかになっていますしかし、開発者は依然として複雑な低レベルの操作タスクの学習にLLMフレームワークの全ての潜在能力を活用することに苦戦していると感じています現在の大型言語モデルには、効率性がありますが、[…]が必要です

「ChatGPT AI-1の解放:高度なLLMベースのシステムの構築」

導入 この記事では、チャットGPT AI-1を使ったLLM(大規模言語モデル)に基づくシステムの構築について説明します。読者がプロンプトエンジニアリングの基礎について理解していることを前提としています。概念を理解するためには、以下を参照してください:https://www.analyticsvidhya.com/blog/2023/08/prompt-engineering-in-generative-ai/ この記事はステップバイステップのアプローチで行われます。トピックの大きさを考慮して、記事を3つのパートに分けています。これはそのうちの最初のパートです。システムには単一のプロンプトだけでは十分ではなく、LLMベースのシステムの開発部分に詳しく取り組みます。 学習目標 LLMベースのシステム構築の始め方を学ぶ。 LLMの動作原理を理解する。 トークンとチャットフォーマットの概念を理解する。 分類、モデレーション、思考の連鎖推論を適用してシステムを構築する。 この記事はデータサイエンスブログマラソンの一環として公開されました。 LLMの動作メカニズム テキスト生成プロセスでは、プロンプトが与えられ、LLMに対してそのプロンプトを完成させるものを埋めるように求められます。 例: 数学は_______です。LLMは「興味深い科目、すべての科学の母など」と埋めることができます。 大規模言語モデルは、教師付き学習によってこれらすべてを学習します。教師付き学習では、モデルは入力と出力の関係をラベル付きのトレーニングデータを通じて学習します。X-Yマッピングにも同じプロセスが使用されます。 例: ホテルのフィードバックの分類。部屋が素晴らしかったという口コミは肯定的な感情のレビューとしてラベル付けされ、一方で「サービスが遅い」という口コミは否定的な感情としてラベル付けされます。 教師付き学習では、ラベル付けされたデータを取得し、それらのデータを使ってAIモデルをトレーニングします。トレーニング後はデプロイされ、最終的にモデルが呼び出されます。今度は美しい場所のような新しいホテルのレビューを与えて、結果が肯定的な感情であることを期待します。大規模言語モデルには基本的なLLMと指示に調整されたLLMの2つの主要なタイプが存在します。これらの概念を理解するために、以下のリンク先の記事を参照してください。 基本的なLLMを変換するプロセスとは? 基本的なLLMを指示に調整されたLLMに変換するプロセスは以下の通りです:1. 基本的なLLMは大量のデータ(数百億の単語)でトレーニングする必要があります。このプロセスは広範なスーパーコンピューターシステムで数か月かかることがあります。2. モデルは、小規模な例のセットに対してファインチューニングを行うことでさらにトレーニングされます。3. 出力の品質に対するさまざまなLLMの評価(出力が役に立つかどうか、正直かどうか、無害かどうかなどの基準)を人間から得るためのツールとして、RLHF(Reinforcement Learning…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us