Learn more about Search Results リリース - Page 5

「ChatGPTの新しいカスタム指示がリリースされました使い方は以下の通りです」

「ChatGPTカスタムインストラクションとプラグインの使用方法と利点を探索してください例とコードの説明を通じてOpenAIの機械学習を理解してください」

フェイブルスタジオは、TV番組の完全に新しいエピソードを書き、制作し、監督し、アニメーション化し、さらには声を担当できるAIプラットフォームであるSHOW-1をリリースしました

自分が実生活で演技をしたことがなくても、お気に入りの番組で自分自身を見ることができることを想像できますか?また、始まりと終わりを好きなように変えることは可能ですか? サンフランシスコのスタートアップ、Fable Studiosは、新しいエピソードを完全に書き、制作し、監督し、アニメーション化し、さらには声を出すことができるSHOW-1 AIテクノロジーをリリースしました。Fable Studiosは、異なる拡散モデルを使用してこれを実現しました。これらは時間の経過に伴ってデータからランダムなノイズを追加したり削除したりする単純な方法で、出力を生成し再構築することができます。ランダムなノイズとして画像を使用し、徐々に必要な出力に変換することができます。 Fable Studiosは、テレビ番組『サウスパーク』からの1200人のキャラクターと600枚の背景画像からなるデータセットを使用して、拡散モデルをトレーニングしました。最初のモデルのタスクは、背景色に対して単一のキャラクターを生成することでした。個々の特徴的な外見、執筆スタイル、声に基づいて、自律的なキャラクターを生成することができます。キャラクターの拡散モデルを使用すると、画像から画像への安定した拡散により、自分自身の外見に基づいてサウスパークのキャラクターを作成することができます。 2番目のモデルのタスクは、キャラクターが相互作用できるようなステージとなるクリーンな背景を生成することでした。ただし、このモデルの制限は、低解像度の画像を生成することでした。チームは、画像の品質を向上させるためにAIのアップスケーリング技術を使用してこれに対処しました。拡大縮小しても解像度が失われないベクトルベースのグラフィックスを生成します。 Fable Studiosは、特定の場所と実行時間のダイアログのシーケンスを変更してオリジナルのエピソードの長さに合わせてテレビ番組のエピソードを再定義しました。シミュレーションデータをプロンプトチェインとして使用することで、ショーランナーのシステムと並行して実行されるストーリーシステムを構築し、アクションとダイアログのシーケンスを監視して視聴者を引きつけます。各キャラクターの声は事前にクローンされ、新しいダイアログごとに音声クリップが生成されます。 シミュレーションによって生成されるデータは、最初のプロンプトを書く個人と生成されるストーリーシステムの両方にとって創造的な辞書となります。経験豊富なストーリーライターでもダイアログの執筆に行き詰まることがよくありますが、シミュレーションはプロンプトチェインを開始する前に文脈やデータポイントを提供するため、このような問題を克服することができます。 ストーリー生成プロセスは、ユーザー、シミュレーション、GPT-4の割合で共有されます。シミュレーションはキャラクターの過去のコンテキスト、感情、イベントなどの基礎的な文脈を生成します。これは最初の創造的な文脈となります。GPT 4は、ユーザーやシミュレーションからのプロンプトに基づいてシーンと対話を統合する主要な生成エンジンとして機能します。 最後に、シミュレーション、ユーザー、AIモデルの強みを統合することで、よりインタラクティブで魅力的なストーリーテリング体験が生まれます。逆に、番組の個別化は雇用の減少につながるでしょう。AIのパワーを持ったツールは、かつて人間の専門家が行っていたビデオ編集や音楽作成などの作業を行うことができるため、エンターテイメント業界の将来に関する懸念が生じます。

「GoogleがニュースライターAI ‘Genesis’をリリース」

メディアの景色を変えることが確実な技術の突破口として、Googleは「Genesis」と呼ばれるAIによるニュース記事生成ツールの開発を進めています。この先端技術は既にニューヨーク・タイムズ、ワシントン・ポスト、ウォール・ストリート・ジャーナルを発行するニューズ・コープなどの著名なニュース機関の注目を集めています。一部ではジャーナリストにとっての潜在的な恩恵として称えられていますが、正確性と信頼性に対する懸念も提起されています。この革新的な開発についてさらに詳しく探求し、ジャーナリズムの世界に与える可能性の影響について考えてみましょう。 他にも読む:GPT-4が初の著書を共同執筆 | 内容は何か? | レビュー&要約 Genesisが明らかにする:AIがニュース記事を書く方法 GoogleのGenesisは人工知能技術を利用して現在の出来事を取り込み、ニュースコンテンツを生成します。ジャーナリストの潜在的な個人的なアシスタントとして機能し、一部のタスクを自動化して彼らの時間をより重要な活動に割り当てることを目指しています。この責任ある技術は、生成的AIのリスクから出版業界を遠ざけ、信頼性のある事実情報の伝達を確保することを目指しています。 不安な反応:幹部の見解 GoogleのGenesisに関する提案は、一部の幹部に不安を与えました。このツールがニュース記事をどんどん生成する能力は、ジャーナリストが正確で魅力的な記事を作り上げるためにかける努力を当然のこととしています。匿名を希望する幹部たちは、ジャーナリズムの芸術性と信頼性への影響について懸念を表明しています。 他にも読む:生成的AI:世界はどこへ向かっているのか? Googleの保証:ジャーナリストを支援し、置き換えることはない Googleの広報担当者、ジェン・クライダーは、Genesisに関する同社の立場を明確にしています。特に小規模なニュース出版社との協力の中で、Googleはジャーナリストの仕事を支援するAI対応のツールを提供することを目指しています。これらのツールはジャーナリストの重要な役割を置き換えることを意図しておらず、代わりに見出しの生成や異なる執筆スタイルの探索をサポートすることを強調しています。 他にも読む:急速な人工知能の台頭による雇用喪失:数千人がテクノロジーセクターで影響を受ける 利点と欠点のバランスを取る 有名なジャーナリズム教授でメディア評論家のジェフ・ジャービスはGenesisについてコメントしています。彼はこのツールの潜在的な利点を認め、事実情報を信頼性を持って提供できる場合には使用を支持しています。ただし、ジャーナリストやニュース機関による潜在的な誤用に対しては警戒を呼びかけており、これがツールの信頼性とそれを使用するニュースメディアの信用の両方に損害を与える可能性があると警告しています。 他にも読む:AI生成の偽のペンタゴン爆発画像が米国株市場を下落させる ニュースルームにおけるAI:デリケートなバランスの取り方 世界中のニュース業界は、ニュースルームでの人工知能の責任ある利用に向けて葛藤しています。ニューヨーク・タイムズ、NPR、インサイダーなどを含む多くの組織が、ジャーナリズムのハイステークス領域でのその応用を慎重に探求しています。AIは特定のトピックで記事を生成するために使用されてきましたが、GoogleのGenesisは重要な進化を遂げ、伝統的に書かれたストーリーの誤情報や認識について懸念を引き起こしています。 他にも読む:ニュースの消費に基づいて公的な意見を予測する研究者たち Googleの進化する役割:キュレーションとファクトチェック 従来、Googleは情報をキュレーションし、さらなる読み物のためにユーザーを出版社のウェブサイトに誘導してきました。しかし、Genesisやチャットボットのバードなどのツールは、時折不正確な事実の主張を提示したり、権威あるニュースソースからユーザーを遠ざけたりすることで批判を浴びています。AI生成コンテンツと人間の執筆ジャーナリズムの間で適切なバランスを取ることは、重要な課題です。 他にも読む:PoisonGPT:Hugging Face…

「ChatGPTのリリースはオープンデータの生産に影響を与えているのか? 研究者が調査し、人気を集めるLLMがStackOverflowのコンテンツの大幅な減少をもたらしていることを検証」

大規模言語モデル(LLM)は、新しいアップデートや新しいリリースごとに人気が高まっています。BERT、GPT、PaLMなどのLLMは、自然言語処理や自然言語理解の分野で非常に優れた能力を発揮しています。OpenAIが開発した有名なチャットボットChatGPTは、GPT 3.5やGPT 4のトランスフォーマーアーキテクチャに基づいており、100万以上のユーザーに使用されています。その人間のような性質から、研究者や開発者、学生など、あらゆる人の注目を浴びています。ChatGPTは、ユニークなコンテンツを効率的に生成し、人間のように質問に答え、長いテキストの段落を要約し、コードサンプルを完了させ、言語を翻訳するなど、さまざまなことができます。 ChatGPTは、さまざまなトピックに関する情報をユーザーに提供することに驚くほど優れていることが証明されており、これによって従来のウェブ検索の代わりや他のユーザーにオンラインでの支援を求めることができる可能性があります。しかし、私たちは制約もあります。ユーザーが大規模な言語モデルと個別に関与し続けると、一般にアクセス可能な人間生成データと知識リソースの量が劇的に減少する可能性があります。このオープンデータの減少は、将来のモデルのためのトレーニングデータの確保が困難になる可能性があります。 この問題についてさらなる研究を行うために、研究チームはStack Overflow上の活動を調査し、ChatGPTのリリースがオープンデータの生成にどのような影響を与えたかを調査しました。Stack Overflowは、コンピュータプログラマー向けのよく知られた質問応答サイトであり、多くの言語モデルが存在する場合のユーザーの行動と貢献を調査するための優れた事例研究として使用されました。チームは、ChatGPTなどのLLMが大きな人気を集めるにつれて、StackOverflowのコンテンツの減少につながっていることを調査しました。 評価の結果、チームはいくつかの興味深い結論を導き出しました。ChatGPTのリリース後、Stack Overflowの活動は、中国やロシアの競合サイト、および数学の類似のフォーラムと比較して大幅に減少しました。チームは、OpenAIのChatGPTのリリース後、Stack Overflowの週間投稿数が16%減少すると予測しました。また、ChatGPTのStack Overflowへの影響は時間とともに増加しました。これは、ユーザーがモデルの機能により慣れてくるにつれて、情報をより頼りにするようになり、サイトへの貢献がさらに制限されることを示唆しています。 チームは以下の3つの重要な結論に絞り込みました。 投稿活動の減少:ChatGPTのリリース後、Stack Overflowの投稿数(質問と回答)が減少しました。差分の差分法を使用して、活動の減少を計算し、他の4つのQ&Aプラットフォームと比較しました。ChatGPTの登場から6ヶ月以内にStack Overflowの投稿活動は元々約16%減少し、その後約25%に増加しました。 投稿の投票に変化なし – ChatGPTのリリース以降、Stack Overflowの投稿が受けた投票(上向きと下向きの両方)の数は、投稿活動の減少にもかかわらず、大きな変化はありませんでした。これは、ChatGPTが低品質の投稿だけでなく、高品質な記事も置き換えていることを示しています。 多様なプログラミング言語への影響:ChatGPTは、Stack Overflowで議論されるさまざまなプログラミング言語に多様な影響を与えました。PythonやJavaScriptなどの一部の言語では、グローバルサイトの平均に比べて投稿活動がより顕著に減少しました。投稿活動の相対的な減少は、GitHub上のプログラミング言語の普及率にも影響を受けました。 著者は、LLMの普及とStack Overflowのようなウェブサイトからの移行が、ユーザーや将来のモデルが学習できるオープンデータの量を制限する可能性があることを説明しています。これには、インターネット上の知識のアクセスと共有、AIエコシステムの長期的な持続可能性に影響があります。

メタは、商用利用に無料のLLaMA 2をリリースしました

これは短いものになりますが、Metaは新しいバージョンのLLaMAをリリースしますこのバージョンはLLaMA 2として知られ、研究目的および商業目的の両方で無料で利用できますこれはMetaからのリリースです

アンソロピックは、以前のモデルと比べて、コーディング、数学、論理思考において大幅な改善を果たしたClaude 2モデルをリリースしました

Anthropicは、Claude 2という新しいモデルを発表しました。このモデルは、改善されたパフォーマンス、より長い応答時間、APIと公開ベータウェブサイトを通じたアクセシビリティを誇っています。ユーザーはClaudeの会話能力、明確な説明、有害な出力の生成確率の低減、前のモデルと比較してのメモリの改善に対して称賛しています。特に、Claude 2は、コーディング、数学、推論タスクにおいて優れたパフォーマンスを発揮しました。例えば、バー試験の多肢選択問題のセクションで76.5%のスコアを獲得し、前任者の73.0%を上回りました。大学院入学試験を受験する大学生と比較して、Claude 2はGREのリーディングとライティングの試験で90パーセンタイル以上の成績を収め、量的推論の試験では中央値の応募者と同等の成績を収めました。 開発者は、Claudeを友好的で熱心なバーチャルな同僚やパーソナルアシスタントと位置付け、さまざまなタスクをサポートするための自然言語の指示を理解する能力を持つ存在としています。ビジネス向けのClaude 2 APIは、先代モデルであるClaude 1.3と同じ価格で利用できます。また、アメリカとイギリスの個人は既にベータ版のチャット体験を利用することができます。 Claudeモデルのパフォーマンスと安全性の向上に努めています。入力と出力の長さが増え、ユーザーは最大100,000トークンまでのプロンプトを入力することができます。これにより、Claudeは広範な技術文書や書籍を処理し、メモ、手紙、物語など、数千のトークンから成る長い文書を生成することができます。 最新のモデルであるClaude 2は、コーディングスキルが大幅に向上しました。Codex HumanEval Pythonコーディングテストで71.2%のスコアを獲得し、前任者のClaude 1.3の56.0%を上回りました。GSM8kの数学問題セットでは、Claude 2は88.0%のスコアを獲得し、前任者の85.2%を上回りました。将来の計画には、Claude 2の能力向上を徐々に展開することが含まれています。 有害で攻撃的な出力を減少させるために、安全対策に注力しています。内部のレッドチーミング評価では、Claudeモデルを有害なプロンプトの代表的なセットに対して評価し、自動テストと手動のチェックを組み合わせています。Claude 2は、Claude 1.3と比較して無害な応答を提供する効果が2倍でした。望ましくない出力に完全に免疫を持つモデルは存在しませんが、安全技術と包括的なレッドチーミングは、出力の総合的な品質の向上に役立っています。 多くの企業がClaude APIを採用しており、JasperやSourcegraphなどのパートナーはClaude 2の機能を活用しています。ジャスパーは、多様なユースケース向けの最先端モデルとの互換性を強調し、長文、低遅延のアプリケーションにおける強みを強調しています。ソースグラフは、コーディングアシスタントのCodyにClaude 2の改善された推論能力を組み込み、ユーザーのクエリに対してより正確な回答を提供し、最大100,000のコンテキストウィンドウを通じてコードベースのコンテキストを伝えることができます。Claude 2の最新データでのトレーニングにより、Codyはより新しいフレームワークとライブラリに関する知識を備えており、開発者がソフトウェアをより効率的に構築することができます。…

Gradio 3.0 がリリースされました!

機械学習デモ 機械学習デモは、モデルのリリースにおいてますます重要な役割を果たしています。デモを使用することで、MLエンジニアに限らず誰でもブラウザ上でモデルを試し、予測にフィードバックを提供し、モデルがうまく機能する場合にはモデルへの信頼を築くことができます。 2019年の初版以来、Gradioライブラリを使用して600,000以上のMLデモが作成されています。そして今日、私たちはうれしいことに、Gradio 3.0の発表をお知らせできます!Gradioライブラリの完全な再設計です🥳 Gradio 3.0の新機能 🔥 Gradioユーザーからのフィードバックに基づいた、フロントエンドの完全な再設計: Gradioフロントエンドの構築には、Svelteなどの最新技術を使用しています。その結果、ペイロードが非常に小さく、ページの読み込みも非常に高速になりました! また、よりクリーンなデザインにも取り組んでおり、Gradioデモが視覚的により多くの設定に適合するようになりました(ブログ記事に埋め込まれるなど)。 CSVファイルをドラッグアンドドロップしてDataframeに入力するなど、既存のコンポーネントであるDataframeをよりユーザーフレンドリーに改良し、Galleryなどの新しいコンポーネントを追加して、モデルに適したUIを構築できるようにしました。 新たにTabbedInterfaceクラスを追加しました。これにより、関連するデモを1つのWebアプリケーション内の複数のタブとしてグループ化することができます。 すべての使用可能なコンポーネントについては、(再設計された)ドキュメントをご覧ください🤗! 🔥 Pythonで複雑なカスタムWebアプリを構築できる新しい低レベル言語Gradio Blocksを作成しました: なぜBlocksを作成したのでしょうか?Gradioデモは非常に簡単に構築できますが、デモのレイアウトやデータのフローに対してより細かい制御をしたい場合はどうでしょうか?たとえば、以下のようなことができるようになります: 入力を左側にまとめ、出力を右側にまとめるデモのレイアウトを変更する 1つのモデルの出力を次のモデルの入力とするような、マルチステップのインターフェースを持つか、一般的にはより柔軟なデータフローを持つ ユーザーの入力に基づいてコンポーネントのプロパティ(例:ドロップダウンの選択肢)や表示状態を変更する 低レベルのBlocks APIを使用すると、すべての操作をPythonで実行できます。 次に、2つのシンプルなデモを作成し、タブを使用してそれらをグループ化するBlocksデモの例を示します: import…

3B、4B、9B のスケールで 5 つの新しいマルチモーダルモデルを備えた OpenFlamingo チームが、前モデルを上回る OpenFlamingo v2 をリリースしました

ワシントン大学、スタンフォード大学、AI2、UCSB、Googleの研究者グループは、最近OpenFlamingoプロジェクトを開発しました。このプロジェクトはDeepMindのFlamingoチームと同様のモデルを構築することを目指しています。OpenFlamingoモデルは、任意の混合テキストと画像のシーケンスを処理し、テキストを出力することができます。キャプショニング、ビジュアルクエスチョンアンサリング、画像分類などが、このモデルの能力とコンテキストでのサンプリングを活用することができる活動の一部です。 現在、チームはv2のリリースを発表しました。このリリースには、3B、4B、9Bのレベルでトレーニングされた5つのOpenFlamingoモデルが含まれています。これらのモデルは、LLaMAよりも制約の緩いオープンソースモデルから派生しており、MosaicのMPT-1Bと7B、Together.XYZのRedPajama-3Bなどが含まれています。 研究者たちは、すでにプリトレーニングされた静的言語モデルのレイヤーに視覚的な特徴を追加することで、Flamingoモデリングパラダイムを使用しました。ビジョンエンコーダーと言語モデルは静的なままですが、接続モジュールはFlamingoと同様にWebスクレイピングされた画像テキストのシーケンスを使用してトレーニングされます。 チームは、キャプショニング、VQA、および分類モデルをビジョン言語データセットでテストしました。その結果、チームはv1リリースとOpenFlamingo-9B v2モデルの間で大きな進歩を遂げたことがわかりました。 彼らは7つのデータセットと5つの異なるコンテキストからの結果を組み合わせて、モデルの有効性を評価しました。コンテキストのないショット、4つのショット、8つのショット、16のショット、32のショットの評価を行いました。OpenFlamingo (OF)のOF-3BおよびOF-4BレベルのモデルをFlamingo-3BおよびFlamingo-9Bレベルのモデルと比較し、平均してOpenFlamingo (OF)はFlamingoの性能の80%以上を達成していることがわかりました。研究者たちはまた、自身の結果をPapersWithCodeで公開された最適化されたSoTAと比較しました。オンラインデータのみで事前トレーニングされたOpenFlamingo-3BおよびOpenFlamingo-9Bモデルは、32のコンテキストインスタンスで微調整された性能の55%以上を達成しています。OpenFlamingoのモデルは、0ショットではDeepMindの平均10%、32ショットでは15%遅れています。 チームは引き続きトレーニングと最先端のマルチモーダルモデルの提供に取り組んでいます。次に、事前トレーニングに使用するデータの品質を向上させることを目指しています。

Unityは、Museというテキストからビデオゲームを作成するプラットフォームのリリースを発表しましたこのプラットフォームでは、自然言語でテクスチャ、スプライト、アニメーションを作成することができます

AIはさまざまな産業で波紋を広げ、芸術やその他の分野へのアプローチの仕方を革新してきました。人工知能はデータの分析、パターンの学習、コンテンツの生成能力により、創造的な表現と効率性に新たな可能性を開拓しています。AIが主にその功績を上げている分野の一つがゲーム開発の領域です。 ゲーム開発は、技術的な専門知識とクリエイティブなストーリーテリングのバランスが求められる緻密なプロセスです。従来、ゲームデザイナーや開発者はゲームのキャラクターや環境、ゲームプレイのメカニクスなど、ゲームのあらゆる要素を手作業で作成する必要がありました。しかし、AIの登場により、ゲーム開発は大きく進歩しました。 ゲーム開発プラットフォームのリーディングカンパニーであるUnity Technologiesは、画期的な発表を行い、創造の風景を革新する2つのユニークなAIパワードツールを発表しました。創造時間の短縮、ニューラルネットワークのシームレスな統合、さまざまなドメインでの生産性向上を目指すUnity MuseとUnity Sentisが舞台に登場し、世界中のクリエイターを魅了しています。これらの最先端のツールはクローズドベータに参入し、AIと人間の創造力が融合してゲーム、エンターテイメント、産業アプリケーションの未来を形作るエキサイティングな時代の幕開けを告げました。 最初の逸品であるUnity Museは、AIパワードプラットフォームとしての中心的な役割を果たし、リアルタイムの3Dアプリケーションやエクスペリエンスの作成に前例のないスピードと効率をもたらします。Museを使用して、テキストプロンプトやスケッチなどの自然な入力を使用してUnityエディタ内で多様なコンテンツを簡単に生成することができます。ペンの数ストロークで魅力的なデジタルワールドに命を吹き込む能力を想像してみてください。また、特性を説明するだけでダイナミックなキャラクターを召喚する力もあります。Unity MuseはAIの能力を活用することでクリエイティブプロセスを強化し、クリエイターがイマジネーションを実現することに集中できるよう裏方で応援します。 Museプラットフォーム内には、Muse Chatという素晴らしい機能があります。これはUnityの広大なドキュメンテーション、トレーニングリソース、サポートコンテンツのAIベースの検索機能を活用します。Muse Chatは質問に答えたり、構造化されたインサイトを提供したり、Unityの広範な知識ベースから最新の情報を提供することができる、ガイドとなる仲間です。クリエイターは今や仮想のメンターを持ち、Unityの技術を熟知した、いつでもタイムリーなサポートを提供する疲れ知らずのパートナーと共に開発プロセスを楽しむことができます。Muse Chatは開発プロセスをエキサイティングな旅に変え、障壁を取り除き、クリエイターの全ての可能性を解き放つのです。 Unity Sentisも負けていません。Unity Sentisは、クリエイターがゲームやアプリケーションのUnityランタイムにAIモデルをシームレスに統合できるパワフルなツールとして登場します。Sentisによって、ゲームプレイやユーザーエクスペリエンスの境界が打ち破られ、AIモデルがエンドユーザープラットフォームで生き生きと活躍します。この画期的なツールにより、開発者は一度AIモデルを作成し、モバイルデバイスやPC、ウェブ、ゲームコンソールなどのプラットフォームにシームレスに組み込むことができます。Unity Sentisは革新的なクロスプラットフォームソリューションであり、AIモデルがダイナミックな3Dエンジンの一部となる新しい時代への入り口を開きます。仮想世界と現実の境界が曖昧になり、革新が限りなく広がる無限の可能性が開かれるのです。 しかし、驚異はこれに終わりません。Unity Technologiesは、優れた開発者の一流のラインナップと協力し、Unity Asset StoreにAI Verified Solutionsを紹介しています。Atlas、Convai、Inworld AI、Layer…

MosaicMLは、彼らのMPT-30BをApache 2.0の下でリリースしました

MosaicML-7Bの大成功の後、MosaicMLは再び以前に設定した基準を上回りました。新しい画期的なリリースでは、MosaicML-30Bを発表しました。 MosaicMLは非常に正確で強力な事前学習済みトランスフォーマーです。MosaicMLは、MosaicML-30BがChatGPT3よりもさらに優れていると主張しています。 MosaicML-30Bの発売前、MosaicML-7BはAI界を席巻しました。MPT-7B Base-instruct、base-chat、およびストーリーライティングは大成功でした。同社は、これらのモデルが世界中で300万回以上ダウンロードされたと主張しています。以前にリリースしたモデルへのコミュニティの熱狂がさらに優れたエンジンを求める最大の理由であり、Mosaic MLはMPT-30Bでそれを実現しました。 コミュニティがこれらのMPTエンジンを適応し、より調整されたものを構築して具体的なユースケースに役立てる姿は信じられないほどでした。興味深いケースの一部はLLaVA-MPTです。LLaVa-MPTは、事前学習済みMPT-7Bにビジョン理解を追加します。 同様に、GGMLはMPTエンジンをApple SiliconとCPUでより良く実行できるように最適化します。GPT4ALLは、MPTを基にしたGPT4のようなチャットオプションを実行できる別のユースケースです。 よく見ると、MosaicMLがより優れており、大企業に対して強力な競争力を持ち、比較的簡単な統合でさまざまなユースケースにモデルを適応させることができるというのは、彼らが提供する競争力のある機能のリストとモデルの適応性のおかげです。 このリリースでは、Mosaic MLはまた、ChatGPTが使用するパラメータのおよそ三分の一のMPT-30Bが、既存の生成ソリューションと比較して非常に軽量なモデルであると主張しています。 MosaicMLの既存のMPT-7Bよりも優れており、このMPT-30Bは商業ライセンスの下で即座に商業利用が可能です。 それだけでなく、MPT-30BにはMPT-30B-InstructとMPT-30B-Chatの2つの事前学習済みモデルも付属しており、1つの単一指示に影響を受けることができ、より長い時間のマルチターン会話を追うことができます。 その優れた点は続きます。MosaicMLはMPT-30Bをボトムアップのアプローチでより良く、より効率的に設計しました。MPT-30Bは8kトークンのコンテキストウィンドウでトレーニングされています。ALiBiを介してより長いコンテキストをサポートしています。 FlashAttentionの助けを借りて、トレーニングと推論のパフォーマンスを改善しました。MPT-30Bは、データの多様性によるより強力なコーディング能力を備えています。このモデルはNvidiaのH100上で8Kコンテキストウィンドウに拡張されました。同社は、これがH100で訓練された最初のLLMモデルであり、お客様にすぐに利用可能であると主張しています。 MosaicMLはまた、モデルを軽量に保ち、新興企業が運用コストを低く抑えるのに役立てています。 MPT-30Bのサイズも、単一のGPU上で簡単に展開できるように特別に選ばれました。1つのA100-80GB(16ビット精度)または1つのA100-40GB(8ビット精度)でシステムを実行できます。Falcon-40Bなどの他の比較可能なLLMは、より大きなパラメータ数を持ち、単一のデータセンターGPUではサービスできません(現在)。これには2つ以上のGPUが必要であり、最小の推論システムコストが増加します。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us