Learn more about Search Results で見る - Page 15
- You may be interested
- 「検索強化生成システムのパフォーマンス...
- 「クラウド移行におけるAIの展望」
- ドックスからコードの生成には、LLMsを使...
- 生成AI倫理’ (Seisei AI Rinri)
- 「UCバークレーの研究者が開発したALIA:...
- 専門家モデルを用いた機械学習:入門
- CPR-CoachによるCPRトレーニングの革命:...
- 『私をすばやく中心に置いてください:主...
- 「陪審団がGoogleのアプリストアが反競争...
- 「2023年に知っておくべきトップ15のビッ...
- 「2023年のトップAI画像アップスケーラー...
- Japanese AI規制- 仮定はありませんか?そ...
- マシンラーニングの革命:光フォトニック...
- 「トップのローコード/ノーコードAIツール...
- 「Mini-DALLE3と出会おう:大規模な言語モ...
スタビリティAIチームが、新しいオープンアクセスの大規模言語モデル(LLM)であるFreeWilly1とFreeWilly2を紹介します
FreeWilly1とその後継であるFreeWilly2は、Stability AIのCarperAIチームによって開発された強力な新しいオープンソースの大規模言語モデル(LLM)です。両モデルは、多くの異なるメトリックを使用して、推論コンテストで非常に優れたパフォーマンスを発揮します。業界標準のAlpaca形式の教師ありファインチューニング(SFT)を使用して、FreeWilly1モデルをファインチューニングしました。このモデルは、元のLLaMA 65Bファウンデーションモデルの上に構築されています。FreeWilly2は、LLaMA 2 70Bベースモデルを使用して、一部のタスクでGPT-3.5と同等のパフォーマンスを実現しています。 FreeWillyモデルのトレーニングは、Microsoftの画期的なアプローチに大きく影響を受けており、記事「Orca:GPT-4の複雑な説明トレースからの進行的学習」で説明されています。チームは、高品質なインストラクションで言語モデルにプロンプトを与え、データセットのコピーを生成しました。このデータセットには、オリジナルのOrcaの作業で使用されたデータセットサイズの約10%に相当する60万件のデータポイントが含まれています。 この方法を使用して、研究者は、より複雑なLLMモデルを使用して追加の10万件、より単純なLLMモデルを使用して50万件を生成しました。彼らはこれらのデータセットを徹底的にスクリーニングし、評価ベンチマークからのケースを削除して、有効な比較を保証しました。彼らの合成生成データセットへのアプローチは、オリジナルのOrcaの論文で使用されたサンプルサイズの10分の1しかトレーニングしていないにもかかわらず、FreeWillyモデルが複数のベンチマークで非常に優れたパフォーマンスを発揮していることで検証されています。 研究者は、これらのモデルの評価を行うためにEleutherAIのlm-eval-harnessにAGIEvalを追加しました。その結果、両FreeWillyモデルは、法律や数学などの専門分野の難しい問題の解決、複雑な推論の実行、言語のニュアンスの認識において優れたパフォーマンスを発揮することが示されています。 チームは、これらのモデルが話された言語を理解する能力を向上させ、以前は不可能だった可能性を開拓すると信じています。彼らはこれらのモデルの革新的な使用法を人工知能で見ることを望んでいます。
「AIのスケーリングと採用に関する5つの懸念」
近年、AIの社会への影響に対する懸念が増してきていますしかし、これは人気のあるチャットボットChatGPTの導入以来、より一層増大しました一般の人々や経験豊富なデータ専門家たちの想像力が爆発的に広がりました多くの人々が同様の質問をすることがありますが、それは...
データサイエンス予測の検査:個別+負のケース分析
「新しい学習者に.predict()メソッドの使い方を教えていると、約40〜43%の時間で次の質問が出てきます:この質問は、学習者がもっとよく尋ねる質問であってほしいですそれは...」
「今日から使える5つの簡単なPythonの機能で、より良いコードを書き始めることができます」
「これは超きれいです 😎」や「こんな方法でできるとは知らなかった」というコメントを自分のコードやプルリクエストで見ると、素晴らしい感覚になることを認めなければなりません個人的な経験から言えば...
メタからのLlama 2基盤モデルは、Amazon SageMaker JumpStartで利用可能になりました
「本日、Metaによって開発されたLlama 2 ファウンデーションモデルがAmazon SageMaker JumpStartを通じてお客様に提供できることを喜んでお知らせしますLlama 2 ファミリーは、7兆から700兆のパラメータを持つ事前学習および微調整済みの生成テキストモデルのコレクションです微調整済みのLLMはLlama-2-chatと呼ばれています」
「人間と高度な人工知能の間で倫理的な相互作用を育む」
AI技術の急速な進歩は、人間と機械の相互作用の景観を再定義していますAIシステムがますます自律化し洗練される中、相互の尊重、共存、理解を促進する環境を育むことが重要ですこの変革の中心には、思いやりが必要です-これは人間の基本的な特徴であり、...
AI WebTVの構築
AI WebTVは、自動ビデオと音楽合成の最新の進歩を紹介するための実験的なデモです。 👉 AI WebTVスペースにアクセスしてストリームを視聴できます。 モバイルデバイスを使用している場合は、Twitchのミラーからストリームを視聴できます。 AI WebTVの目的は、ZeroscopeやMusicGenなどのオープンソースのテキストからビデオを生成するモデルを使用して、エンターテイニングでアクセスしやすい方法でビデオをデモすることです。 これらのオープンソースモデルは、Hugging Faceハブで見つけることができます: ビデオ用: zeroscope_v2_576とzeroscope_v2_XL 音楽用: musicgen-melody 個々のビデオシーケンスは意図的に短く作られており、WebTVは芸術方向性やプログラミングを持つ実際のショーではなく、テックデモ/ショーリールとして見るべきです。 AI WebTVは、ビデオショットのシーケンスを取り、テキストからビデオを生成するモデルに渡してテイクのシーケンスを生成することで動作します。 さらに、人間によって書かれた基本テーマとアイデアは、LLM(この場合はChatGPT)を通じて渡され、各ビデオクリップごとにさまざまな個別のプロンプトを生成するために使用されます。 以下は、AI WebTVの現在のアーキテクチャのダイアグラムです: WebTVはNodeJSとTypeScriptで実装されており、Hugging Faceでホストされているさまざまなサービスを使用しています。 テキストからビデオへのモデル 中心となるビデオモデルはZeroscope…
「ChatGPTの王座陥落:クロードが新しいAIリーダーとなった経緯」
世界を恥ずかしい思いさせる
「Polarsデータ操作ライブラリのはじめ方」
イントロダクション 皆さんご存知の通り、PandasはPythonのデータ操作ライブラリです。しかし、いくつかの欠点があります。この記事では、Rustプログラミング言語で書かれたPythonのもう一つの強力なデータ操作ライブラリについて学びます。Rustで書かれているにもかかわらず、Pythonプログラマー向けの追加パッケージを提供しています。これはPandasと似ているように、Pythonを使ってPolarsを始める最も簡単な方法です。 学習目標 このチュートリアルでは、以下のことを学びます: Polarsデータ操作ライブラリの導入 Polarsを使用したデータの探索 Pandas vs Polarsの速度比較 データ操作関数 Polarsを使用した遅延評価 この記事はData Science Blogathonの一部として公開されました。 Polarsの特徴 Pandasライブラリよりも高速です。 強力な式構文を持っています。 遅延評価をサポートしています。 メモリ効率も良いです。 利用可能なRAMよりも大きいデータセットも扱うことができます。 Polarsには、イーガーAPIとレイジーAPIの2つの異なるAPIがあります。イーガー実行はPandasと似ており、コードがエンカウントされるとすぐに実行され、結果がすぐに返されます。一方、レイジー実行は開発が必要な場合まで実行されません。レイジー実行は不要なコードの実行を避けるため、より効率的です。レイジー実行は不要なコードの実行を避けるため、より効率的です。 アプリケーション/ユースケース このライブラリのいくつかのアプリケーションを以下に示します: データの視覚化:このライブラリは、PlottersなどのRustの視覚化ライブラリと統合されており、データからの洞察を伝えるためのインタラクティブなダッシュボードや美しい視覚化を作成するために使用することができます。…
「トランスフォーマーを使用した音声からテキストへの完全な入門ガイド」
イントロダクション 私たちは、実際に気づかないうちにオーディオデータに関わっています。世界はオーディオデータと関連する解決すべき問題で溢れており、これらの問題の多くを機械学習を使って解決することができます。画像、テキスト、表形式のデータを使って機械学習モデルを訓練することや、これらのドメインの問題を解決するために機械学習を使うことにはお馴染みかもしれません。Transformerアーキテクチャの登場により、従来の方法よりもはるかに高い精度でオーディオ関連の問題を解決することが可能になりました。本講座では、トランスフォーマーを用いた音声テキスト変換を使用して、オーディオMLの基礎を学び、オーディオ関連の問題を機械学習を用いて解決するためのHuggingfaceライブラリの使用方法を学びます。 学習目標 オーディオ機械学習の基礎と関連する背景知識について学ぶ。 オーディオデータの収集、保存、処理方法について学ぶ。 機械学習を用いた一般的で価値のあるタスクである音声テキスト変換について学ぶ。 オーディオタスクにおいてデータセットやトレーニング済みモデルを探し、それらを使用してHuggingface Pythonライブラリを活用してオーディオ問題を解決する方法について学ぶ。 この記事はData Science Blogathonの一部として公開されました。 背景 Deep Learningの革命が2010年代初頭に起こり、AlexNetが物体認識において人間の専門知識を超えたことから、Transformerアーキテクチャはおそらくそれ以来の最も大きなブレークスルーです。Transformerは以前に解決不可能だったタスクを可能にし、多くの問題の解決を簡素化しました。最初は自然言語翻訳の結果を向上させるために開発されたものでしたが、その後は自然言語処理以外のタスクにも広く採用されるようになりました。例えば、画像に関連するタスクにはViT(Vision Transformers)が適用され、強化学習エージェントの意思決定にはDecision Transformersが使用され、最近の論文ではMagViTというTransformersをビデオに関連するさまざまなタスクに使用する方法が示されています。 これは、Attentionメカニズムを導入した有名な論文Attention is All You Needに始まり、Transformersのアーキテクチャの内部構造を既に知っているとは仮定しません。 一般の開発者やパブリックドメインでは、ChatGPTやGitHub Copilotといった名前が非常に有名ですが、Deep Learningはビジョン、強化学習、自然言語処理など、さまざまな分野で多くの実世界のユースケースで使用されています。…
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.