Learn more about Search Results 調査 - Page 10
- You may be interested
- Google DeepMindとYouTubeの研究者は、Lyr...
- 「Pymcと統計モデルを記述するための言語...
- ランダムフォレストの解釈
- Amazon Lex、Langchain、およびSageMaker ...
- 「オープンソースモデルと商用AI/ML APIの...
- 「Amazon Titanを使用して簡単に意味論的...
- オープンAI GPTモデルの使用に関するベス...
- TSMixer グーグルによる最新の予測モデル
- 3B、4B、9B のスケールで 5 つの新しいマ...
- セレブラスとG42が4エクサフロップのAIス...
- ミストラルAIは、MoE 8x7Bリリースによる...
- 「Google ResearchがMediaPipe FaceStyliz...
- 機械学習におけるバイアスについて話しま...
- 大規模言語モデル(LLM)のファインチュー...
- MetaGPT 現在利用可能な最高のAIエージェ...
機械学習信頼性の向上:異常性がモデルのパフォーマンスと不確実性の定量化を向上させる方法
オブジェクトがそのカテゴリーの他のアイテムに似ている場合、それは典型的と見なされます。例えば、ペンギンは普通でない鳥ですが、ハトやスズメは普通の鳥です。いくつかの認知科学の研究は、典型性がカテゴリーの知識において重要であることを示唆しています。例えば、人間は普通のオブジェクトに対してより速く学習し、思い出し、関連付けるとされています。同様に、類似性ヒューリスティックは、人々が出来事がどれくらい一般的かに基づいて判断する傾向を指します。これは迅速な意思決定に役立つかもしれませんが、不正確な不確実性の評価につながる可能性もあります。例えば、普通の出来事の確率を過大評価したり、珍しい出来事についての判断の不確実性を過小評価したりするかもしれません。 人間の判断の不確実性の度合いを測定することは難しいですが、機械学習の手法は予測において保証を提供します。ただし、信頼性を判断するためには信頼度だけでは十分ではない場合もあります。たとえば、低信頼度の予測は、明示的な不確実性やトレーニング分布においてサンプルの不足から生じる場合があります。同様に、高信頼度の予測は正確であるかもしれないが、誤ったキャリブレーションをしている場合もあります。彼らの主な提案は、トレーニング分布の範囲または予測の予測性を理解するために、モデルが両方の非典型性と信頼度を測定すべきであるということです。ただし、多くの機械学習アプリケーションでは、非典型性の測定ではなく、信頼度のみを提供する事前学習済みモデルが使用されます。 スタンフォード大学とラトガーズ大学の研究チームは、サンプルやクラスの非典型性(稀な存在)とモデルの予測の正確性との関連を調査しています。以下は彼らの貢献です: 1. 予測品質の認識:この研究により、非典型性を考慮した推定子を使用することで、モデルの予測確率が実際の発生確率と一致するかどうかを評価できます。例えば、ロジスティック回帰やニューラルネットワークでも、調整が不正確な場合があります。ここでは、非典型性はモデルの信頼性が信頼できるかどうかに関する情報を提供できます。厳密なテストと理論的な研究によって、非典型性は予測の品質が低下することが示されています。特に、非典型な入力や非典型クラスからのサンプルでは、過度の自信と予測の精度が低下することが研究チームによって実証されました。 2. 精度とキャリブレーションの向上:確率モデルを修正することで、キャリブレーション技術によって誤キャリブレーションを軽減できます。研究チームは、モデルは異常な入力やクラスに基づいてさまざまな補正を必要とし、非典型性が再校正に重要な役割を果たすことを示しました。この調査結果に基づいて、彼らは非典型性を考慮した簡単な手法「非典型性に対する再校正」を提案しています。彼らの再校正技術は簡単に実装でき、入力やクラスの非典型性を考慮に入れます。研究チームは、非典型性を再校正技術に加えることで、予測の精度と不確実性の量子化を向上させることを実証しました。また、スキンレセプトリズムのカテゴリ分類を行う事例研究において、非典型性を意識したことが、複数のスキンタイプの性能向上に寄与することも示しました。 3. 予測セットの向上:ラベルの含まれる可能性が高い予測セットは、不確実性を評価する別の方法です。ここでは、研究チームは既存のアプローチの非典型性を検討し、低信頼度または非典型のサンプルが予測セットの性能を低下させる可能性があることを実証しています。研究チームは非典型性を使用することで予測セットの向上の可能性を示しています。 総じて、研究チームはモデルに非典型性を考慮することを提案し、使用が容易である非典型性推定子が非常に価値があることを実証しています。
「スピークAI転写ソフトウェアのレビュー(2023年12月)」
この詳細なSpeak AIレビューで、Speak AIについての真実を発見してくださいそれは最も優れたAI転写ソフトウェアですか?この記事で確認してください!
デジタル変革によって打撃を受ける可能性が低い6つの産業
「急速な技術の進歩やデジタル変革が進む時代において、多くの産業がその業務の風景に根本的な変化を経験していますしかし、変化の波の中で、何部門かは変革の潮流に対して強靭な立ち向かいを見せていますこれらの産業は揺るがぬ基盤を築いており、デジタル変革の荒波からは容易に揺ぎない存在です本記事では、デジタル変革による大激変を免れるであろう6つの産業について解説します」
「生成型AIアプリケーションのためのプレイブック」
この記事では、Generative AIアプリケーションを実装する際の主要な考慮事項と、ビジョンを行動に変えるために人間の関与が果たす重要な役割について議論しています
「シュレディンガー・ブリッジはテキスト・トゥ・スピーチ(TTS)合成において拡散モデルに勝るものになっていますか?」
人工知能の進歩に伴い、自然言語処理、自然言語生成、コンピュータビジョンの分野は、最近大きな人気を得ています。これは、大規模言語モデル(LLMs)の導入によるものです。テキスト音声合成(TTS)において成功を収めている拡散モデルは、優れた生成品質を示しています。しかし、これらの拡散モデルは、ノイズを導入し、望ましい生成目標についてほとんど情報を提供しない表現に制限されています。 最近の研究では、清華大学とマイクロソフトリサーチアジアの研究者チームが、Bridge-TTSと呼ばれる新しいテキスト音声合成システムを提案しました。これは、拡散ベースのTTS手法で使用されるノイズガウス事前分布の代わりに、クリーンで予測可能な代替物を提供する試みです。この代替事前分布は、テキスト入力から抽出された潜在表現から取得されます。 チームは、主な貢献が完全に管理可能なシュレディンガー橋の開発であると述べています。これにより、正確なメルスペクトログラムとクリーンな事前分布との接続が実現されます。提案されたBridge-TTSは、データからデータへのプロセスを使用し、従来の拡散モデルがデータからノイズへのプロセスを通じて機能するのとは対照的に、以前の分布の情報内容を向上させることができます。 チームはこの手法を評価し、評価により、Bridge-TTSはLJ-Speechデータセットでの実験的な検証によってその効果が強調されました。50ステップ/1000ステップの合成設定では、Bridge-TTSは拡散ベースのGrad-TTSよりも優れたパフォーマンスを発揮しました。それは強力で高速なTTSモデルよりも少ないステップでさらに優れた性能を発揮しました。Bridge-TTSアプローチの主な強みは、合成品質とサンプリング効率です。 チームは以下の主な貢献をまとめています。 メルスペクトログラムは、汚染されていないテキストの潜在表現から生成されました。従来のデータからノイズへの手順とは異なり、この表現は拡散モデルの文脈での条件情報として機能するため、ノイズがない作成されるようになっています。シュレディンガー橋を使用してデータからデータへのプロセスを調査しました。 ペアデータに対して完全に処理可能なシュレディンガー橋を提案しました。この橋は柔軟な形式の参照確率微分方程式(SDE)を使用しています。この手法により、設計空間の経験的な調査が可能になり、理論的な説明も提供されます。 サンプリング手法、モデルのパラメータ化、ノイズのスケジューリングがTTSの品質向上にどのように貢献するかを研究しました。非対称ノイズスケジュール、データ予測、および一次橋サンプラーも実装されました。 完全に処理可能なシュレディンガー橋により、基礎プロセスの完全な理論的説明が可能になりました。サンプリングプロセスの効率、非対称ノイズスケジュール、モデルのパラメータ化における影響など、さまざまな要素がTTSの品質にどのように影響するかを理解するために、経験的調査も行われました。 この手法は推論速度と生成品質の両方で素晴らしい結果を出しました。拡散ベースのGrad-TTSは、1000ステップと50ステップの両方の生成状況で、この手法に大きく劣っていました。また、4ステップの生成ではFastGrad-TTS、トランスフォーマーベースのモデルFastSpeech 2、最先端のディスティレーションアプローチCoMoSpeechよりも優れた性能を発揮しました。 この手法は、たった1回のトレーニングセッションですばらしい結果を達成しました。この効率性は、作成プロセスの複数の段階で見ることができ、提案された手法の信頼性と能力を示しています。
「OpenAIやLM Studioに頼らずにAutoGenを使用する方法」
イントロダクション OpenAIやLMスタジオに頼らずに、あなた自身のAIチームを作成する準備はできていますか?もはや銀行を荒らすことも、アプリをダウンロードすることもありません。llama-cpp-pythonの設定から、autogenフレームワークのヘルプを借りてローカルLLMのパワーを探求するまで。OpenAI APIに依存せず、Autogenのフルポテンシャルを引き出す準備をしましょう。 学習目標 詳細に入る前に、この記事の主な学習目標を概説しましょう: さまざまなAIライブラリとツールを評価・比較する方法を学ぶ。 llama-cpp-pythonがOpenAI APIの代替として提供できる方法を探索する。 2つの現実世界の使用例で獲得した知識を適用する: アルゴリズムメンターチームの構築と金融チャート生成の自動化。 AutoGenの改善されたユーザーエクスペリエンスを探索し、統合されたIPythonを通じて即時のコード実行結果を得る。 この記事はData Science Blogathonの一環として公開されました。 ツール紹介: llama-cpp-python、AutoGen、およびローカルLLM しかし、このテックツールキットの特別な点は何でしょうか? llama-cpp-pythonは、LLMAのような有名なモデルを含めて、ローカルでLLMを実行するためのゲートウェイです。コンピュータ上にAIのスーパースターがいるようなもので、さまざまなBLASバックエンドのサポートにより、速度は驚異的です! AutoGen AutoGenは、基盤モデルを使用するための高レベルな抽象化として機能する統一されたマルチエージェント会話フレームワークです。LLM、ツール、および人間の参加者を統合し、自動化されたチャットを通じて能力のある、カスタマイズ可能で会話形式のエージェントを結合します。エージェント同士が自律的にコミュニケーションして共同作業を行うことができ、複雑なタスクを効率的に進めることやワークフローを自動化することが可能です。 もしAutoGenの機能をより深く探求し、戦略的なAIチームビルディングをどのように支援するかを調べることに興味があるなら、当社の専用ブログ「Strategic AI Team Building…
なぜOpenHermes-2.5はGPT-4やLLama2 13Bよりも優れているのか? 結果はこちら
したがって、この記事では、llama2 13 Billion、GPT-4、OpenHermes 2.5などの主要なプレーヤーからの最新のAIの進歩について詳しく説明しますこの段階ごとのガイドでは、.........
「2024年に成功したデータサイエンティストがテックジョブを獲得する方法-求職活動への3ステップ勝利戦略」
最近、データサイエンティストの間で調査を行い、驚愕の数値を見つけました−86%の人が無作為に仕事の申し込みを送って、ベストを期待していることがわかりました期待するだけでは戦略ではありませんし、このような時代に…
「たぬき+GPT4を使用して、20分で顧客サポートボットを作成しましょう」
要点 このワークフローは、顧客のフィードバックメッセージに応答し、それらをGPT4 + タヌキ(オープンソース)を使用して優先されたサポートチケットに解析しますこれは誰にとって役立ちますか? 何人でも興味を持っている人は、...
次元性の祝福?!(パート1)
「これらの問題の1つまたは複数について、慎重に選ばれた科学者のグループが夏に一緒に取り組めば、重要な進展が期待できると私たちは考えています」と提案は述べましたジョンはまだ知りませんでしたが...
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.