Learn more about Search Results A - Page 214

GraphReduce グラフを使用した特徴エンジニアリングの抽象化

編集者の注 Wes Madrigalさんは、10月30日から11月2日までODSC Westのスピーカーです彼の講演「大規模特徴エンジニアリングパイプラインにおけるグラフの使用」をぜひチェックして、GraphReduceなどについてもっと学んでください!ML/AIで働く読者にとっては、機械学習モデルはよく知られています...

Amazon SageMakerで@remoteデコレータを使用してFalcon 7Bやその他のLLMを微調整する

今日、生成型AIモデルはテキスト要約、Q&A、画像やビデオの生成など、さまざまなタスクをカバーしています出力の品質を向上させるために、n-短期学習、プロンプトエンジニアリング、検索補完生成(RAG)およびファインチューニングなどの手法が使用されていますファインチューニングにより、これらの生成型AIモデルを調整して、ドメイン固有の改善されたパフォーマンスを達成することができます

「AI規制、キャピトルヒルで初歩的な進展を見せる」

「その会議は、AIの立法に関する忙しい1週間の中で行われました」

Distributed Tracing Best Practices’の日本語訳は以下の通りです: 分散トレーシングのベストプラクティス

分散トレーシングは現代の観測スタックでの定番となっていますマイクロサービスへの移行に伴い、私たちはサービス同士の相互作用を観測する新しい方法が必要でした

「生産性を最大化するための5つの最高のAIツール」

VoAGIは、生産性を最大限に引き上げるためのさまざまな5つのAIツールをレビューしていますぜひご覧いただき、私たちのおすすめをご覧ください

AIにおけるブロックチェーンの包括的なレビュー

AIとブロックチェーンは、近年最も画期的な技術革新として浮上しています人工知能(AI):機械やコンピュータが人間の思考や意思決定プロセスを模倣することを可能にしますブロックチェーン:分散型で変更不可能な台帳で、データや情報を分散化された信頼性の高い方法で安全に保存します最近、科学者たちは潜在的な探求に没頭しています[…]

TripAdvisorホテルレビューでの感情分析とChatGPT

「電子的に捉えられる顧客の感情は、事実を超えた気分、意見、感情を伝える表現であり、非常に大きなビジネス価値を持っています私たちは顧客の声を指しているのですが、それは顧客の声と...」

テルアビブとコペンハーゲン大学からの新しいAI研究は、識別信号を使用して、テキストから画像への拡散モデルを迅速に微調整するための「プラグアンドプレイ」アプローチを紹介しています

テキストから画像への拡散モデルは、入力テキストの説明に基づいて多様で高品質な画像を生成することで印象的な成功を収めています。しかし、入力テキストが語彙的に曖昧であるか、複雑な詳細を含む場合は、課題に直面することがあります。これにより、服の「アイロン」などの意図した画像コンテンツが「元素的な」金属として誤って表現される場合があります。 これらの制約に対処するために、既存の手法では、事前に訓練された分類器を使用してノイズ除去プロセスをガイドすることがあります。1つのアプローチは、拡散モデルのスコア推定値を事前に訓練された分類器の対数確率の勾配とブレンドすることです。簡単に言えば、このアプローチでは、拡散モデルと事前に訓練された分類器の両方の情報を使用して、望ましい結果に一致し、画像が分類器の判断に合致するように生成します。 ただし、この方法には、実際のノイズのあるデータで動作することができる分類器が必要です。 他の戦略では、特定のデータセットを使用してクラスラベルに拡散プロセスを条件付けることがあります。効果的ではありますが、このアプローチは、ウェブ上の画像とテキストのペアの広範なコレクションで訓練されたモデルの完全な表現能力からは程遠いです。 別のアプローチとしては、特定の概念やラベルに関連する少量の画像を使用して拡散モデルまたはその入力トークンの一部を微調整することがあります。ただし、このアプローチには、新しい概念のための遅いトレーニング、画像分布の変化、および少数の画像からの制約された多様性のキャプチャなどの欠点があります。 この記事では、これらの問題に取り組む提案されたアプローチを報告しており、望ましいクラスのより正確な表現、語彙的な曖昧さの解消、および細かい詳細の描写の改善を提供しています。これにより、元の事前訓練済み拡散モデルの表現力を損なうことなく、前述の欠点に直面することなく達成されます。この方法の概要は、以下の図に示されています。 拡散プロセスをガイドしたり、モデル全体を変更する代わりに、このアプローチでは、各関心クラスに対応する単一の追加トークンの表現を更新することに焦点を当てています。重要なことは、この更新はラベル付きの画像でモデルのチューニングを行わないことです。 この方法では、事前に訓練された分類器に基づいて、新しい画像を生成する反復的なプロセスを通じて、特定のターゲットクラスのトークン表現を学習します。分類器からのフィードバックは、各反復で指定されたクラストークンの進化をガイドします。勾配スキップと呼ばれる新しい最適化技術が採用されており、勾配は拡散プロセスの最終ステージを通じてのみ伝播されます。最適化されたトークンは、元の拡散モデルを使用して画像を生成するための条件付きテキスト入力の一部として組み込まれます。 著者によれば、この方法にはいくつかの主要な利点があります。事前に訓練された分類器のみが必要であり、明示的にノイズのあるデータで訓練された分類器を要求しません。また、より時間のかかる方法とは対照的に、クラストークンがトレーニングされるとすぐに生成された画像の改善が可能で、速度に優れています。 研究から選択されたサンプル結果を以下の画像に示します。これらの事例研究は、提案された手法と最先端の手法の比較的な概要を提供します。 これは、事前にトレーニングされた分類器を利用してテキストから画像への拡散モデルを微調整する、新しいAI非侵襲技術の要約でした。興味があり、さらに詳しく知りたい場合は、以下に引用されたリンクをご参照ください。

アリババグループによるこの論文では、FederatedScope-LLMという包括的なパッケージが紹介されていますこれは、フェデレーテッドラーニングでLLMを微調整するためのものです

今日、Hugging Faceのようなプラットフォームは、AI研究者から機械学習の経験が限られている人まで、さまざまなエンティティのために事前学習された大規模言語モデル(LLM)にアクセスし、活用することを容易にしました。似たようなタスクに取り組む複数の組織やエンティティが、プライバシー規制により直接ローカルデータを交換できない場合、フェデレーテッドラーニング(FL)は、これらのエンティティからの集合データを利用するための優れた解決策として浮上します。FLはまた、強力なプライバシー保護を提供し、モデルのアイデアを安全に保ち、異なる方法を使用してカスタマイズされたモデルを作成することができます。 この研究では、データセットの前処理、フェデレーテッドファインチューニングの実行またはシミュレーション、およびフェデレーテッド大規模言語モデル(LLM)のファインチューニングのコンテキストでのパフォーマンス評価など、包括的なエンドツーエンドのベンチマーキングパイプラインを確立し、さまざまな能力デモンストレーションの目的のために設計されています。 上記の画像はFS-LLMのアーキテクチャを示しており、LLMBENCHMARKS、LLM-ALGZOO、LLM-TRAINERの3つの主要モジュールで構成されています。チームは、フェデレーテッドパラメータ効率の高いファインチューニング(PEFT)アルゴリズムの堅牢な実装と、将来の拡張を容易にする多目的プログラミングインターフェースを開発しました。これにより、クローズドソースLLMを扱う場合でも、最小限の通信および計算オーバーヘッドでLLMを効果的にフェデレーテッドラーニング(FL)シナリオで動作させることができます。 詳しいチュートリアルは彼らのウェブサイトで提供されています:federatedscope.io FederatedScopeはFederatedScope PlaygroundまたはGoogle Colabを介してお試しください。 彼らのアプローチは、リソース制約下でLLMのファインチューニングを行うための加速技術とリソース効率の高い戦略を組み込んでおり、LLMを個別化されたフェデレーテッドラーニング設定での応用などの異分野研究のための柔軟なプラグイン可能なサブルーチンも提供しています。 この研究では、最新のパラメータ効率の高いファインチューニングアルゴリズムを使って、フェデレーテッドコンテキスト内でのFS-LLMの効果を検証し、高度なLLMのベンチマークを確立しています。これらの実験結果から得られた知見に基づき、FLおよびLLMコミュニティの将来の研究方向についていくつかの有望な方向性を示しています。

「GPT-4と説明可能なAI(XAI)によるAIの未来の解明」

はじめに 常に進化し続ける人工知能(AI)の世界で、GPT-4は人間のようなテキスト生成の驚異です。それはまるで自分の言語を話す機械と対話しているかのようです。しかし、AIは華やかな言葉以上のものが必要です。私たちはそれがどのように考えているのかを理解し、信頼できるかどうかを判断する必要があります。それが説明可能なAI(XAI)が登場する理由です。この記事では、GPT-4と説明可能なAI(XAI)が進化するAIの未来と、そのギャップを埋める方法について理解することができます。 学習目標 GPT-4を理解する:GPT-4の概要、機能、AIにおいてなぜ重要なのかを学びます。 説明可能なAI(XAI)を見つける:XAIの意味、重要性、およびAIの透明性を向上させる方法について探求します。 XAIの動作を探索する:入力データからユーザーインターフェースまで、XAIがどのように機能するかについての洞察を得ます。 実生活の例を見る:GPT-4がXAIを使用する場合としない場合で、日常生活にどのような影響を与えるかを理解します。 統合方法を学ぶ:コード例を使用して、GPT-4とXAIの統合方法を探索します。 ユースケースを特定する:医療、法律、金融の分野での実用的な応用を探索します。 この記事は、データサイエンスブログマラソンの一環として公開されました。 GPT-4の理解 出典 – shift delete.Net XAIに入る前に、GPT-4の本質を把握しましょう。”Generative Pre-trained Transformer 4″はOpenAIの言語モデルシリーズの最新のバージョンです。それは凝縮された文脈に即したテキストを生成する能力で有名です。GPT-4の進歩には、より大きなトレーニングデータセット、より多くのパラメータ、改良された微調整能力が含まれています。これらの特性により、コンテンツ生成からチャットボットまで、さまざまなアプリケーションで強力な存在となっています。 説明可能なAI(XAI)の必要性 説明可能なAIとは何ですか? 説明可能なAI(XAI)は、AIシステムをより透明で理解しやすくする方法です。これにより、AIがなぜ特定の決定を下すのかを知ることができ、医療や金融などの重要なアプリケーションでAIを信頼して利用することが容易になります。 出典 –…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us