Learn more about Search Results A - Page 209

「Amazon SageMakerを使用して、Rayベースの機械学習ワークフローをオーケストレーションする」

機械学習(ML)は、お客様がより困難な問題を解決しようとするにつれて、ますます複雑になっていますこの複雑さはしばしば、複数のマシンを使用して単一のモデルをトレーニングする必要性を引き起こしますこれにより、複数のノード間でタスクを並列化することが可能になり、トレーニング時間の短縮、スケーラビリティの向上、[…] などがもたらされます

「Adam Ross Nelsonによる自信のあるデータサイエンスについて」

データサイエンスの中で新たな分野が現れ、研究内容が理解しにくい場合は、専門家や先駆者と話すのが最善です最近、私たちはデータサイエンスのキャリアコーチであり、「データサイエンティストになる方法」と「自信を持って...」の著者であるアダム・ロス・ネルソン氏と話しました

RayはNVIDIA AIとの協業により、開発者が製品向けのLLMを構築、調整、トレーニング、スケールアップするのを支援します

大規模言語モデルの開発は、NVIDIAとAnyscaleのコラボレーションにより、超音速の速さに達する予定です。 Anyscaleは、急速に成長しているスケーラブルなコンピューティングのためのオープンソースの統一コンピュートフレームワークを開発している会社であり、そのAnyscaleプラットフォームとRayオープンソースにNVIDIA AIを組み込むことを発表しました。また、新たに発表されたAnyscaleエンドポイントにも統合され、最も人気のあるオープンソースモデルを使用してアプリケーション開発者がLLMを容易に埋め込むことができるようになります。 これらの統合により、Code Llama、Falcon、Llama 2、SDXLなどのプライプライエタリなLLMからオープンモデルまで、生成型AIの開発と効率が大幅に向上し、生産型AIのセキュリティも強化されます。 開発者は、RayとオープンソースのNVIDIAソフトウェアをデプロイする柔軟性があります。または、Anyscaleプラットフォームで実行されるNVIDIA AI Enterpriseソフトウェアを選択して、完全にサポートされたセキュアな本番環境にデプロイすることもできます。 RayとAnyscaleプラットフォームは、知的なチャットボット、コーディングコパイロット、強力な検索および要約ツールを駆動する生成型AIアプリケーションを構築する開発者に広く使用されています。 NVIDIAとAnyscaleがスピード、コスト削減、効率を提供 生成型AIアプリケーションは、世界中の企業の注目を集めています。LLMの微調整、拡張、実行には、莫大な投資と専門知識が必要です。NVIDIAとAnyscaleは、さまざまなアプリケーションの統合により、生成型AIの開発と展開のコストと複雑さを低減するお手伝いができます。 先週発表された新しいオープンソースソフトウェア、NVIDIA TensorRT-LLMは、Anyscaleの提供をサポートし、LLMのパフォーマンスと効率を向上させ、コスト削減を実現します。NVIDIA AI Enterpriseソフトウェアプラットフォームでもサポートされていて、Tensor-RT LLMはNVIDIA H100 Tensor Core GPUで実行する場合、前世代のGPUに比べて最大8倍の高性能を提供する、複数のGPU上でモデルを並列に実行する自動スケーリングを実装しています。 TensorRT-LLMは、さまざまな人気のあるLLMモデルに対して、カスタムGPUカーネルと最適化を含み、NVIDIA H100 Tensor…

「AIがITサービス管理を変革する方法」

「ITサービスマネジメント(ITSM)は、現代のビジネスにおける舞台裏のヒーローですネットワーク管理からソフトウェアの更新まで、すべてのITサービスが円滑に運営されるようにする、まるで絶妙に組み立てられた機械のような存在ですITサービスをビジネス目標に合わせ、最適なサービスを提供しながら、コストとリソースをバランスさせることを目指していますこれまでの伝統的な方法では、人間が関与していました...」

「ジェネレーティブAI(2024)の10の重要ポイント」

「2023年、生成AIの世界に飛び込み、その応用、影響、そして将来の課題についての洞察を得ましょう」

顧客サービス向けAI | トップ10のユースケース

どんな企業でも、顧客の問い合わせは絶え間ないものです。さまざまな問題の発生や製品に関する理解を深めるために、企業は常に応答時間を短縮し、解決プロセスを迅速化しようと努めています。このような状況で効率的なシステムは、従来の人間のシステムと比較して生成型AIベースのシステムです。生成型AIは、従来のAIシステムと比較して新しいデータを生成する能力を持っています。大規模言語モデル(LLM)および深層学習技術を利用して、自然言語の会話応答を解釈します。より高度な改良と研究が進行中であり、複雑な問い合わせを簡単に理解できるようにするため、現在のチャットボットベースの顧客の問い合わせの一部が可視化されています。 顧客サービスに生成型AIを使用する利点 改善された応答時間:生成型AIの導入により、顧客の待ち時間が短縮され、迅速な応答が提供され、問題が即座に解決されることを目指しています。 拡張性と24/7の利用可能性:複数の人員を雇う煩雑なプロセスを排除し、AIを使用したスケーラブルな運用は最小限の労力とコストで行うことができ、持続可能なスケーラブルなオプションです。時間制約もなくなります。営業時間や従業員の存在に関係なくサポートを提供します。 強化された個別化:迅速な提供と常時利用可能性により、顧客体験がさらに向上します。ほとんどの場合、人間に比べて顧客の声が効率的に対応されます。 一貫した応答:AIが生成した応答により、顧客は解決策に一貫性と正確性を得ることができます。統一されたトーンと情報の出力を維持することができます。 出典:Hubspot 生成型AIツールについてすべて知り、それらをどのように使用し、日常の業務にどのように役立てるかなどを知るために、独占的な生成型AIプログラムに登録してください! 顧客サービスにどの生成型AIを使用するか? 一般的な顧客サービスと人工知能(AI)を利用した顧客サービスは、各企業ごとに異なります。技術的な専門知識、使用事例、予算などの要素が重要な決定要因です。段階的なアクションは、異なる生成型AIモデルに自己紹介し、必要に応じた適切なモデルを選択することです。 異なる生成型AIモデル 言語モデル(例:GPT-3) これは、人間のテキストを生成するための事前トレーニングが施された以前のバージョンです。GPT-3は、複数のアプリケーションに対して微調整が可能な多目的なAIです。顧客サービスでは、一般的な問い合わせに対する回答、テキストの生成、情報提供に適しています。言語モデルはAPIを介して簡単に利用でき、複数の言語をサポートしています。ただし、特定の顧客サービスタスクのための微調整には、一定の重要なデータと専門知識が必要な場合があります。 チャットボットと仮想アシスタント これらは、エンドツーエンドの対話型顧客インタラクションを目的として特別に設計されています。ルールまたは自然言語処理モデルによって駆動されることがあります。チャットボットと仮想アシスタントは、ルーチンの問い合わせを処理し、顧客インタラクションを自動化し、即座の応答を提供するために使用されます。ブランドのトーンとスタイルに合わせてカスタマイズすることができます。このタイプの生成型AIはリアルタイムの顧客サポートを提供し、大量の問い合わせを処理し、メッセージングプラットフォームと統合されています。ただし、複雑な問い合わせに対応することが困難な場合があります。 カスタマイズされた生成型モデル カスタマイズとは、企業固有の顧客サービスタスクのためにAIモデルをトレーニングすることを指します。カスタマイズは既存のフレームワークに依存する場合もありますし、ゼロから始める場合もあります。AIカスタマーケアの適用は、独自の顧客サービス要件がある場合に行われます。企業内のトレーニングにより柔軟性と制御性が提供されるため、これらの生成型AIは特殊なタスクを処理するようにカスタマイズされています。その作成には技術的な専門知識が必要であり、時間とお金の投資が必要です。 顧客サービスのニーズに適したモデルの選択 上記のタイプは、企業の異なる要求を示しています。したがって、適切なモデルの選択も主観的です。以下のステップを分析することで、論理的な意思決定を行うのに役立ちます: 処理する必要がある問い合わせのタイプや特定のタスクなど、要件を理解する 利用可能な資本、リソース、技術的な専門知識の存在を把握する 利用可能なデータとそれが異なるモデルに適しているかを確認する 成長の期待に応じてスケーラビリティを考慮する 生成型モデルがテストと評価パラメーターに適合しているかを確認する…

「正規化フローの創造的潜在能力と生成AI」

イントロダクション Generative AIは、現実世界の例に非常に似たデータを作成する驚異的な能力を持ち、近年注目を集めています。GANやVAEなどのモデルが脚光を浴びていますが、生成AIの中であまり知られていない「正規化フロー」というジェムが静かに生成モデリングの風景を変えています。 この記事では、正規化フローについて探求し、その特徴や応用を探り、内部の仕組みを解明するためのPythonの手を動かす例を提供します。この記事では以下のことを学びます。 正規化フローの基本的な理解 正規化フローの応用(密度推定、データ生成、変分推論、データ拡張など) 正規化フローを理解するためのPythonコードの例 アフィン変換クラスの理解 この記事は、データサイエンスのブログマラソンの一部として公開されました。 正規化フローの解明 正規化フロー(Normalizing Flows)は、複雑な確率分布からのサンプリングの課題に取り組む生成モデルです。これらは確率論の変数変換の概念に基づいています。基本的なアイデアは、ガウス分布などの単純な確率分布から始め、逐次的に逆変換可能な変換を適用してそれを望ましい複雑な分布に変換することです。 正規化フローの特徴的な特徴は、逆変換可能性です。データに適用されるすべての変換は逆になるため、サンプリングと密度推定の両方が可能です。この特性により、他の多くの生成モデルとは異なる存在となっています。 正規化フローの構造 ベース分布: サンプリングが始まる単純な確率分布(例:ガウス分布)。 変換: 逐次的にベース分布を変更する双射(逆変換可能)の変換。 逆変換: 各変換には逆変換があり、データ生成と尤度推定が可能です。 最終的な複雑な分布: 変換の合成により、目標のデータ分布に近い複雑な分布が得られます。 正規化フローの応用 密度推定:…

「タンパク質設計の次は何か?マイクロソフトの研究者がエボディフ:シーケンスファーストのタンパク質エンジニアリングのための画期的なAIフレームワークを紹介」

ディープ生成モデルは、新規タンパク質のインシリコ創造において、ますます有効なツールとなっています。拡散モデルは、最近の研究で、自然界で見られる実際のタンパク質とは異なる生理学的に妥当なタンパク質を生成することが示された生成モデルの一種であり、デノボタンパク質設計において比類のない能力と制御を可能にします。ただし、現在の最先端のモデルはタンパク質構造を構築するため、トレーニングデータの幅を制限し、生成をタンパク質設計空間のごく一部で行うことに制約を受けます。マイクロソフトの研究者は、進化的スケールのデータと拡散モデルの独自の条件付け能力を組み合わせることで、チューナブルなタンパク質生成をシーケンス空間で実現する汎用の拡散フレームワークであるEvoDiffを開発しました。EvoDiffは、構造的に妥当なタンパク質を多様に作り出し、可能なシーケンスと機能の全範囲をカバーすることができます。シーケンスベースの定式化の普遍性は、EvoDiffが構造ベースのモデルではアクセスできないタンパク質を構築できること、例えば無秩序なセクションを持つタンパク質や有用な構造モチーフのためのスキャフォールドを設計できることによって示されています。彼らは、EvoDiffがタンパク質工学におけるプログラマブルなシーケンスファースト設計の道を切り拓くことを期待しています。 EvoDiffは、進化的スケールのデータセットと拡散モデルを組み合わせて、シーケンスデータだけからプログラマブルなタンパク質生成のための革新的な生成モデリングシステムです。彼らは、前方プロセスがタンパク質の配列を繰り返し変更することによってタンパク質の配列を逐次的に破損させる離散的な拡散フレームワークを使用し、ニューラルネットワークによってパラメータ化された学習済みの逆プロセスが各反復で行われた変更を予測することで、タンパク質をトークンのシーケンスとしてフレーム化しているアミノ酸言語上の離散的なトークンのシーケンス。 プロテインのシーケンスは、逆メソッドを使用してゼロから作成することができます。タンパク質構造設計に従来使用されてきた連続的な拡散定式化と比較して、EvoDiffで使用されている離散的な拡散定式化は、数学的に重要な改善として際立っています。複数の配列アラインメント(MSA)は、関連するタンパク質群のアミノ酸配列の変異の保存パターンを示し、単一のタンパク質配列の進化的なリンクを捉えることができます。この進化的な情報のさらなる深さを活用するために、彼らはMSAでトレーニングされた離散的な拡散モデルを構築し、新しい単線を生成します。 チューナブルなタンパク質設計の有効性を示すために、研究者は、さまざまな世代活動のスペクトルでシーケンスとMSAモデル(それぞれEvoDiff-SeqとEvoDiff-MSA)を調査します。彼らは、EvoDiff-Seqが自然界のタンパク質の組成と機能を正確に反映した高品質で多様なタンパク質を信頼性良く生成することを示します。EvoDiff-MSAは、類似したがユニークな進化の歴史を持つタンパク質をアラインメントすることにより、新しい配列のガイド付き開発を可能にします。最後に、EvoDiffは、構造ベースの生成モデルの主要な制約を直接克服することができるIDRを持つタンパク質を信頼性良く生成し、拡散ベースのモデリングフレームワークの条件付け能力と普遍的な設計空間に基づいて、明示的な構造情報なしで機能的な構造モチーフのスキャフォールドを生成することができます。 シーケンス制約に基づいて調整可能な多様な新しいタンパク質を生成するために、研究者はEvoDiffという拡散モデリングフレームワークを提案しています。構造ベースのタンパク質設計のパラダイムに挑戦することにより、EvoDiffは、シーケンスデータから本質的に無秩序な領域を生成し、スキャフォールド構造モチーフを生成することで、構造的に妥当なタンパク質の多様性を無条件にサンプリングすることができます。タンパク質の配列進化において、EvoDiffは拡散生成モデリングの有効性を示す最初のディープラーニングフレームワークです。 作成されたシーケンスが望ましい特性を満たすように反復的に調整されるガイド付きの条件付けは、将来の研究でこれらの機能に追加することができます。EvoDiff-D3PMフレームワークは、各デコーディングステップでシーケンスの各残基のアイデンティティを編集することができるため、ガイダンスによる条件付けが働くために適しています。ただし、研究者は、OADMが一般的にD3PMよりも無条件の生成で優れたパフォーマンスを発揮することを観察しており、おそらくOADMのノイズ除去タスクの方がD3PMよりも学習しやすいためです。残念ながら、既存の条件付きLRARモデルであるProGen(54)などのOADMや他の既存の条件付きLRARモデルによって、ガイダンスの有効性が低下することが観察されています。EvoDiff-D3PMを機能目標で条件付けることによって、新しいタンパク質の配列が生成されることが期待されています。 EvoDiffのデータ要件の最小限は、構造ベースのアプローチでは可能ではなかった、将来の応用に容易に適応できることを意味します。研究者は、EvoDiffが微調整なしでIDRを含んだインペインティングを通じて生成できることを示し、構造ベースの予測モデルや生成モデルの古典的な落とし穴を回避することができます。大規模なシーケンスデータセットの構造を取得する高コストは、ディスプレイライブラリや大規模スクリーンなどのアプリケーション固有のデータセットでEvoDiffを微調整することで解放されるかもしれない、新しい生物学的、医学的、または科学的な設計オプションの使用を妨げる可能性があります。AlphaFoldなどの関連するアルゴリズムは、多くの配列に対して構造を予測することができますが、ポイント変異には苦労し、見かけのタンパク質の構造を示す際に過信することがあります。 研究者たちは、プロテインの機能をより細かく制御するために、EvoDiffはテキスト、化学情報、または他のモダリティに基づいて条件付けることができます。将来的には、このチューナブルなプロテイン配列設計の概念は、さまざまな方法で活用されるでしょう。例えば、条件付きで設計された転写因子やエンドヌクレアーゼを使用して、核酸をプログラム的に調節することができます。生物学的製剤は、in vivoでの配送とトラフィックへの最適化が可能になります。また、酵素-基質の特異性のゼロショットチューニングは、新たな触媒の可能性を開くことができます。 データセット Uniref50は、研究者によって使用される約4200万のプロテイン配列を含むデータセットです。MSAはOpenFoldデータセットから取得されており、16,000,000のUniClust30クラスタと401,381のMSAで140,000の異なるPDB鎖をカバーしています。IDR(intrinsically disordered regions)に関する情報は、Reverse Homology GitHubから取得されました。 研究者は、スキャフォールディング構造モチーフの課題に対してRFDiffusionベースラインを使用しています。examples/scaffolding-pdbsフォルダには、条件付きでシーケンスを生成するために使用できるpdbファイルとfastaファイルがあります。examples/scaffolding-msasフォルダには、特定の条件に基づいてMSAを作成するために使用できるpdbファイルも含まれています。 現在のモデル 研究者は、離散データモダリティ上の拡散のための最も効率的な前方技術を決定するために、両方を調査しました。オーダーに関係なく自己回帰分布(OADM)の各ステップで1つのアミノ酸は一意のマスクトークンに変換されます。全体のシーケンスは、一定のステージ後に非表示になります。離散ノイズ除去拡散確率モデル(D3PM)も、特にプロテイン配列向けにグループによって開発されました。EvoDiff-D3PMの前方フェーズでは、行は遷移行列に従って突然変異をサンプリングすることで破損させられます。これは数ステップ後に均一なアミノ酸のサンプルと区別できなくなるまで続きます。いずれの場合も、回復フェーズではダメージを元に戻すためにニューラルネットワークモデルの再学習が行われます。EvoDiff-OADMおよびEvoDiff-D3PMでは、訓練されたモデルはマスクトークンのシーケンスまたは均一にサンプリングされたアミノ酸のシーケンスから新しいシーケンスを生成することができます。CARPプロテインマスク言語モデルで最初に見られた拡張された畳み込みニューラルネットワークアーキテクチャを使用して、彼らはUniRef50からの4200万シーケンスですべてのEvoDiffシーケンスモデルを訓練しました。各前方破損スキームとLRARデコーディングについて、38Mと640Mの訓練パラメータを持つバージョンを開発しました。 主な特徴 進化的なスケールのデータを拡散モデルに組み込むことで、管理可能なプロテイン配列を生成することができます。 EvoDiffは、構造的に妥当な多様なプロテインを生成し、可能なシーケンスと機能の全範囲をカバーします。 構造ベースのモデルではアクセスできない無秩序なセクションやその他の特徴を持つプロテインを生成するだけでなく、EvoDiffは機能的な構造モチーフのためのスキャフォールドも作成することができます。これにより、シーケンスベースの定式化の一般的な適用性が証明されます。 結論として、Microsoftの科学者たちは、シーケンスベースのプロテインエンジニアリングとデザインを行う際に基礎となる一連の離散拡散モデルをリリースしました。EvoDiffモデルは、構造や機能に基づいたガイド付きデザインのために拡張することが可能であり、無条件、進化によるガイド、および条件付きでプロテイン配列を作成するために直ちに使用することができます。彼らは、プロテインの言語で直接読み書きすることによって、EvoDiffがプログラマブルなプロテイン生成の新たな可能性を開くことを期待しています。

大規模言語モデルは安全性を自己評価できるのか?RAINに会ってください:ファインチューニングなしでAIのアライメントと防御を変革する革新的な推論方法

事前学習済み大規模言語モデル(LLM)であるGPT-3などは、人間の質問に対する理解力や返答能力に非凡な才能を持っており、コーディングの手伝いなどにも役立っています。しかし、彼らはしばしば人々が好む結果とは異なる結果を生成します。過去に、研究者たちは人間の好みに関する情報を収集し、強化学習や指示調整を用いて以前に訓練されたモデルを整列させることで、この問題を解決しようと試みてきました。これには微調整段階が必要です。追加のデータは必要ありませんが、追加のトレーニングを受けていない凍結されたLLMを整列させる方が魅力的です。 最近、研究チームは、整列していないLLMが自己評価および巻き戻し機構を含む自己改善プロセスによって直接人間の好みに合った返答を生成できることを発見しました。AIの安全性を考慮して、彼らはRewindable Auto-regressive INference(RAIN)を導入しました。これは、事前学習済みLLMが自身が生成したテキストを評価し、評価結果を逆巻き戻しと前方生成に利用する独自の推論技術です。 RAINは、モデルの整列に追加のデータを必要としません。パラメータの更新、勾配の計算、トレーニングは必要ありません。固定テンプレートのプロンプトを介して自己評価フェーズでどの人間の好みに整列するかの指示をモデルが受け取りますので、初期クエリを繰り返し調整する必要はありません。 GPT-4モデルと人間の評価者によって評価された実験結果は、RAINの成功を示しています。たとえば、HHデータセットを使用すると、RAINはLLaMA 30Bの無害率をバニラ推論と比較して82%から97%に劇的に向上させながら、有用性率を一定に保ちます。チームはRAINがLLM-ATTACKSに対する攻撃の成功率を94%から19%に下げることで、防御の新たな基準を確立したと共有しています。 RAINは、現在使用されている大規模言語モデル(LLM)の整列方法に比べていくつかの利点を提供します: 普遍性:RAINのアプローチは柔軟で、さまざまな言語生成の仕事に使用することができます。これは多くのLLMにとって標準的な自己回帰推論パラダイムに完全に適合しています。これにより、RAINは高度にカスタマイズ可能で使いやすく、ほとんどの現行のLLMに迅速に統合することができます。 凍結された重みとの整列:RAINはRLHFなどの他の整列戦略とは異なり、追加のモデルの維持や勾配データおよび計算ネットワークの保存は必要ありません。これによって生じる最小のメモリオーバーヘッドは、単純な自己回帰推論と同等です。RAINは、シンプルな実装とメモリ効率の良い設計のため、凍結された重みを持つLLMを整列させるための現実的な選択肢です。これにより、リソースを消費する微調整手順が除外されます。 学習不要:RAINは、ラベル付きまたは未ラベル化のデータや人間の注釈に頼る必要はありません。学習不要の方法で動作するため、多くの情報やトレーニングは必要ありません。RAINは、さまざまなタスクで整列性能を大幅に向上させ、LLMを敵対的なプロンプト攻撃に対してより耐性のあるものにします。よく知られた敵対的な攻撃手法に対して評価された場合、RAINは攻撃の成功率を大幅に低下させるため、その防御能力を示しています。 まとめると、この研究では、追加情報や手間のかかる微調整の必要なく、LLMを人間の好みに合わせて調整するためのRAINという技術が導入されました。これは、LLMが自己の出力を評価し改善できるようにすることによって達成されます。結果として、より調和のとれた安全なAI生成の応答が生まれます。

Seabornを使用してパンチカードプロットを作成する

パンチカードプロット、またはテーブルバブルチャートとも呼ばれるものは、データの周期的な傾向を強調するための視覚化の一種です通常、日付などの日単位で構成された剛性のある行列またはグリッド形式でデータを表示します

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us