Learn more about Search Results プロバイダー - Page 5

簡単なアプリの統合に最適な安定した拡散APIのトップ5

イントロダクション APIは人工知能の時代における解決策であり、AIモデルをソフトウェアやアプリケーションに統合する際の高い計算要件を管理する企業にとって重要な課題です。その解決策として、Application Programming Interfaces(API)が存在します。APIはメンテナンスの手間を省き、ビジネスロジックとユーザーエクスペリエンスに集中できるようにしてくれます。つまり、誰でもこれらのAPIを活用してアプリを構築し、商品化できます。本記事では、画像生成に焦点を当てた一連のGenerative AIモデルであるStable Diffusion APIsについて詳しく説明します。 まずは非常に効率的かつ効果的なオプションであるSegmind APIについて見ていきましょう。これらのAPIは、開発者、デザイナー、クリエイターが視覚コンテンツの生成に取り組む方法を革新しました。トップ5のStable Diffusion APIsを探求し、その特徴、使用用途、価格などをハイライトします。 学習目標 Stable Diffusionモデルに関する洞察を得る。 Stable Diffusionモデルの基礎を理解する。それには、その応用も含まれます。 現代のソフトウェア開発におけるAPIの理解。 APIがソフトウェアおよびアプリケーションの開発を簡素化する際に果たす重要な役割の探求。 この記事はData Science Blogathonの一環として公開されました。 Stable Diffusionモデルの理解 Stable…

デジタルツインは現代の物流を革命化しますこうすればどうなるか

「デジタルツインは物理的な世界と仮想的な世界をつなげることで、物流を変革し、効率性を向上させ、無駄を削減し、そして産業をインダストリー5.0に向けて準備しますこの記事でその利点を探ってみてください」

NVIDIAは、Generative AIを用いて薬物探索を加速させるためにGenentechと協力

ジェネンテック(ロシュグループの一員)は、 生成AI を使って新しい治療法を発見し、患者に効果的に治療を提供することを先導しています。 バイオテクノロジーのパイオニアであるジェネンテックとNVIDIAの新たな 共同プロジェクト は、両社の専門家を結集させ、ジェネンテック独自のアルゴリズムを最適化・加速することで、新しい薬の発見と開発を変革しようとするものです。 NVIDIAは、AIスーパーコンピューティングとソフトウェアの専用インスタンスを提供する NVIDIA DGX Cloud 上でこれらのモデルの加速をジェネンテックと共同で進めます。このクラウドはNVIDIAのクラウドサービスプロバイダーパートナーによってホスティングされます。 ジェネンテックは、バイオテクノロジー企業がモデルをスケーリングしてカスタマイズできる環境を提供する NVIDIA BioNeMo を活用する予定です。また、BioNeMoクラウドアプリケーションプログラミングインターフェースを計算薬物発見のワークフローに直接統合します。 BioNeMoは、トレーニングサービスとして一般的に提供されており、計算薬物発見のための生成AIアプリケーションを単純化、加速、スケールする特定のドメイン向けのプラットフォームです。DGX Cloud上で最先端のモデルの学習(事前学習)や微調整が可能となります。 この共同プロジェクトは、ジェネンテックの薬物探索AIモデルの最適化を目指し、「ラボインアループ」フレームワークに焦点を当てます。その目的は、複雑な生物分子のパターンと関係を研究者が理解し、薬物開発を真に革新し、研究開発の成功率を向上させること、そして科学者が患者と医療エコシステム全体に対して線形的または加法的ではなく、乗算的な利益をもたらす能力を与えることです。 ジェネンテックの研究開発部門であるgRED(ジェネンテックリサーチ&アーリーディベロップメント)のエグゼクティブバイスプレジデントであるアビブ・レヴェヴ氏は、「NVIDIAとの共同作業は、他の人々には最初には明らかではなかった方法で技術を発明し、展開する私たちの長い歴史に基づいています」と述べています。「私たちは分子生物学を薬物探索と開発に活用した最初のバイオテクノロジー企業であり、それが世界を変えました。私たちは治療のパラダイムとなった抗体療法を先駆的に開発しました。そして今、私たちはAI、ラボ、クリニックを組み合わせて、膨大なデータの中でアクセスできなかったパターンを明らかにし、そのパターンを試験する実験を設計する能力を持つことができました。NVIDIAとの協力、および生成AIの導入により、世界中の患者の生活を改善するための治療薬の発見と設計を加速する力を持つことができます」と述べています。 計算を通じて薬物探索の効率化を図る 現在の薬物探索および開発プロセスは、時間がかかり、複雑で高コストです。新しい薬剤のターゲットを予測することは困難であり、潜在的な治療薬としての分子を成功裏に開発することも難しいです。AIは、大規模なデータセットでの訓練を通じて、科学者が迅速に潜在的な薬剤の分子と相互作用を特定するのを支援するため、変革的な役割を果たすことができます。 ジェネンテックでは、AIを使用することで、実験室実験と計算アルゴリズムとのギャップを埋めることができます。 同社の研究開発部門であるgREDは、既にAIを使用して、生物学と疾患の構成要素について詳細な知識を得ながら、新しい治療薬を発見・開発するための重要な成果を上げています。 ジェネンテックとNVIDIAのチームは、この時間のかかる薬物探索と開発プロセスを短縮し、成功をもたらすため、ジェネンテックがカスタム開発したモデルを最適化するために共同で作業します。…

「AutoGenを使った戦略的AIチームビルディングが簡単になりました」

イントロダクション デジタルフロンティアが無限の領域に達し、AutoGenは変革的なパラダイムの設計者として現れます。異なる領域でスキルを持つ個々のパーソナルAIチームがシームレスに協力し、円滑にコミュニケーションし、複雑なタスクに取り組み続けることを想像してみてください。それがAutoGenの本質であり、パーソナルAIチームの構築を可能にする先駆的なマルチエージェント対話フレームワークです。本記事では、AutoGenの魔法を解き明かし、独自のデジタルドリームチームを組み立て、非凡な成果を達成する方法を探ります。人間と機械の境界が薄れ、協力が無限になる未来へようこそ。 学習目標 詳細に入る前に、この記事の主な学習目標を概説しましょう。 マルチエージェント対話フレームワークとしてのAutoGenについて包括的な理解を得る。 エージェントがマルチエージェント対話フレームワークで自律的にコミュニケーションし、協力する方法を学ぶ。 AutoGenの動作におけるconfig_listの重要な役割について学ぶ。APIキーの保護とエージェントの効率的なパフォーマンスのための設定の管理に関するベストプラクティスを理解する。 AutoGenがサポートする完全自律から人間が関与する対話までのさまざまな対話スタイルを探索する。AutoGenがサポートする静的および動的な対話パターンについて学ぶ。 検証データ、評価関数、最適化メトリクスに基づいてLLMを調整するためにAutoGenを利用する方法を発見する。 コラボレーションコンテンツ作成チームや文化的な文脈での言語翻訳などの例を探索し、AutoGenがさまざまなシナリオでどのように適用されるかを理解する。 この記事はData Science Blogathonの一部として公開されました。 AutoGenとは何ですか? AutoGenは、基盤モデルの使用のための高度な抽象化として機能する統合マルチエージェント対話フレームワークです。それは、能力のあるカスタマイズ可能なエージェントをLLM、ツール、および人間の参加者が自動化チャット経由で統合することにより、エージェントが自律的にコミュニケーションし、協力して作業することを可能にします。基本的には、複雑なタスクを効率的に進め、ワークフローを自動化することができます。 なぜAutoGenが重要ですか? AutoGenは、効率的かつ柔軟なマルチエージェント通信の需要に応えます。その重要性は次の点にあります: 複雑なLLMワークフローのオーケストレーション、自動化、最適化を簡素化する。 LLMモデルのパフォーマンスを最大化すると同時に、制限を克服する。 次世代のLLMアプリケーションを少ない努力でマルチエージェント対話に基づいて開発することを可能にする。 開発環境のセットアップ 仮想環境の作成 仮想環境はプロジェクト固有の依存関係を分離し、システム全体のパッケージとの競合を避けるための良い習慣です。Python環境を設定する方法は次のとおりです: オプション1:Venv…

「Serverlessを導入するのは難しいですか?」

「チームがサーバーレスを採用すると、さまざまな理由で困難を感じることがしばしばありますこの記事では、一般的な間違いを分析し、指摘します」

ワシントン大学とデューク大学の研究者たちは、Punicaを紹介しました:共有GPUクラスタで複数のLoRAモデルを提供するための人工知能システム

少ないトレーニングデータで特定のドメイン用の事前学習済みの大規模言語モデル(LLM)に特化するために、低ランク適応またはLoRAは人気を集めています。LoRAは、事前学習モデルの重みを保持し、Transformerアーキテクチャの各層に学習可能なランク分解行列を追加することで、学習可能なパラメーターの数を大幅に減らすため、テナントは最小限のコストでさまざまなLoRAモデルをトレーニングできます。 LoRAは現在、広く使用されているファインチューニングフレームワークの一部です。テナントの要求に応えるために、MLプロバイダーは同時に多くの特定のLoRAモデルを提供する必要があります。 LoRAモデルを個別にトレーニングしたかのように提供するだけでは、GPUリソースが無駄になります。 各LoRAモデルにはk GPUが必要である場合、n個の別々のLoRAモデルをサポートするためにk×n GPUが必要とされるでしょう。ただし、これは単純な方法であり、これらのLoRAモデル間の重みの相関性の可能性を無視しています。彼らは、複数の異なるLoRAモデルをサポートする効果的なシステムは、次の3つの設計原則に従う必要があると主張しています。(G1)GPUは高価で供給が少ないため、マルチテナントのLoRAサービングワークロードを少数のGPUに集中させてGPUの使用率を最大化する必要があります。 (G2)バッチ処理は、MLワークロードを組み合わせてパフォーマンスとGPUの使用率を向上させるための最善の方法の1つであることが以前の研究で指摘されています。ただし、要求が同じモデルに対して行われる場合にはバッチ処理のみを行っています。そのため、さまざまなLoRAモデルに対してバッチ処理を許可する必要があります。 (G3)モデルサービングのコストのほとんどは解読ステージに起因します。したがって、彼らはステージのパフォーマンスに集中する必要があります。他のより重要でないモデルサービングの構成要素に対しては、オンデマンドでLoRAモデルの重みを読み込むなど、簡単な方法を使用することができます。これらの3つの基準に基づいて、ワシントン大学とデューク大学の研究者が共有GPUクラスタ上のLoRAモデルのマルチテナントサービングフレームワークであるPunicaを開発しました。 セグメント化されたギャザーマトリックス-ベクトル乗算(SGMV)は、新しいCUDAカーネルの1つであり、複数の異なるLoRAモデルの同時実行によるバッチ処理GPU操作を可能にします。SGMVによって、GPUがメモリと計算の両方でGPUの効率を劇的に向上させるために、事前学習モデルのコピーの数を減らすことができます。この新しいCUDAカーネルとともに、システム最適化のためのいくつかの最先端の手法を組み合わせました。驚くべきことに、同じLoRAモデルをバッチ処理すると、他の異なるLoRAモデルをバッチ処理する場合とほとんどパフォーマンスの違いはありません。SGMVは、複数のLoRAモデルからのバッチリクエストを許可します。同時に、LoRAモデルのオンデマンド読み込みの遅延はわずか数ミリ秒です。 Punicaは、現在GPU上で実行中のLoRAモデルに制限されることなく、ユーザの要求をより少ないGPUグループに集約できるようになりました。 Punicaは、複数のテナントのタスクをアレンジするために次の2つの方法を使用します。 Punicaは、現在使用中の選択した一部のGPUグループに新しいリクエストを直接送信し、それらのGPUを最大限に利用します。 Punicaは、現在のGPUが完全に使用されるまで、さらなるGPUリソースを確保しません。 Punicaは、定期的にアクティブなリクエストを統合するために移動します。これにより、Punicaが割り当てられたGPUリソースを解放できるようになります。彼らは、NVIDIA A100 GPUクラスタでLlama2 7B、13B、および70Bモデルから派生したLoRAモデルを評価します。 Punicaは、トークンあたり2ミリ秒の遅延を追加し、同じGPUリソースで最先端のLLMサービングソリューションよりも12倍高いスループットを提供します。この論文の貢献は次のとおりです: • さまざまなLoRAモデルへのバッチ処理リクエストの潜在能力を認識しました。 • 一度に多くのLoRAモデルを実行するために効果的なCUDAカーネルを作成して実装しました。• LoRA内の多数のテナントからのタスクを組み合わせるための革新的なスケジューリング技術を提供しました。

ラストマイルAIは、AiConfigをリリースしました:オープンソースの構成駆動型、ソースコントロールに対応したAIアプリケーション開発フレームワーク

AIアプリケーション開発の進化する風景の中で、AI Configは、LastMile Ai から登場し、開発者がAIモデルを統合し、管理する方法を根本的に変える画期的なツールとして注目されています。この革新的なアプローチは、従来の予測型機械学習開発からの脱却であり、ソフトウェアエンジニアの間でより協力的な環境を促進します。 AI Configによる開発の革新 AI Configは、アプリケーションコードをモデルのロジックから切り離す画期的な手法を導入しています。この分離により、開発者はアプリケーションコードを絶えず修正することなく、モデルのオーケストレーションの向上に集中することができます。これにより、より効率的で効率的な開発プロセスが実現されます。 AI Configの主な利点 協力的な開発:異なる個人が独立してプロンプト、モデル、およびアプリケーションコードを管理できるようにすることで、関係を切り離すことを促進します。この分割により、より協力的かつ専門的な開発環境が構築されます。 高度なプロトタイピング:AI Configは、LastMile AIワークブックの一部としてプロンプトとモデルを1つのノートブックのようなエディタに統合し、プロトタイピングと反復プロセスを大幅に加速します。 ガバナンスとコントロール:生成モデルの動作を追跡および再現するために重要なソース制御アーティファクトとして機能します。これには、プロンプトチェーンの管理、さまざまなプロバイダーからのモデルの選択、およびモデルパラメータの調整が含まれます。 迅速な反復と展開:開発者は、アプリケーションコードを変更せずにプロンプトの調整やモデルの切り替えなど、複数のモデルオーケストレーションに迅速に反復することができます。これにより、より迅速な展開とより安定したアプリケーションが実現されます。 ユーザーフレンドリーなインターフェース:LastMiles Aiの直感的なユーザーインターフェースにより、複雑なAI統合がさまざまなスキルレベルの開発者にもアクセス可能になり、論理的なシーケンスの作成を簡素化します。 オープンソースと拡張性:オープンソースであるAI Configは、API統合を介してクローズドソースのモデルと、ローカルでの実行のためのオープンソースのモデルの両方をサポートします。 効率的なモデル管理:AI Configでは、複数のAIモデルをシームレスに組み合わせ、プロンプトの内外のパラメータを処理することができます。以前の実行のキャッシュされた出力を直列化することで、迅速な反復と評価をサポートします。 AI開発の新時代 AI…

「『メジャーな第2波』をAIが探知、NVIDIAのCEOがiliadグループ幹部とのファイヤーサイドチャットで語る」というテキストです

新たなAIインフラストラクチャーの世代がスタートアップ企業を大いに後押しする予定だと、NVIDIAの創設者兼CEOであるジェンセン・ホアン氏が金曜日にiliadグループの副CEOオード・デュラン氏との会話の中で述べました。この後押しがまさにタイミングよく行われるのです。 「私たちは現在、大きな第2の波を目の当たりにしています」とホアン氏は、パリで行われたScalewayのai-PULSEカンファレンスでのバーチャル登壇において、1,000人以上のオーディエンスの前で語りました。 ホアン氏は、この力を推進する2つの要素を説明しました。まず、ヨーロッパや各国が主権を持ったAIを構築する必要性の認識があるとホアン氏は述べました。次に、ホアン氏は「AIの採用が異なる産業で行われている」と説明し、生成AIが世界中に広がっていると述べました。 「ですので、私たちは言語におけるブレークスルーがデジタルバイオロジーや製造業、ロボットにおいても見られることを予想しています」とホアン氏は述べ、これによりヨーロッパのデジタルバイオロジーと医療産業において大きな機会が生まれる可能性があると指摘しました。「もちろん、ヨーロッパはいくつかの最大の産業製造会社の本拠地でもあります」とも述べました。 フランスのAIリーダーシップへの賞賛 デュランド氏は、ヨーロッパのAIエコシステム、特にフランスにおけるホアン氏の考えについて尋ねました。フランス政府が数百万ユーロをAIの研究開発に投資しているフランスにおけるAIに関して言及しつつ、「ヨーロッパは常にAIの専門知識に富んでいた」とホアン氏は述べ、NVIDIAがヨーロッパで4,000のスタートアップ企業と協力しており、そのうち400以上がフランスの企業であることを指摘しました。ミストラル、キュビットファーマシューティカルズ、プールサイドAIを挙げ、その例を示しました。 「同時に、計算インフラストラクチャーを正しく進めていく必要があります」とホアン氏は述べました。ホアン氏は「これがScalewayがフランスおよびヨーロッパにおけるAIの発展に非常に重要な理由です」と述べました。 ホアン氏はAIの地域的成長におけるデータの重要性を強調し、企業が地域固有のデータでAIをトレーニングする価値にますます気付いていることに触れました。各地域の独自の文化や産業のニュアンスを反映したAIシステムは、ヨーロッパやその他の地域で注目を集めています。 NVIDIAとScaleway:ヨーロッパのAI革命を牽引する iliadグループの子会社であるScalewayは、ヨーロッパにおける第2の波を立ち上げるためにその役割を果たしており、1,016のNVIDIA H100 Tensor Core GPUを搭載したAIスーパーコンピュータクラスタにアクセスするためのクラウドクレジットを提供しています。 Scalewayは地域のクラウドサービスプロバイダーとして、ヨーロッパのデータ保護法にアクセスとコンプライアンスを確保する主権的なインフラストラクチャーも提供しており、ヨーロッパに拠点を持つ企業にとって重要です。 「NVIDIA Inceptionプログラム」の地域メンバーは、その開発支援を受けることができるだけでなく、「Scalewayマーケットプレイス」で「NVIDIA AI Enterpriseソフトウェア」にもアクセスできるとホアン氏は述べました。 ソフトウェアには、「NVIDIA NeMoフレームワーク」とLLM(Large Language Models)の構築に使用する事前学習モデル、「加速データサイエンス用のNVIDIA RAPIDS」、推論を高速化する「NVIDIA…

広州からロサンゼルスまで、自動車メーカーはAI技術を搭載した車両で驚きと感動を与えています

車好きには朗報です:現在から来週まで開催される2つの著名な自動車ショーが、AIによってパワードされた次世代の自動車デザインの展示で参加者を喜ばせています。 世界中の何十万人もの自動車愛好家が、花の都として知られる中国の広州を訪れることが予想されます。その自動車ショーは、11月26日(日曜日)まで開催されます。このイベントでは、電気自動車(EV)や自動運転の新しい発展が紹介され、1100台の車両が展示されます。 そして世界中で、天使の都であるロサンゼルスでは、今回のショーが史上最多の参加者数に達することが予想されています。11月26日まで開催されるこの展示会では、私設のコレクションからのクラシックでエキゾチックな車両のほか、最新のEVに試乗できる一般公開テストトラックも備えています。 オートグアンジョウ Human Horizons、NEO、ZEEKR 最も期待されているのは、9月に発売された新しいフルエレクトリック車のEmeya Hyper-GTを披露するLotusです。この見事な高級車はスポーツカーの機動性を備え、デュアルのNVIDIA DRIVE Orinプロセッサによってパワードされた印象的な一連のインテリジェントな機能を実現しています。高性能な処理能力により、ドライバーは安全で確実な運転能力を楽しむことができ、オーバーザエア(OTA)のアップデートを通じて将来の機能もサポートします。 安全性を重視して、Emeyaには最新の34個の周囲センサーが搭載され、多様かつ冗長なセンサーデータ処理をリアルタイムで行います。これにより、運転者はハンドルを握る際により一層の自信を持つことができます。Emeyaはバック側にDRIVE Orinが埋め込まれており、高度な運転支援システム(ADAS)の機能を提供し、自律走行の未来をサポートするヘッドルームも提供します。 Emeya Hyper-GTは、Lotusの革新的なElectric Premium Architecture上に構築されており、同じくNVIDIA DRIVE OrinによってパワードされるEletre Hyper-SUVもサポートしています。 さらに、Lotusはエヴィヤハイパーカー、Eletre Hyper-SUV、最近発売された電動自転車であるタイプ136など、Lotusの電動車全体のラインアップも披露しています。また、エミラというLotusの最後の内燃機関車両も展示されています。 NVIDIA DRIVEエコシステムの他のメンバーも、オートグアンジョウで次世代のEVを特集しています: DENZAは、BYDとメルセデス・ベンツの合弁企業である、N7モデルラインアップのインテリジェントドライビング機能を強調しています。すべてのN7モデルにはNVIDIA…

「FP8を用いたPyTorchトレーニング作業の高速化」

過去数年間、AIの分野では革命的な進展が見られており、特に最近のChatGPTなどのLLMベースのアプリケーションの人気と普及を最もよく表していますこれらは...

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us