Learn more about Search Results Azure
- You may be interested
- 「データパイプラインにおけるデータ契約...
- 環境データサイエンス:イントロダクション
- 「LeNetのマスタリング:アーキテクチャの...
- 「Java ZGCアルゴリズムのチューニング」
- 元Google CEO、現在のAIガードレールは十...
- 埋め込みとベクトルデータベース 実践的な...
- 「LangChainとOpenAI GPTを使用して初めて...
- 「DynamoDB vs Cassandra:あなたのビジネ...
- コーディングなしで独自のLLMをトレーニン...
- インターンを募集しています!
- 「大規模な言語モデルとベクトルデータベ...
- 「ナレ・ヴァンダニャン、Ntropyの共同創...
- 「Matplotlibのマスタリング:データ可視...
- 「2023年の最高のAI文法チェッカーツール」
- Google AIは、スケールで事前に訓練された...
「マイクロソフト、Azureカスタムチップを発表:クラウドコンピューティングとAI能力を革新する」
産業の持続的な噂の中で、Microsoftの長らく待ち望まれていた発表がイグナイトカンファレンスで明らかになり、テックランドスケープにおける重要な瞬間を迎えました。このテックジャイアントは、ハードウェアとソフトウェア領域全般におけるイノベーションと自己完結性へのコミットメントを体現する、独自に設計されたチップを正式に発表しました。 この発表の中核をなすのは、Microsoft Azure Maia 100 AIアクセラレータとMicrosoft Azure Cobalt CPUの2つの画期的なチップです。Maia 100はMaiaアクセラレータシリーズの一部で、5nmプロセスと1,050億個のトランジスタを備えています。このパワーハウスは、複雑なAIタスクと生成的なAI操作を実行するために特別に設計され、Azureの最も重いAIワークロード、大規模なOpenAIモデルの実行を支えることが使命です。 Maia 100には、128コアのArmベースアーキテクチャを備えたAzure Cobalt 100 CPUが補完されています。この64ビット構造が特筆すべきであり、このプロセッサは、40%少ない電力でARMベースの競合製品よりも一般的なコンピューティング操作を提供するよう設計されています。 自己完結性の包括的なビジョンを強調しつつ、Microsoftはこれらのチップを、チップやソフトウェアからサーバー、ラック、冷却システムまでのすべての側面を管理する野心の最後のピースとして位置付けました。来年初めにMicrosoftのデータセンターに導入される予定のこれらのチップは、最初にCopilot AIとAzure OpenAIサービスを駆動し、クラウドとAIの機能の限界を em 続きを読む。 マイクロソフトの戦略は、チップ設計を超えた包括的なハードウェアエコシステムまで及んでいます。これらのカスタムチップは、マイクロソフトとそのパートナーが共同開発したソフトウェアを利用して、特別に設計されたサーバーマザーボードとラックに統合されます。目標は、パワーエフィシエンシー、性能、コスト効率を最適化する高度に適応可能なAzureハードウェアシステムを作ることです。 このチップの発表と同時に、MicrosoftはAzure Boostを導入しました。これは、ストレージとネットワーキング機能をホストサーバーから専用のハードウェアにオフロードすることで、操作を迅速化するためのシステムです。この戦略的な動きは、Azureのインフラ内での速度と効率を強化することを目的としています。 カスタムチップに加えて、MicrosoftはAzureの顧客にインフラストラクチャオプションを多様化するためのパートナーシップを築きました。さらに、テックジャイアントは、VoAGIサイズのAIトレーニングと生成的なAI推論タスクに対応するNvidia…
「マイクロソフトのAzure AIモデルカタログが革新的な人工知能モデルで拡大」
“`html <img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/11/ignite_models_2.gif”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/11/ignite_models_2-150×150.gif”/><p>Microsoftは、Azure AIモデルカタログの大規模な拡張を発表しました。これには多様で革新的な技術が統合されることで、人工知能の分野で大きな進歩が実現されることになります。</p><h3>AIカタログへの多様な追加</h3><p>Azure AIモデルカタログには、新たに40のモデルが追加され、テキストから画像や画像エンベッディングの機能といった4つの新たなモダリティが導入されました。主な追加は以下のとおりです:</p><ol><li><strong>Stable Diffusion Models</strong>:Stability AIおよびCompVisによって開発されたこれらのモデルは、テキストから画像への変換やインペイントのタスクで優れたパフォーマンスを発揮し、クリエイティブなコンテンツ生成において堅牢かつ一貫した出力を提供します。</li><li><strong>Falcon Models from TII</strong>:7および40兆のパラメータを備えたFalconモデルは、推論処理に最適化されており、多くのオープンソースモデルを凌駕します。</li><li><strong>Code Llama from Meta</strong>:7から34兆のパラメータを備えた、コーディングタスクを支援するための生成テキストモデルの範囲です。</li><li><strong>NVIDIA Nemotron</strong>:NVIDIAが提供する80億のパラメータを持つこのモデルは、チャットやQ&Aなどさまざまな機能を備えており、NVIDIA NeMo Frameworkと互換性があります。</li><li><strong>SAM(Segment Anything Model)from Meta</strong>:単純な入力プロンプトから高品質なオブジェクトマスクを作成することができる画像セグメンテーションツールです。</li></ol><h3>モデルのサービス(MaaS)</h3><p>Microsoftは戦略的な動きとして、Models as…
「新しいNVIDIA H100、H200 Tensor Core GPUインスタンスがMicrosoft Azureに導入され、AIワークロードを高速化します」
ナビディアは、最新のAIインフラストラクチャーを構築するためにマイクロソフトとの協力を続けています。マイクロソフトは、要求の厳しいAIワークロードを加速するために、Microsoft Azureに追加のH100ベースの仮想マシンを導入しています。 本日のシアトルで開催されたIgniteカンファレンスで、マイクロソフトは、Azure向けの新しいNC H100 v5 VMシリーズを発表しました。これは、業界初のNVIDIA H100 NVL GPU搭載のクラウドインスタンスです。 このオファリングは、NVIDIA NVLinkを介して接続された2枚のPCIeベースのH100 GPUを組み合わせ、AIコンピュートのほぼ4ペタフロップと188GBの高速HBM3メモリを提供します。NVIDIA H100 NVL GPUは、前世代よりもGPT-3 175Bで最大12倍のパフォーマンスを発揮し、推論およびメインストリームトレーニングワークロードに最適です。 さらに、マイクロソフトは、来年にAzureフリートにNVIDIA H200 Tensor Core GPUを追加する計画を発表しました。これにより、大規模なモデルの推論に遅延を増やさずに対応することが可能となります。この新しいオファリングは、LLMsや生成AIモデルなど、最大のAIワークロードを加速するために特別に設計されています。 H200 GPUは、最新世代のHBM3eメモリを使用し、メモリ容量と帯域幅の両方で劇的な向上を実現しています。H100と比較して、この新しいGPUはHBM3eメモリを141GB提供し(1.8倍増加)、ピークメモリ帯域幅は4.8TB/s(1.4倍増加)です。 クラウドコンピューティングが機密化される…
「速さの中で:NVIDIAがオムニバースクラウドサービスをMicrosoft Azure上で発表し、自動車のデジタル化を加速する」
自動車会社は、製品ライフサイクルのあらゆる段階で変革を遂げています。物理的で手動的なプロセスを、ソフトウェア駆動型でAIを活用したデジタルシステムに進化させています。 NVIDIAは、コストの削減とリードタイムの短縮を支援するために、Omniverse Cloudに新たな2つのシミュレーションエンジンを発表しています。それらは、仮想工場シミュレーションエンジンと自動運転車(AV)シミュレーションエンジンです。 Omniverse Cloudは、産業デジタル化のためのアプリケーションの開発と展開を行うためのプラットフォームとして、Microsoft Azure上にホストされています。このワンストップショップでは、世界中の自動車メーカーが、自社の製品とビジネスプロセス全体を統一的にデジタル化することができます。これにより、より迅速な生産と効率的なオペレーションを実現し、市場投入までの時間を短縮し、持続可能性の取り組みを向上させることができます。 設計、エンジニアリング、製造チームにとって、デジタル化は彼らの業務を合理化し、従来は主に手動で行われていた産業プロセスを、コンセプトやスタイリング、AVの開発・テスト・検証、工場計画などの効率的なシステムに変換します。 仮想工場シミュレーションエンジン Omniverse Cloudの仮想工場シミュレーションエンジンは、カスタマイズ可能な開発者アプリケーションとサービスのコレクションであり、工場計画チームが大規模な産業データセットを接続し、リアルタイムで共同作業、ナビゲーション、レビューすることを可能にします。 3Dデータを扱う設計チームは、仮想工場を組み立て、軽量デバイスから完全な保護期間の製造データセットを表示、注釈、更新することができます。Omniverse Cloud上で仮想工場をシミュレーションすることで、自動車メーカーは、建設が進行している間に変更が必要な場合に生じる数年間の取り組みと何百万ドルもの費用を節約しながら、スループットと生産品質を向上させることができます。 Omniverse Cloudでは、Autodesk Factory Planningなどの既存のソフトウェアアプリケーション(ビルディング、機械、電気、配管、工場ラインをサポートする)や、SiemensのNX、Process Simulate、Teamcenter VisualizationソフトウェアとJTファイル形式など、既存のソフトウェアアプリケーションとの相互運用性を実現できます。2Dデバイス上でリアルタイムに知識とデータを共有したり、拡張現実でライブの仮想工場レビューを行ったりすることができます。 欧州最大の自動車メーカー向けの主要なITソリューションプロバイダーであるT-Systemsは、Omniverse Cloudに展開可能なカスタム仮想工場アプリケーションを構築・展開しています。 NVIDIAのService Delivery PartnerプログラムのエリートメンバーであるSoftServeも、工場の設計、生産計画、制御をカバーしたカスタムの工場シミュレーションと可視化ソリューションを、このOmniverse Cloudエンジン上で開発しています。…
「Azure OpenAI Studioを使用したNL2SQLシステムのセットアップ方法」
前の記事では、ユーザーのリクエストからSQLコマンドを生成するためのプロンプトのセットアップ方法を学びました今回は、Azure OpenAI Studioを使用して推論エンドポイントを作成する方法について見ていきます
CI/CDパイプライン:Azure上のデータ処理アプリケーションのためのパート1:コンテナインスタンス
「手動でAzureや他のクラウドプロバイダにリソースを作成および展開することは比較的簡単であり、場合によっては十分であるかもしれませんしかし、ほとんどの場合、展開されたリソースは変更が必要になるでしょう...」
マイクロソフトAzure Functionsとは何ですか?
イントロダクション マイクロソフト・アジュールの幅広いサービスは、独自のニッチを作り出すことに成功しています。アジュール・ファンクションは、優れたダイナミックで効果的なサーバーレス・コンピューティング・ソリューションです。この記事では、アジュール・ファンクションの機能や利用方法、実際の使用例をハンズオンで紹介します。 アジュール・ファンクションとは何ですか? アジュール・ファンクションは、イベント駆動型のサーバーレス・コンピューティング・プラットフォームで、開発者がアプリケーション開発を効率化するためのツールです。ハードウェアの複雑さを抽象化し、コアのビジネスロジックに集中できます。開発者は複雑なオーケストレーションを簡素化し、クラウド上でスケーラブルなソリューションをローカルに開発・デプロイすることができます。トリガーとバインディングを介して、アジュール・ファンクションはシームレスにアジュールサービスと連携します。 アジュール・ファンクションはどのように動作しますか? アジュール・ファンクションは、サーバーレス・コンピューティングの原則に基づいて動作し、イベントトリガーに基づくコードの実行をインフラストラクチャの管理なしで簡単かつ効率的に行う方法を提供しています。その動作の主な側面は以下の通りです: トリガー:アジュール・ファンクションは、HTTPリクエスト、データベースの更新、メッセージキューのメッセージ、タイマーなど、さまざまなイベントトリガーに応答します。各ファンクションは特定のトリガーと関連付けられます。 自動スケーリング:トリガーがアクティブ化されると、必要なコンピューティングリソースを動的に割り当て、さまざまなワークロードに応じた効率的なスケーリングを実現します。リソースは自動的にプロビジョニングおよび解除され、実際のコンピュート時間のみが請求されます。 実行環境:開発者は好みのプログラミング言語(C#、JavaScript、Python、Javaなど)でコードを書き、ファンクションにランタイム環境を提供する「ファンクションアプリ」内で実行します。 ステートレス:アジュール・ファンクションはステートレス設計されており、呼び出し間で永続的な状態を保持しません。必要な状態情報は通常、ストレージサービスやデータベースなど外部で管理されます。 統合:アジュール・ファンクションはさまざまなアジュールサービスや外部システムとシームレスに統合し、強力なイベント駆動型アプリケーションを作成できます。データベースに接続したり、外部イベントに基づいてアクションをトリガーしたり、結果をデータストアに保存したり、通知を送信したりすることができます。 アジュール・ファンクションを使用するのは誰ですか? アジュール・ファンクションはマイクロソフト・アジュールが提供する多目的なサーバーレス・コンピューティング・サービスであり、さまざまなユーザーや産業で利用されています。以下は、それぞれのユーザーグループについての簡単な紹介と共に、誰がそれを使用しているかをまとめた表です。 ユーザーグループ 利用例 利点 開発者 クラウドネイティブアプリケーション: 開発者はアジュール・ファンクションを使用してクラウドネイティブアプリケーションを構築し、デプロイします。 – インフラストラクチャ管理ではなく、コードの記述に焦点を当てることができます。 – 負荷が増えるにつれて自動的にスケールします。 イベント駆動型マイクロサービス:…
初心者向けチュートリアル:Microsoft Azureで企業データをGPTモデルに接続する
「GPTモデルと生成AIに関して、昨年は大いに話題になりました完全な技術革命が約束されたという主張はやや大げさかもしれませんが、GPTが…」
「Azureプロジェクト管理のナビゲーション:効率的な運用と展開についての深い探求」
「エキスパートのストラテジーを使用して、シームレスな操作と成功した展開に必要なキーワードを明らかにし、Microsoft Azureプロジェクトマネジメントの複雑さを探索します」
Azure Machine Learningにおける生成AI:AI変革のためのアプリ開発の運用化
「ジェネラティブAIの時代において、リーダーたちは革新と目的の交差点に立たされています取締役会やデータサイエンスの会議場で響き渡るのは次のような疑問です:この最新鋭の技術の星座をどうやって活用し、創造性とビジネスの柔軟性を持って組織の目標を前進させつつ、社会とのバランスを取ることができるのでしょうか...」
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.