Learn more about Search Results トラクター

Google Researchがジェネレーティブな無限語彙トランスフォーマー(GIVT)を発表 – AIにおける先駆的な実数値ベクトルシークエンス

トランスフォーマーは最初に導入され、自然言語処理の主要なアーキテクチャとして急速に台頭しました。最近では、コンピュータビジョンでも非常に人気があります。Dosovitskiyらは、画像をパッチのシーケンスに分割し、それらのパッチを線形に埋め込み、その結果得られる特徴のシーケンスをトランスフォーマーエンコーダに供給することで、CNNベースのアーキテクチャに勝る効果的な画像分類器を作成する方法を示しました。セグメンテーション、検出、および分類などの多くの区別的なビジョンタスクにおいて、このアプローチは現在の標準です。ただし、生成トランスフォーマーデコーダはある事前定義された有限のボキャブラリーから離散的なトークンを消費して予測するため、画像を(非量子化された)特徴ベクトルのシーケンスにマッピングすることは、トランスフォーマーベースの画像生成には適切ではありません。 このような構造は自然言語に自然に適合し、デコーダーモデル単体では、効果的なトレーニングがインストラクターフォースと強力な連続生成モデリングを介して可能です。最近の取り組みでは、ベクトル量子化変分オートエンコーダ(VQ-VAE)を使用して画像を離散トークンのシーケンスにマッピングし、その後、トランスフォーマーデコーダを使用して潜在的な離散トークンの分布をモデル化するための手法を採用しています。このアプローチは、画像を利用した多走的生成モデルも容易にします。しかし、2段階のメソッドは画像とマルチモーダルコンテンツの作成には適していますが、いくつかの問題があります。 VQ-VAE内のボキャブラリーサイズによって、潜在的なモデリングや画像の細部調整の調整が困難になるため、潜在的なコードの情報量が減少します。また、トークンを使用して密度予測や低レベルの区別的なタスクにトークンを使用するアプリケーションの品質にも影響を与えます。ボキャブラリーサイズの拡大はこの問題の解決に役立ちますが、それによってボキャブラリーの使用が不十分になる場合があります。したがって、高品質なVQ-VAEセットアップでは、エントロピー損失やコードブックの分割などの洗練された方法に頼る必要があります。さらに、巨大なボキャブラリーは記憶容量を多く消費する埋め込み行列をもたらし、異なるモダリティのボキャブラリーが混在するマルチモーダルシナリオでは、問題が発生する可能性があります。研究チームは、これらの問題を回避するために、デコーダーモデルを変更して、離散的なトークンと、したがって、固定された有限のボキャブラリーを必要としない連続した実数値のベクトルシーケンスで動作する生成トランスフォーマーデコーダを提案しています。 特に、Google DeepMindとGoogle Researchの研究チームは、実数値のベクトルシーケンスを用いて機能する生成型無限ボキャブラリートランスフォーマー(GIVT)を提案しています。実数値のベクトルは無限ボキャブラリーと見なすことができるため、研究チームはこれをGIVTと呼んでいます。図1に示されているように、研究チームはトランスフォーマーデコーダの設計をわずかに変更しました(合計2つの変更)。1)入力では、研究チームは離散的なトークンの代わりに連続した実数値のベクトルシーケンスを線形に埋め込む。2)出力では、研究チームは有限のボキャブラリー上のカテゴリカル分布のパラメータを予測するのではなく、連続した実数値のベクトル上の連続した分布のパラメータを予測します。研究チームは、教師強制と因果関係注意マスクを使用してこのモデルをトレーニングしました。また、研究チームはMaskGITに類似した高速進行マスクバイダイレクショナルモデリングも調査しました。 図1は、連続した無限ボキャブラリーのバリエーション(右側のGIVT)を典型的な離散トークン生成トランスフォーマー(左側)と比較するための同じデコーダーモデルを使用しています。 GIVTは、入力時に斜めに並んだ連続した実数値ベクトルのシーケンスで離散トークンを置き換えます。有限のボキャブラリー上のカテゴリカル分布を予測する代わりに、GIVTは出力時に連続した実数値ベクトル上の連続した分布のパラメータを予測します。 高解像度の画像を平坦化して生成されるRGBピクセルの系列は、理論的には任意の特徴ベクトルの系列にGIVTを適用することができるものの、直接的にモデル化するのは難しい例です。それは長くて複雑な分布を持っていることもあります。したがって、研究チームはまず、ガウス事前VAEを使用して低次元の潜在空間をトレーニングし、次にGIVTでモデル化します。これは、VQ-VAEと類似した2段階のテクニックに似ています。研究チームはまた、シーケンスモデリングの文献からいくつかの推論戦略(温度サンプリングや分類器フリーガイディングなど)を転用しました。 注目すべきは、実数値トークンだけを使って、これによってVQベースの技術と同等か優れたモデルが生成されることです。以下に彼らの主な貢献を簡潔に述べます: 1. UViMを使用して、研究チームはGIVTが密な予測タスク(セマンティックセグメンテーション、深度推定、ピクチャーシンセシスなど)において、通常の離散トークン変換デコーダーよりも同等または優れたパフォーマンスを達成することを示しています。 2. 研究チームは、連続ケースにおける従来のサンプリング方法の効果(温度サンプリング、ビームサーチ、分類器フリーガイディング)の派生と有効性を導き出し、証明しました。 3. KL項の重み付けを使用して、研究チームはVAE潜在空間の正規化レベルと現れるGIVTの特性との関連性を検討しました。研究チームは、VQ-VAE文献の洗練されたトレーニング方法(潜在表現への補助損失、コードブックの再初期化、専用の最適化アルゴリズムなど)はVAEおよびGIVTのトレーニングでは使用されていないことを強調しており、単純に通常の深層学習ツールボックスのアプローチに依存していると述べています。

パンダのカット対qcutが明確に説明されています(ついに)

「それは初心者が何らかの難しいパンダ関数の出力を見た時によく起こる反応ですいかにたくさんのチュートリアルやコースが、たった一つの関数でこういったものを紹介するのか、いつも私を困惑させます…」

『ブンブンの向こう側 産業における生成型AIの実用的な応用を探求する』

イントロダクション 現代の世界は「ジェネレーティブAI」という言葉で賑わっています。McKinsey、KPMG、Gartner、Bloombergなどのトップのテクノロジー企業や経営コンサルティング企業は、この新しい技術の力を測定し、将来を予測するために常に研究を行っています。これらの調査は、ジェネレーティブAIの企業への影響が急速に増大しており、今日の職場で必須のスキルとなっていることを示しています。調査結果によると、ジェネレーティブAIは2032年までに1.3兆ドルの市場となり、誰もがその一部になりたがるでしょう。この記事では、さまざまな産業におけるジェネレーティブAIの応用、成長、および影響について、そしてあなたがこのグローバルな変化の一部になる方法について説明します。 ジェネレーティブAIとは何か?その規模はどれくらいか? ジェネレーティブAIはもはや単なるバズワードではありません。この新しい技術は、AIが新しいコンテンツを作成し、実践を通じて学習することができるもので、世界中で注目を集めています。ジェネレーティブAIツールは、基本的にはトレーニングデータに基づいてコンテンツを生成できる大規模な学習モデル(LLM)です。これらのモデルは、トレーニングデータからパターンや構造を学び、類似のパターンに従う出力を生成できます。これらのモデルは、画像、動画、音楽、音声、テキスト、ソフトウェアコード、製品デザインなどを作成することができます。現在利用可能な大量のトレーニングデータのため、この技術の可能性は無限です。 過去数ヶ月間、ジェネレーティブAIの分野は着実に拡大し、毎日新しい応用とユースケースが発見されています。企業レベルでは、ジェネレーティブAIの統合により、より速いアウトプット、より高い生産性、経済成長が実現されています。その結果、多くの企業が時間とコストを節約するためにジェネレーティブAIを使用しています。 ジェネレーティブAIの企業応用には、自動化、人間または機械の増強、ビジネスおよびITプロセスの自立実行などが含まれます。McKinseyによると、世界中の企業はジェネレーティブAIツールの導入により、生産性の向上とリスクの最小化を最大限に活用しています。企業は今後、自身の仕事においてジェネレーティブAIを熟達することが求められるでしょう。 ジェネレーティブAIのビジネス面 ジェネレーティブAI市場には、モデルトレーニングインフラ、LLM向け推論デバイス、デジタル広告、特殊ソフトウェアとサービス、個人化アシスタント、およびコーディングの加速を可能にする共同作業者が含まれています。ジェネレーティブAIツールとソフトウェアを開発する企業がこの領域で最も恩恵を受けていますが、これら製品の応用はさまざまな産業の利益を支援しています。 では、ジェネレーティブAIは今日ではどれくらい大きな存在なのでしょうか?2022年には、ジェネレーティブAI市場は400億ドルと評価されており、時間の経過とともに成長しています。Bloomberg Intelligenceによると、ジェネレーティブAIは2032年までに42%の複合年間成長率を示し、1.3兆ドルの市場となると予測されています。 2023年:企業におけるジェネレーティブAIのブレイクイヤー ジェネレーティブAIは2020年以来、ガートナーの人工知能のハイプサイクルに登場しています。しかし、2023年はジェネレーティブAIのブレイクイヤーとなっています。この技術は比較的新しいものですが、ほぼすべての産業の重要な一部になるほど成長しています。 McKinseyの国際的なレポートによると、主要企業の33%が既にジェネレーティブAIを使用しており、その他の25%はAIの統合のプロセスにあると報告されています。また、レポートは、Cレベル幹部の22%が仕事でAIツールを使用していることも示しています。 技術の新たな使用法や応用が発見されるにつれて、その利用範囲もさらに拡大しています。すべての産業のすべてのレベルでのジョブロールは自動化され、人間の介入が最小限に抑えられ、人間の労働時間がより重要なタスクに割り当てられるようになっています。したがって、企業はAIのスキルを持つ人材を求めており、それが彼らに優位性をもたらしています。 さらに、McKinseyの調査によると、40%の企業がAIへの投資を拡大する予定です。つまり、すべての仕事においてある程度のレベルでAIの機能が関与するようになる可能性があることを示しています。私たちは皆、それに備えて準備をする必要があるのです。 エンタープライズリーダーがジェネレーティブAIについて考えていること 世界中のビジネスリーダーは、ジェネレーティブAIの可能性に興味を持ち、それが真に革新的な存在だと確信しています。オラクル・アナリティクス・クラウドの上級主任データサイエンティストであるヴィカス・アグラワル博士は、ジェネレーティブAIが特にテキストやユーザーインターフェースに関連する分野で企業ソリューションを革新する可能性を持っていると断言しています。「AIツールが進化するにつれて、データサイエンティストはこれらのツールを操作するだけでなく、それらを強化・改善するスキルを必要とする」と彼は述べました。 同様のことを言うと、データイクの元AI戦略責任者であるジェプソン・テイラー氏は、AIスタートアップの成功は適切な人材の採用にかかっていると述べています。彼はNYUでAIマスタークラスの共同リーダーとして、AIシステムが自律的にコードを書き換えおよび強化できる未来を予見し、より効率的かつ強力なアプリケーションをもたらすと述べています。 Beans.aiの応用AI責任者であるサンディープ・シンは、Analytics Vidhyaとのインタビューで、インドと米国のAIエコシステムを比較しました。「インドのAIエコシステムは、研究に重点を置いたベイエリアのAI研究風景とは異なり、急速な採用と商品化が可能な位置にあります」と彼は述べました。 インドの業界リーダーについては、Fractal Analyticsの最高経営責任者(CEO)、共同創業者、副議長であるスリカント・ヴァラマカンニ氏が挙げられます。彼は、組織内のほとんどの機能が自動化され、更新され、優位性を持ち続けるためには、最新の情報にアップデートし、エッジを持つ必要があると信じています。 GramenerのCEO兼チーフデータサイエンティストであるアナンド・S氏は、Googleのローンチ以来、ジェネレーティブAIを次なる大きなトピックと見ています。彼はすでに自身のコーディング作業のほとんどをAIにアウトソースし、さまざまなタスクをこなすために多くのLLM(Low-Level Machine)を訓練しており、それによって仕事を最適化し、時間を節約しています。…

「オートジェンへの参入:マルチエージェントフレームワークの基礎を探索する」

イントロダクション 「自動生成に飛び込む:マルチエージェントフレームワークの基礎を探る」というテーマでソフトウェア開発の未来へのスリリングな旅に出ましょう。OpenAIのChatGPTに続く専門領域であるLLMエージェントは、AIエージェントの開発を革新する前例のない急激な急増を経験しています。単調なタスクの自動化から、動的な意思決定の課題への取り組みまで、LLMエージェントはかつて不可能と思われていた領域の限界を押し広げています。LLMエージェントは、私たちが想像することができる未来の世界において、コンピュータが現実とシームレスに融合し、AIエージェントの重要性がますます高まる世界を思い浮かべてください。言葉やジェスチャーを使ってエージェントに指示を出し、彼らが優れた推論力と行動能力でタスクを実行する様子を想像してください。しかし、私たちはAIエージェントの革命の夜明けを迎えており、ますます複雑なタスクに取り組むエージェントを力づけるための新しいインフラストラクチャ、ツール、フレームワークが生まれる様子を目の当たりにしています。マルチエージェントチャットシステムのための最先端のフレームワークであるAutogenが、今回の探求の中心になります。 本記事では、革命の初期段階にあるAIエージェントの複雑さを解きほぐし、Autogenの能力を探求しながら、これらのインテリジェントな実体をどのように活かすかを発見していきます。 学習目標 LLMエージェントとは何かを理解する Autogenとは何かを理解し、Autogenを使用してエージェントを構築する基礎を探る AutogenとOpenAI APIを使用してエージェントを構築する LLMエージェントの実世界での使用例を探索する この記事はData Science Blogathonの一環として公開されました。 LLMエージェントとは何か 通常の言語モデルは、翻訳や質問応答など、多くのことに長けています。しかし、その知識と能力には限界があります。それは、家を建てるための道具を持たない職人のようなものです。しかし、LLM(俳句言語モデル)は、必要なツールさえ与えられれば、推論や行動が可能であることが観察されています。ほとんどのLLMは世界の知識が限られていますが、プロンプティングを介してカスタムソースからの情報を補完することができます。 この目的を達成するには、2つの方法があります。検索付き生成(Retrieval Augmented Generation)とLLMエージェントです。RAGでは、モデルに情報をカスタムのハードコードパイプラインを通じて提供します。しかし、エージェントでは、LLMは推論に基づいて手元のツールを使います。たとえば、GPT-4にSerperツールを組み合わせれば、インターネットを検索して回答することができます。また、Yahoo Financeツールにアクセスできる場合は、株式のパフォーマンスを取得して分析することもできます。つまり、LLM、ツール、推論および行動のためのフレームワークの組み合わせがAIエージェントの特徴です。 LLMエージェントの構築には、プラットフォームやツールが急速に増えてきています。Autogenもそのようなツールの1つです。そのため、Autogenが何であり、それを使用してLLMエージェントを作成する方法を理解しましょう。 Autogenとは何か Autogenは、マイクロソフトのオープンソースツールで、堅牢なマルチエージェントアプリケーションを構築するためのツールです。複数のエージェント間のコミュニケーションを重視して、ゼロから設計されています。このツールを使用して、複数のエージェントが提供された問題の解決策を見つけるためにお互いに会話するLLMアプリケーションを作成することができます。エージェントは高度にカスタマイズ可能であり、特定のタスクを実行するために彼らをガイドすることができます。また、Langchainツールエコシステムとも非常に統合されており、既存のLangchainツールを活用してエージェントを補完することができます。 タスクを達成するために、Autogenはさまざまなタイプのエージェントを提供しています。例えば、 アシスタントエージェント:コーディング、レビューなどのタスクを達成する責任を持つエージェントです。 ユーザープロキシエージェント:その名前の通り、これらのエージェントはユーザーの代わりに行動します。人間がエージェントループに参加し、会話をガイドするためのものです。…

「ODSC West 2023 写真で振り返る」

「ODSCウエストは今や私たちの歴史の一部であり、全てがうまくいっていて幸せです初めてのハロウィンパーティー、さらに多くの本のサイン会、エキサイティングな基調講演、そして誰にでも合ったセッションがたくさんありましたイベントの写真はこちらでご覧いただけます」

『チェッカーフラッグの先に:F1統計の探求』

「F1のような極めて競争力のあるスポーツでは、わずかなパフォーマンスの向上でも勝利につながることがありますファンやデータサイエンスの視点からF1を分析することで、有用な洞察を得ることができるかもしれませんこれがインスピレーションを与えました…」

「深層学習モデルの可視化方法」

ディープラーニングモデルは通常非常に複雑です多くの伝統的な機械学習モデルが数百のパラメータで済むことがありますが、ディープラーニングモデルは数百万または数十億のパラメータを持っていますオープンAIが2023年春にリリースした大規模言語モデルGPT-4は、約2兆のパラメータを持っていると噂されていますそれは・・・

このAI論文は、オープンエンドのシナリオでの大規模言語モデルのスケーラブルな評価のための新しいアプローチ、JudgeLMを紹介しています

最近、大規模な言語モデル(LLM)は、優れた命令の従順さと幅広いオープンエンドシナリオの処理能力により、注目を浴びています。研究者は命令の微調整を通じて、FlanT5、OPT、LLaMA、およびPythiaなどのオープンソースのLLMに基づいてこれらのモデルを人間の好みと調整するための多くの技術を提供しています。調整されたLLMは、人間の命令の理解力が向上し、より論理的な応答を生成します。しかし、オープンエンドのシナリオでのLLMの能力は、現在のベンチマークと従来の測定によって十分に評価される必要があります。 したがって、オープンエンドの活動でのLLMの評価を徹底的に評価する新しいベンチマーク手法が必要です。同時の研究では、LLMのパフォーマンスを決定するための異なる手法を調査しています。アリーナ形式の手法は、クラウドソーシングプラットフォームを利用して匿名化されたLLMの競争結果を取得します。人間の評価は信頼性がありますが、コストがかかり、多くの努力が必要です。一部の手法ではGPT-4を仲裁者として使用しますが、これらの手法には可変APIモデルのシフトと可能なデータの開示への支援が必要であり、裁判官の繰り返し可能性が危険にさらされる可能性があります。PandaLMは、回答評価に使用されるオープンソースのLLMを改善することを目指しています。 図1(a):JudgeLMのデータ生成パイプライン。105Kのシードタスクが最初に質問として収集されます。その後、11つのLLMから回答を取得し、回答セットから2つをランダムに選択します。最後に、タスク、サンプル回答ペア、および必要に応じてGPT-4への応答を入力します。これにより、裁判官インストラクターのスコアと綿密な理由が生成されます。 ただし、精緻なモデルの有用性は、モデルのサイズ、トレーニングデータの品質、および固有のLLMバイアスから生じる制約により弱体化します。北京人工知能研究院と華中科技大学の研究者は、本研究で最適化されたオープンソースのLLMを使用してLLMを評価することを提案しており、スケーラブルな裁判官(JudgeLM)として十分な合意に達する裁判官としての機能を持つLLMを組み合わせます。彼らの手法では、裁判官モデルのトレーニングと評価に役立つ高品質のデータセットを組み合わせ、スケーラブルな裁判官を使用してオープンエンドの割り当てで評価します。彼らは、オープンソースのLLMを彼らのフレームワーク内で裁判官として使用するために改変し、モデルのサイズ(7Bから33B)とトレーニングデータのボリューム(3.5Kから100K)の観点でどれだけスケールするかを調査します。 図1(b):JudgeLMの異なる特徴と微調整の例。スケーラブルな裁判官としてのLLMのパフォーマンスを向上させるために、裁判官のサンプルを使用します。また、形式バイアス、知識バイアス、および位置バイアスを克服するために、LLMをウェイトジャッジとして微調整するために参照ドロップ、参照サポート、およびスワップ増強も提案されます。 図1aに示すように、彼らのデータセットは105Kのシード質問、LLM回答ペア、および教師裁判官で構成されています。各シードチャレンジについて、生徒は参考回答で1つと参考回答なしで1つの意思決定を行いました。このデータセットの分割では、トレーニング用に100Kのシード質問を確保し(PandaLMよりも大きい×2倍)、残りの質問を検証用に確保し(PandaLMよりも29倍大きい)、LLMを裁判官として使用する際には、位置バイアス(特定の状況での応答を好む)、知識バイアス(事前トレーニングされた情報に対する過度の依存)、および形式バイアス(特定のプロンプト形式の下でのみ最適なパフォーマンス)などのバイアスが必ず導入されます。 彼らはそれらに対処する方法を提供しています。さらに、図1bに示されるように、彼らのJudgeLMシステムには、マルチターンの会話、単一の応答の評価、およびマルチモーダルモデルに加えて複数の回答の判断など、拡張された機能があります。アリーナ形式のアプローチと比較して、彼らのものは迅速かつコストパフォーマンスの高い解決策です。例えば、JudgeLM-7Bは3分で5000の応答ペアを評価することができ、たった8つのA100 GPUだけが必要です。JudgeLMは、クローズドソースのLLMジャッジよりもプライバシー保護と繰り返し可能性を提供します。彼らの方法では、同時にオープンソースのLLMジャッジと比較して、LLMの微調整のスケーリング能力とバイアスを調査しています。 さらに、彼らが提示するデータセットは最も包括的で優れており、将来のモデル分析の研究に大いに役立ちます。以下に彼らの主要な貢献を簡単に説明します: • 彼らはJudgeLMを提案しており、オープンエンドのシナリオでLLMを評価するために設計されたスケーラブルな言語モデルジャッジです。 • 彼らは、多様なシードタスク、LLMが生成した回答、およびGPT-4からの詳細な判断を組み込んだ高品質で大規模なデータセットを導入し、LLMの評価に関する将来の研究のための基盤を築きました。これには人間との合意を超える90%以上の合意があります。さらに、JudgeLMは長時間のジョブを処理するための幅広い機能を備えています。 • 彼らはLLMの中に存在するバイアス、ジャッジの微調整を調査し、いくつかの解決策を提示しています。彼らの技術は、様々なシナリオでのモデルの一貫性を大幅に向上させ、JudgeLMの信頼性と適応性を高めます。

NVIDIAはAPECの国々と協力し、人々の生活を変え、機会を増やし、成果を改善します

ベトナムの患者が困難な状況で医療施設に入ると、医師はNVIDIAの技術を使用して正確なスキャンを取得し、彼らの病気を診断します。香港では、別の一群の医師が生成AIを活用して患者の新たな治療法を見つけ出しています。 市民の健康と福祉を向上させ、経済と地域社会を強化することは、2023年アジア太平洋経済協力会議(APEC)サミットのために世界の指導者たちがサンフランシスコに集まる際のキーテーマです。 彼らが市民と社会の生活を改善するための大胆な解決策を議論する際、NVIDIAのAIと加速計算の取り組みは重要な促進要素となります。 NVIDIAはAPECのパートナーとの深い投資に基づいて、日常の人々の結果を改善し、将来の課題に取り組む取り組みを行っています。この地域全体で強力な存在感を持ち、数千人の従業員と農業から医療、教育までのさまざまな共同プロジェクトを通じて新しいテクノロジーや労働力育成プログラムを提供し、産業開発を向上させ、生成AI研究を推進しています。 これらの努力は、技術革新を超えて経済成長を促し、高収入の雇用を創出し、世界中の人々の健康と福祉を向上させます。 研究と国内計算パートナーシップ NVIDIAはいくつかのAPEC加盟国とAIの研究パートナーシップを進めています。これにより、医療、スキル開発、および福祉、繁栄、安全保障の向上を目指してAIとHPCの科学的なブレークスルーが加速されます。例えば: オーストラリアの国立科学・研究機関であるCSIROは、気候変動、宇宙探査、量子コンピューティング、AI教育など、様々な領域でオーストラリアのAIプログラムを進めるためにNVIDIAと協力しています。 シンガポールの国立スーパーコンピューティングセンターと教育省は、ヘルスケア、気候科学、デジタルツインなどの分野を重点的に捉え、主権AI能力を推進するためにNVIDIAと提携しています。 タイは、東南アジアで最初にNVIDIAのAIネーションズイニシアチブに参加した国であり、教育省と一流大学の連盟と協力して都市計画、公衆衛生、自動運転などの公私の協力を進めています。 ベトナムでは、NVIDIAが国内最大の雇用主であるベトテルとベトナム科学技術アカデミーと提携し、労働力のスキルアップ、産業へのAIサービスの導入の加速、次世代5Gサービスの展開を支援しています。 イノベーションエコシステム スタートアップ企業はAI革新の最前線にあり、堅牢なスタートアップエコシステムはAPEC加盟国内での技術の進歩に不可欠です。 NVIDIA Inceptionは、スタートアップ企業がより速くイノベーションするための無料プログラムです。NVIDIAはこれを通じて、APEC加盟国内で5,000以上、世界中で15,000以上のスタートアップ企業を支援しており、最新の技術、ベンチャーキャピタルとのつながり、最新の技術リソースへのアクセスを提供しています。 2023年、NVIDIAはこのプログラムにAPEC地域のスタートアップ企業を約1,000社追加しました。イノベーションは経済的機会を創出するだけでなく、社会の最大の課題に対する新しい解決策を開発するために中小企業をサポートしています。以下に一部のメンバーの事例を示します: マレーシアでは、TapwayがAIを使用して、1日の利用者数100万人以上の交通渋滞を軽減し、交通を効率化しています。 ニュージーランドでは、Lynkerが地球観測のためのジオスペーシャル分析、深層学習、リモートセンシングを使用しています。Lynkerの技術は農場の炭素隔離を測定し、湿地の検出、監視、回復を行い、効果的な災害救援を可能にしています。 タイでは、イノベーションパートナーのAltoTech GlobalがAIソフトウェアをインターネットオブシングスデバイスに統合し、ホテル、建物、工場、スマートシティのエネルギー消費を最適化しています。AltoTechの究極の目標は、ネットゼロ経済への貢献であり、顧客のネットゼロ目標の達成を支援しています。 デジタルスキルと成長のためのツール NVIDIA Deep Learning…

お楽しみはいかがですか?データサイエンスのトリックの時間です

私たちは、TDSでは詳細なガイドが好きですが、データサイエンティストが日常的な仕事で直面する特定の課題や痛点に焦点を当てた投稿も大切にしています

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us