Learn more about Search Results A - Page 5

「キナラがAra-2プロセッサを発表:パフォーマンス向上のためのオンデバイスAI処理を革命化」

Kinaraは、エネルギー効率の高いエッジAIのパイオニアであるAra-2プロセッサを発表しました。それは、前任者と比べて8倍の高性能を誇り、デバイス内で大規模な言語モデル(LLMs)とさまざまな生成AIモデルを強力にサポートする能力を備えています。 Kinaraのイノベーションへの執念から生まれたAra-2プロセッサは、プロセッサのラインアップの大きな進歩を表しており、顧客にはパフォーマンスとコストのオプションのスペクトラムが用意されています。チームはこの新しい追加の重要性を強調し、Ara-1とAra-2プロセッサの役割を詳細に説明しました。Ara-1はスマートカメラやエッジAIデバイスが2-8のビデオストリームを処理するのに優れている一方、Ara-2はエッジサーバー、ノートパソコン、高性能カメラに向けた16-32+のビデオストリームを素早く処理する能力を示しました。 チームはさらに、Ara-2の変革的な可能性について詳述し、物体検出、認識、トラッキングの向上におけるその重要な役割を強調しました。このプロセッサは、高度なコンピューティングエンジンを活用し、高解像度の画像を迅速かつ驚くほど高い精度で処理することに優れています。また、Generative AIモデルの処理能力は、Stable Diffusionに対して1枚の画像あたり10秒の速度を達成し、LLaMA-7Bに対しては秒間数十のトークンを生成できることで示されています。 Ara-1の後継として設計されたAra-2チップは、前任者と比べて5〜8倍もの大幅なパフォーマンス向上を約束しています。Kinaraは、Ara-2チップがさまざまなモデルで高コストで高消費電力のグラフィックスプロセッサを置き換える潜在能力を持つと主張しています。特に大規模な言語モデル(LLMs)のニーズに対応しています。 2024年1月のConsumer Electronics Show(CES)で発表される予定のAra-2プロセッサは、複数のバリエーションで提供されます。スタンドアロンチップ、単一チップのUSBおよびM.2モジュール、4つのAra-2チップを並列動作させるPCI Expressアドインボードとして利用できます。Kinaraはリリースを予想しながらも、価格の詳細を開示しておらず、愛好家や消費者がこの技術の驚異を探求することを待ち望んでいます。 まとめると、KinaraのAra-2プロセッサは、切り込んだパフォーマンス、多様性、効率を併せ持つオンデバイスAI処理の新時代を告げる存在です。CESでの近い展示は、エッジAI技術の領域を再定義する可能性のある変革的なツールを暗示して、産業界全体で興味を引き起こしています。 この投稿は、KinaraがAra-2プロセッサを発表:パフォーマンス向上のためのオンデバイスAI処理を革新の投稿最初に現れました。MarkTechPostより。

このAI論文は、「パーシウス」という画期的なフレームワークを紹介していますこれにより、大規模な機械学習やAIモデルのトレーニング時のエネルギー浪費を最大30%削減することが可能です

大きな言語モデル(GPT-3など)は、トレーニングと推論中の計算ニーズにより、相当なエネルギーを必要とします。エネルギー使用量は、モデルのサイズ、タスクの複雑さ、ハードウェアの仕様、および運用時間などの要素によって大きく異なります。 これらのモデルのトレーニングには、高性能なGPUやTPUを使用するなど多くの計算リソースが必要とされ、長期にわたる相当なエネルギー消費を伴います。GPT-3のような大規模な言語モデルのトレーニングには、数日または数週間にわたる複数の家庭の消費電力に相当するエネルギーが使われるとの推定があります。 エネルギー消費の最適化は重要であり、モデルの効率を損なうことなく行われる必要があります。研究者は、大規模な言語モデルのトレーニングにおいてスループットの喪失を伴わない削減可能なエネルギー消費を目指しています。各パイプラインの計算量の問題は、分散実行計画において重要な問題です。ディープニューラルネットワーク(DNN)は、計算量が異なる粗粒度のテンソル操作ですので、すべてのステージをバランス良く調整するのは不可能です。 ミシガン大学とワシントン大学の研究者たちは、トレーニング中に消費されるエネルギーのすべてが直接エンドツーエンドのトレーニングスループットに貢献するわけではなく、トレーニングを遅くすることなく大幅に削減できることを発見しました。彼らはエネルギーの膨張の内的および外的な要因を発見し、Perseusという単一の最適化フレームワークを提案しています。 内的なエネルギーパフォーマンスの喪失は、計算の不均衡性によるものであり、外的なエネルギーパフォーマンスの喪失は、複数のパイプラインが並列で実行され、大量のデータセットでトレーニングをスケールアウトさせるためのものです。遅れているパイプラインよりも早く実行されるパイプラインは速く、全体のトレーニングスループットに影響を与えないエネルギーを無駄に消費します。 Perseusは、通常の運用条件下で内的なエネルギーパフォーマンスの喪失を最小限に抑えるため、イテレーション全体の時間エネルギーを効率的に事前特性化します。さらに、エネルギーを効率的に削減することにより、外的なエネルギーパフォーマンスの喪失を緩和します。非遅れているパイプラインにおいて適切なイテレーションタイミングを見つけることで、パイプライン内の計算を正確に遅くすることができます。 研究者は、ハイブリッド並列処理で大規模なモデルのトレーニングを行い、さまざまな強いスケーリング構成で遅れるパイプラインをシミュレーションしました。エネルギーパフォーマンスの喪失量とPerseusの外的なエネルギー節約を測定しました。他の非遅れるパイプラインは、遅れるパイプラインの計算が完了するまで待つため、外的なエネルギーパフォーマンスの喪失が生じます。各パイプラインイテレーションの開始と終了時にマイクロバッチの数やパイプラインバブルの比率を減らすことで、内的なエネルギーパフォーマンスの喪失を除去し、エネルギーを削減します。 Perseusをトレーニングワークフローに統合することは、AIの開発の将来に強い影響を与える可能性があります。彼らの研究は、LLM(Large Language Models)とGenAIの普及における分散トレーニングの持続可能性を大幅に向上させる可能性があります。

「転移学習を探求しましょう…」(Ten’i gakushū o tankyū shimashou…)

転移学習については、多くの定義があります基本的には、事前学習済みモデルの知識を活用して新しい問題を解決することを指します転移学習には数多くの利点があります...

「パブリックスピーキングのための5つの最高のAIツール(2023年12月)」

「人工知能の領域において、公の演説にAIツールを応用することは大きな進歩を意味しますこれらのツールは、スピーキングスキルの向上に役立つ実用的なソリューションを提供し、あらゆるレベルのスピーカーが直面する共通の課題に対処しますAI技術を活用することで、これらのツールはスピーチのデリバリー、コンテンツの構成、聴衆の関与に関する貴重な洞察を提供します私たちの探究...」

このAI論文では、ディープラーニングを通じて脳の設計図について探求します:神経科学とsnnTorch Pythonライブラリのチュートリアルから得た知見を活用してニューラルネットワークを進化させる

神経科学と人工知能の交差点では、特に「snnTorch」として知られるオープンソースのPythonライブラリの開発を通じて、顕著な進展が見られています。この革新的なコードは、脳の効率的なデータ処理方法に触発されたスパイキングニューラルネットワークをシミュレートするもので、UCサンタクルーズのチームの努力から生まれています。 過去4年間、このチームのPythonライブラリ「snnTorch」は、100,000を超えるダウンロードを誇って大きな注目を集めています。その応用は学術的な範囲を超えており、NASAの衛星追跡事業や半導体会社による人工知能用のチップの最適化など、多様なプロジェクトで有益な役割を果たしています。 IEEEの論文に最近掲載された「snnTorch」のコーディングライブラリは、脳の効率的な情報処理メカニズムを模倣したスパイキングニューラルネットワークの重要性を強調しています。彼らの主な目標は、脳の省電力処理を人工知能の機能性と融合させることで、両者の長所を活用することです。 snnTorchは、パンデミック中にチームのPythonコーディングの探求と電力効率の向上のために始まった情熱的なプロジェクトでした。今日、snnTorchは、衛星追跡からチップ設計までのさまざまなグローバルプログラミングプロジェクトで基礎的なツールとして確立されています。 snnTorchの優れた点は、そのコードとその開発に伴って編集された包括的な教育資料です。チームのドキュメントと対話型コーディング資料は、ニューロモーフィックエンジニアリングとスパイキングニューラルネットワークに関心を持つ個人のための入門点となり、コミュニティで貴重な資産となっています。 チームによって著されたIEEE論文は、snnTorchコードに補完される包括的なガイドです。非伝統的なコードブロックと主観的なナラティブを特徴とし、神経モーフィックコンピューティングの不安定な性質を正直に描写しています。これにより、コーディングの決定に不十分に理解された理論的な基盤と格闘する学生たちの苦悩を和らげることを意図しています。 教育リソースとしての役割に加えて、論文は、脳の学習メカニズムと従来の深層学習モデルとの隔たりを埋める視点も提供しています。研究者たちは、AIモデルを脳の機能と調整する課題について探究し、ニューラルネットワークでのリアルタイム学習と「一緒に発火して接続される」興味深い概念に重点を置いています。 さらに、チームはUCSCのGenomics InstituteのBraingeneersとの共同研究において、脳情報処理の洞察を得るために脳器官モデルを利用しています。この共同研究は、生物学と計算論的パラダイムの融合を象徴し、snnTorchの器官モデルのシミュレーション能力による脳発祥の計算の理解への大きな進歩となっています。 研究者の業績は、多様な領域をつなぐ協力的な精神を体現し、脳に触発されたAIを実用的な領域に推進しています。snnTorchの議論に特化した繁栄するDiscordとSlackチャンネルを通じて、この取り組みは産業と学術界の協力関係を促進し、snnTorchに関する熟練を求める求人募集内容にさえ影響を与え続けています。 UCサンタクルーズのチームによる脳に触発されたAIの先駆的な進展は、深層学習、神経科学、計算論的パラダイムのランドスケープを変革する可能性を示しています。

このAIの論文は、マルチビュー映像を使用して3Dシーンダイナミクスをモデリングするための画期的な方法を紹介しています

NVFiは、時間の経過に伴って進化する3Dシーンのダイナミクスを理解し予測するという複雑な課題に取り組んでいます。これは、拡張現実、ゲーム、映画製作などのアプリケーションにとって重要なタスクです。人間はこのようなシーンの物理学と幾何学を容易に理解しますが、既存の計算モデルはマルチビュービデオからこれらの特性を明示的に学習することに苦労しています。これは、ニューラル放射輝度場とその派生物を含む従来の手法が、学習された物理的なルールに基づいて将来の動きを抽出し予測する能力に欠けるためです。NVFiは、これらのギャップを埋めるために、純粋にマルチビュービデオフレームから導かれる分離された速度場を取り入れることで、大胆な目標を掲げています。 3Dシーンの動的な性質は、計算上の深刻な課題を提起します。最近のニューラル放射輝度場の進展により、観測された時間フレーム内でのビュー補間能力が優れていることが示されましたが、物体の速度などの明示的な物理的特性を学習する能力には限界があります。この制限により、将来の動きのパターンを正確に予測する能力も制約されます。物理学をニューラル表現に統合する現在の研究は、シーンのジオメトリ、外観、速度、粘性場を再構築することで有望な結果を示しています。しかし、これらの学習された物理的特性は、しばしば特定のシーン要素と絡み合っているか、補完的な前景セグメンテーションマスクを必要とするため、シーン間の移植性が制限されます。NVFiの画期的な目標は、学習観測を超えた予測能力を育むために、3Dシーン全体の速度場を分離し理解することです。 香港理工大学の研究者たちは、NVFiという包括的なフレームワークを導入しています。これは3つの基本的な要素を組み合わせています。第一に、キーフレームダイナミック輝度場は、3D空間のすべてのポイントに対して時間による体積密度と外観を学習するのを容易にします。第二に、フレーム間速度場は、各ポイントの時間による3D速度を捉えます。最後に、物理学に基づいた制約を加えたキーフレームとフレーム間の要素の組み合わせによる共同最適化戦略がトレーニングプロセスを統括します。このフレームワークでは、動的輝度場モデリングのための既存の時間依存NeRFアーキテクチャを採用する柔軟性を提供しながら、速度場のためにMLPなどの比較的単純なニューラルネットワークを使用します。その核心的なイノベーションは、第三の要素にあり、共同最適化戦略と特定の損失関数により、追加のオブジェクト固有の情報やマスクなしで分離された速度場の正確な学習が可能になります。 NVFiの革新的な進歩は、オブジェクト固有のデータやマスクを必要とせずに、マルチビュービデオフレームから3Dシーンの動力学をモデル化する能力に現れています。それは、シーンの運動ダイナミクスを統括する重要な要素である速度場の分離に精密に焦点を当て、数多くの応用の鍵を握っています。複数のデータセットを通して、NVFiは将来のフレームの予測、シーンの意味的な分解、異なるシーン間での速度の転送など、その優れたパフォーマンスと適応性を証明しています。 主な貢献と要点: 事前のオブジェクト情報なしでマルチビュービデオから動的な3Dシーンモデリングを行うための新しいフレームワークNVFiの導入。 効果的なネットワークトレーニングのためのニューラル速度場の設計と実装。 将来のフレーム予測、意味的なシーンの分解、シーン間速度の転送など、多様なデータセットでNVFiの能力を成功裏に実証し、優れたパフォーマンスを達成。

自然言語処理:AIを通じて人間のコミュニケーションの力を解き放つ

この記事では、NLPの理解と進化について取り上げますAIがコミュニケーションの世界にどのように貢献できるかを学びましょう

ビジネスにおけるAIの潜在的なリスクの理解と軽減

「この技術を導入する際に遭遇する可能性のあるAIのリスクを学びましょうビジネスオーナーとして、そのようなリスクを避けるためにできることを理解しましょう」

Google AIがMedLMを導入:医療業界の利用事例に特化したファミリー型基盤モデル

Googleの研究者たちは、現在米国で利用可能な医療業界のために調整されたモデルの基礎であるMedLMを紹介しました。これは、Googleの医療と医学における以前の研究であるMed-PaLM 2という医用に調整された大規模言語モデルに基づいて構築されています。MedLMには、別々のエンドポイントを持つ2つのモデルがあり、顧客にさまざまなユースケースに対する柔軟性を提供します。MedLMは、医療の質問応答や要約に優れた性能を発揮します。 最初のモデルは大きなバリアントで、複雑なタスクを処理するために設計されています。一方、二番目のVoAGIサイズのモデルは、微調整やさまざまなアプリケーションへのスケーラビリティに対して柔軟性を提供します。特定の医療と生命科学の要件に基づいて設計されたこれらのモデルは、基本的な機能から洗練されたワークフローまで、医療におけるAIの採用を強化することが期待されています。 Googleは、HCA Healthcare、BenchSci、Accenture、およびDeloitteと協力し、既存のプロジェクトでのパフォーマンスと効率を向上させるためにMedLMを活用しています。HCA Healthcareとの協力により、MedLMはAugmedixのプラットフォームに統合されています。MedLMの技術を活用したこのアプリは、自然言語処理を使用してクリニシャンと患者の会話をドラフト医療ノートに変換し、医療規制に準拠します。この自動化は、パフォーマンスを向上させるだけでなく、時間の節約、バーンアウトの軽減、そして患者ケアの向上にも貢献します。 BenchSciは、前臨床の研究開発の領域で、ASCENDプラットフォーム内でMedLMを活用しています。目標は、前臨床研究のスピードと品質を向上させることにより、薬の発見を加速することです。ASCENDは、AIパワーのエビデンスエンジンであり、MedLMと協力してバイオマーカーの識別と分類を強化し、科学的な発見プロセスを効率化しています。 Accentureとの協力により、Googleは生成型AIを活用して患者のアクセス、体験、および結果を向上させることを目指しています。Google CloudのClaims Acceleration SuiteとMedLMを統合することで、医療機関は新しい洞察を発見し、最終的にはより良い患者結果につながることができます。MedLMの機能をパイロット導入することにより、DeloitteとGoogle Cloudは、プロバイダディレクトリや福利厚生文書からの情報の簡素化を図り、さまざまな基準に基づいて適切なプロバイダを特定する際にコンタクトセンターエージェントをサポートしています。 これらのプロジェクトすべてが示しているように、MedLMの利用は医療および医学産業におけるAIの成長を支援することができます。Google Researchは、今後数ヶ月間にさらなる機能を提供するために、Geminiベースのモデルを組み込んでMedLMスイートを拡大する予定です。業界のリーダー企業との協力努力は、医療における生成型AIの変革的な可能性を示しています。技術が進化するにつれて、Googleは医療現場の開業医、研究者、および医療組織と緊密に連携し、健康・生命科学における画期的な研究を推進するためにAIの安全かつ責任ある使用を確保することに取り組んでいます。 この投稿は、Google AI Introduces MedLM: A Family of Foundation Models Fine-Tuned…

「AIおよび自動化により、2030年に存在しなくなるであろう6つのテクノロジージョブ」

「現在の進行方向に基づいて、バランスを保っているいくつかのテック系の職種をご紹介します」

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us