Learn more about Search Results A - Page 77

広州からロサンゼルスまで、自動車メーカーはAI技術を搭載した車両で驚きと感動を与えています

車好きには朗報です:現在から来週まで開催される2つの著名な自動車ショーが、AIによってパワードされた次世代の自動車デザインの展示で参加者を喜ばせています。 世界中の何十万人もの自動車愛好家が、花の都として知られる中国の広州を訪れることが予想されます。その自動車ショーは、11月26日(日曜日)まで開催されます。このイベントでは、電気自動車(EV)や自動運転の新しい発展が紹介され、1100台の車両が展示されます。 そして世界中で、天使の都であるロサンゼルスでは、今回のショーが史上最多の参加者数に達することが予想されています。11月26日まで開催されるこの展示会では、私設のコレクションからのクラシックでエキゾチックな車両のほか、最新のEVに試乗できる一般公開テストトラックも備えています。 オートグアンジョウ Human Horizons、NEO、ZEEKR 最も期待されているのは、9月に発売された新しいフルエレクトリック車のEmeya Hyper-GTを披露するLotusです。この見事な高級車はスポーツカーの機動性を備え、デュアルのNVIDIA DRIVE Orinプロセッサによってパワードされた印象的な一連のインテリジェントな機能を実現しています。高性能な処理能力により、ドライバーは安全で確実な運転能力を楽しむことができ、オーバーザエア(OTA)のアップデートを通じて将来の機能もサポートします。 安全性を重視して、Emeyaには最新の34個の周囲センサーが搭載され、多様かつ冗長なセンサーデータ処理をリアルタイムで行います。これにより、運転者はハンドルを握る際により一層の自信を持つことができます。Emeyaはバック側にDRIVE Orinが埋め込まれており、高度な運転支援システム(ADAS)の機能を提供し、自律走行の未来をサポートするヘッドルームも提供します。 Emeya Hyper-GTは、Lotusの革新的なElectric Premium Architecture上に構築されており、同じくNVIDIA DRIVE OrinによってパワードされるEletre Hyper-SUVもサポートしています。 さらに、Lotusはエヴィヤハイパーカー、Eletre Hyper-SUV、最近発売された電動自転車であるタイプ136など、Lotusの電動車全体のラインアップも披露しています。また、エミラというLotusの最後の内燃機関車両も展示されています。 NVIDIA DRIVEエコシステムの他のメンバーも、オートグアンジョウで次世代のEVを特集しています: DENZAは、BYDとメルセデス・ベンツの合弁企業である、N7モデルラインアップのインテリジェントドライビング機能を強調しています。すべてのN7モデルにはNVIDIA…

「Jepson Taylorと共に未来のAIを解き放つ」

Leading With Dataのこのエピソードでは、NYUのCo-lead AI Masterclassであり、Dataikuの元Chief AI StrategistであるJepson Taylorと対話しました。TaylorはAIの未来について洞察に富んだインサイトを共有し、化学工学からAIの起業、成功したスタートアップの買収、生成AIの台頭までの重要な瞬間について語ります。 さあ、ダイブしましょう! Jepson Taylorとの対話の重要な洞察 生成AIは、問題解決とイノベーションのアプローチに革命をもたらし、AGIへの道を開く鍵を握っています。 従来のプログラミングからAIへの移行には、技術への情熱と起業家精神を持つ覚悟が求められます。 ストーリーテリングは、AIの専門家にとって重要なスキルであり、複雑なアイデアを幹部やステークホルダーに効果的に伝えることができます。 AIの未来は生成アルゴリズムを取り入れ、AIシステムが自律的にコードを書き換えて強化することで、より効率的かつパワフルなアプリケーションが可能になります。 AIスタートアップの成功は、適切な人材を採用することにかかっており、各機能を熟知し、会社を前進させることができるベテランのプロフェッショナルを重視しています。 次のセクションでは、Leading with DataのセッションでJepson Taylorに対して行われた質問をまとめています。 化学工学からAIの起業への旅はどのように始まりましたか? 私は化学工学を学んでいた時にプログラミングをあまり行いませんでしたが、2つの並行した道がそれを変えました。まず、学校にいる間にeコマース会社を立ち上げ、それがウェブプログラミングの基盤となりました。次に、数値解析の授業で魅力的な教師によって遺伝的アルゴリズムとシミュレーテッドアニーリングに触れました。これがプログラミングへの情熱を引き起こしました。特に、高性能コンピューティングやコンピュータビジョンなど、コンピュータがあなたのために働くことができる領域においてです。私のエンジニアリングプロジェクトは常にプログラミングの拡張を持っており、私は化学工学のインターンシップで衛星画像処理を行ったために一度手を叩かれたこともあります! 化学工学からAIへの移行中、どのような重要な瞬間がありましたか? 最初は医学部に行ってMD-PhDを追求し、医学研究とプログラミングを組み合わせるつもりでした。しかし、プログラミングとコンピュータビジョンに魅了され、AIで医療以上の大きな影響を与えることができることに気付きました。ディープラーニングの前では、コンピュータビジョンはより芸術的な要素があり、労働集約型のヒューリスティックが必要でした。ディープラーニングはそれを変え、複雑なルールを構築する必要がなくなりました。…

「エンタープライズAIの処理のための表現能力を向上させる鍵は、RAG + ファインチューニングです以下にその理由を説明します」

「ジェネレーティブAIはほとんどのCEOの頭にありますが、そのエンタープライズへの適応方法は議論の余地がありますその成功の鍵はRAGと微調整にある理由をここで説明します」

コロッシャン クリエーター レビュー: 最高のAIビデオジェネレーター?

AIビデオジェネレーターをお探しですか?このColossyan Creatorのレビューをチェックして、その特徴や他の選択肢との比較を学びましょう

LLMWareは、複雑なビジネスドキュメントを含む企業ワークフローに適した、生産用の微調整済みモデルであるRAG-Specialized 7BパラメータLLMを発表しました

先月、Ai BloksはエンタープライズグレードのLLMベースのワークフローアプリケーションを構築するための開発フレームワーク、llmwareのオープンソース発表を行いました。今日、Ai BloksはDRAGONシリーズ(Delivering RAG on …)として知られる7BパラメータLLMのリリースと共に、次世代のRAGフレームワークの提供に向けてさらなる大きな進展を遂げました。これらのLLMは、複雑なビジネスおよび法的文書に基づく事実に基づく質問応答の特定の目的で細かく調整され、ビジネスワークフロー向けに設計されています。 より多くの企業が自社独自の情報を使用してスケーラブルなRAGシステムを展開することを目指すにつれて、以下の複数のニーズが認識されています: LLMモデルを周囲のワークフロー機能(ドキュメントの解析、埋め込み、プロンプト管理、ソースの検証、監査追跡など)と統合する統一されたフレームワーク。 事実に基づく質問応答とビジネスワークフローに最適化された、高品質で小型の特化LLM。 オープンソースで費用対効果の高い、カスタマイズのための柔軟性とオプションを備えたプライベート展開。 これらのニーズに応えるため、LLMWareは、そのLLMWareのDRAGONモデルの7つをオープンソースで提供します。これらのモデルは、Hugging Faceリポジトリーにあり、すべてがエンタープライズ用のRAGワークフローにおいて強力なプロダクショングレードの準備が整ったリーディングの基本モデルをベースに細かく調整されています。 全てのDRAGONモデルは、llmware rag-instruct-benchmarkを用いて評価され、その完全なテスト結果と方法論はリポジトリ内のモデルと共に提供されています。それぞれのDRAGONモデルは、100のコアテスト質問の幅広いセットに対して中から高い精度を実現し、幻覚を防ぐための強い根拠を持ち、パッセージから質問に対する答えが得られない場合(「見つからない」分類など)を特定することができます。 DRAGONモデルファミリーは、他の2つのLLMWare RAGモデルコレクションであるBLINGとIndustry-BERTに加わります。 BLINGモデルは、開発者のノートパソコンで動作することが可能なGPU非必須のRAG専門の小型LLMモデル(1B〜3B)です。トレーニングの方法論が非常に似ているため、開発者はローカルのBLINGモデルから始め、本番でパフォーマンスを向上させるためにシームレスにDRAGONモデルに切り替えることができます。DRAGONモデルは、単一のエンタープライズグレードのGPUサーバー上でのプライベート展開を目的としており、企業は自社のセキュリティゾーンで安全かつプライベートにエンドツーエンドのRAGシステムを展開することができます。 このオープンソースのRAG専門モデルのスイートは、コアとなるLLMWare開発フレームワークとMilvusおよびMongo DBのオープンソースプライベートクラウドインスタンスとの統合を備えたエンドツーエンドのRAGソリューションを提供します。数行のコードで、開発者は数千のドキュメントの取り込みと解析、埋め込みベクトルのアタッチ、最新のLLMベースの生成推論の実行、証拠とソースの検証を自動化し、プライベートクラウドで実行することができます。場合によっては、単一の開発者のノートパソコンからさえ実行することができます。 AIブロックスのCEOであるダレン・オーベルストは、「私たちの信念は、LLM(低レイヤーマテリアル)が企業において新たな自動化ワークフローを可能にするということであり、私たちが提供するLLMWareのビジョンは、専門モデル、データパイプライン、すべての有効なコンポーネントを統合したオープンソースのフレームワークを通じて、企業が迅速にカスタマイズし、規模展開するためのLLMベースの自動化を実現することです。」と述べています。 詳細については、llmwareのgithubリポジトリを参照してください:www.github.com/llmware-ai/llmware.git。 モデルへの直接アクセスについては、llmwareのHuggingface組織ページをご覧ください:www.huggingface.co/llmware。

このAI論文では、大規模なマルチモーダルモデルの機能を拡張する汎用のマルチモーダルアシスタントであるLLaVA-Plusを紹介しています

“`html 多様な現実世界の活動を効率的に実行できる汎用アシスタントを作成することは、長年にわたり人工知能の目標となってきました。最近では、新しいマルチモーダルな理解とオープンワールドの課題における生成スキルを持つ基礎モデルの創造に関心が高まっています。自然言語タスクのための汎用アシスタントを生成する大規模言語モデル(LLMs)の有効性にもかかわらず、コンピュータビジョンとビジョン言語の活動に対するマルチモーダルで汎用性の高いアシスタントの作成方法はまだ見つかっていません。 マルチモーダルなエージェントを作成する現在の取り組みは、一般に2つのグループに分けることができます: (i) LLMを使用したエンドツーエンドのトレーニング。これにより、ビジュアル情報を解釈するためのLLMのトレーニングが連続的に行われ、画像テキストデータとマルチモーダルな命令実行データを使用して大規模なマルチモーダルモデル(LMMs)が作成されます。LLaVAやMiniGPT-4などのオープンソースのモデル、およびFlamingoやマルチモーダルGPT-4などの非公開のモデルは、印象的なビジュアル理解と推論スキルを示しています。これらのエンドツーエンドのトレーニングのアプローチは、LMMが状況に応じた学習などの新たなスキルを獲得するのには適していますが、実際の世界のマルチモーダルアプリケーションに不可欠な画像セグメンテーションや生成などの幅広い能力をシームレスに統合できる一貫したアーキテクチャを作成することはまだ難しい課題です。 (ii) LLMを使用したツールチェイン。これにより、LLMがトレーニングされたビジョンモデルなどのさまざまなツールを呼び出して必要な(サブ)タスクを実行することができるように、適切に設計されたプロンプトを使用します。VisProg、ViperGPT、Visual ChatGPT、X-GPT、MM-REACTなどがよく知られています。これらのアプローチの強みは、(新しい)ツールを安価に開発しAIエージェントに統合することで、さまざまなビジュアルタスクを処理できる能力です。ただし、プロンプトの柔軟性と信頼性を向上させる必要があります。広範で多様なツールセットから適切なツールを信頼性高く選択し、アクティブ化して最終的なマルチモーダルタスクの解決策を提供できるようにするためです。 図1:LLaVA-Plusが習得したスキルを活用した可能性を示すグラフィカルな表現。 清華大学、マイクロソフトリサーチ、ウィスコンシン大学マディソン校、香港科技大学、およびIDEA Researchの研究者は、この論文で、LLaVA-Plus(大規模な言語とビジョンアシスタント)を紹介しています。このマルチモーダルアシスタントは、視覚的な指示の微調整を通じてLMMの能力を体系的に強化するエンドツーエンドのトレーニング手法を用いてツールの使用スキルを獲得します。これまでに説明されたツールチェインとエンドツーエンドのトレーニングの利点を組み合わせる試みとして、これが初めて文書化された試みであると述べています。LLaVA-Plusに付属するスキルリポジトリには、多様なビジョンとビジョン言語のツールが豊富に用意されています。この設計は、「心の社会」という理論の例であり、個々のツールは特定のタスクのために作成され、それ単体では限定的な利用が可能ですが、これらのツールが組み合わさると、より高い知性を示す新たなスキルが生まれます。 例えば、LLaVA-Plusはユーザーのマルチモーダルな入力に応じて、新しいワークフローを即座に作成し、スキルライブラリから適切なツールを選択してアクティブ化し、その実行結果を組み立てて、モデルトレーニング中には見えない様々な実世界のタスクを完了することができます。指示の微調整により、LLaVA-Plusは時間の経過とともに追加の機能やインストゥルメントを獲得することが可能です。特定のユースケースや機能のために作成された新しいマルチモーダルツールを考えてみてください。調整のための指示実行データを作成するために、このツールを必要とする関連するユーザー指示とその実行結果または後続結果を収集します。指示の微調整後、LLaVA-Plusはこの新しいツールを使用して以前には不可能だったジョブを達成する方法を学習し、より多くの機能を獲得します。 “` さらに、LLaVA-Plusは、マルチモーダルツールと組み合わせて視覚的な手がかりのみを使用することによって、これまでのLLMのツール使用トレーニングに関する研究とは異なるアプローチを取っています。一方、LLaVA-Plusは、すべての人間-AI接触セッションで未処理の視覚信号を使用することにより、LMMの計画と推論の能力を向上させます。要約すると、彼らの論文の貢献は以下の通りです: • 新しいマルチモーダルの指示従属ツールに関するデータの使用。ChatGPTとGPT-4をラベリングツールとして使用し、人間-AIインタラクションセッションでのツールとして使用するための視覚言語の指示従属データの選択のための新しいパイプラインを説明しています。 • 新しい大規模なマルチモーダルヘルパー。彼らはLLaVAを補完する広範で多様な外部ツールの統合を含む、多くの用途を持つLLaVA-Plusを作成しました。図1は、LLMの可能性を大幅に拡張するLLaVA-Plusの様子を示しています。彼らの実証調査は、特に幅広い実世界の活動におけるVisiT-Benchでの新しいSoTAのより良い結果を一貫して示すことにより、LLaVA-Plusの有効性を確認しています。 • ソースフリー。彼らが公開する資料には、生成されたマルチモーダルの指示データ、コードベース、LLaVA-Plusのチェックポイント、およびビジュアルチャットデモが含まれます。

FastAPIとDockerを使用してPyTorchモデルを提供する

「個人のマシン/ディープラーニングのプロジェクトに取り組むことはとても楽しいです夜になると、ラップトップの前で好きなことをコーディングしたり、興味深い論文を読んだり、締切りもありません...」

地図の課題に挑む:「#30DayMapChallenge」を半分過ぎて

「世界の広さを視覚化することは容易なことではありませんしかし、それに少し近づくために、この11月、私は#30DayMapChallengeに参加しています私は地理的な可視化に魅了されてきました…」

「生成AIの新たなフロンティア—クラウドからは遠くに」

最初に、インターネットがありましたそれは私たちの生活を永遠に変えましたコミュニケーションの方法、ショッピングの仕方、ビジネスのやり方も含めてですそして、遅延やプライバシー、コスト効率の理由から、インターネットはネットワークのエッジに移り、物のインターネットが生まれましたそして今、人工知能がありますそれによって私たちがインターネット上で行うすべてのことが変わります...

「ReactJSとChatGPTの統合:包括的なガイド」

この包括的なガイドでは、ChatGPTの基礎を探求し、ReactJSとの統合の手順をステップバイステップで詳しく説明します

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us