Learn more about Search Results this - Page 16

「どのテキストもコンセプトのグラフに変換する方法」

テキストコーパスから知識グラフ(コンセプトグラフ)をMistral 7Bを使用して作成する

「Amazon SageMaker Model Registry、HashiCorp Terraform、GitHub、およびJenkins CI/CDを使用して、マルチ環境設定でのパイプラインの促進を行う」

「機械学習運用(MLOps)プラットフォームを組み立てることは、人工知能(AI)と機械学習(ML)の急速に進化する状況において、データサイエンスの実験と展開のギャップをシームレスに埋めるため、モデルのパフォーマンス、セキュリティ、コンプライアンスの要件を満たす組織にとって必要不可欠です規制とコンプライアンスの要件を満たすためには、[…]」

潜在一貫性LoRAsによる4つのステップでのSDXL

潜在的一貫性モデル(LCM)は、ステーブルディフュージョン(またはSDXL)を使用してイメージを生成するために必要なステップ数を減らす方法です。オリジナルモデルを別のバージョンに蒸留し、元の25〜50ステップではなく4〜8ステップ(少ない)だけを必要とするようにします。蒸留は、新しいモデルを使用してソースモデルからの出力を再現しようとするトレーニング手順の一種です。蒸留されたモデルは、小さく設計される場合があります(これがDistilBERTや最近リリースされたDistil-Whisperの場合)または、この場合のように実行に必要なステップ数を減らします。これは通常、膨大な量のデータ、忍耐力、およびいくつかのGPUが必要な長時間かかる高コストのプロセスです。 それが今日までの現状でした! 私たちは、Stable DiffusionとSDXLを、まるでLCMプロセスを使用して蒸留されたかのように、速くする新しい方法を発表できることを喜ばしく思います!3090で7秒の代わりに約1秒、Macで10倍速くSDXLモデルを実行する、というのはどうですか?詳細は以下をご覧ください! 目次 メソッドの概要 なぜこれが重要なのか SDXL LCM LoRAsによる高速推論 品質の比較 ガイダンススケールとネガティブプロンプト 品質 vs. ベースのSDXL 他のモデルとのLCM LoRAs フルディフューザーズの統合 ベンチマーク 今日リリースされたLCM LoRAsとモデル ボーナス:通常のSDXL LoRAsとの組み合わせ LCM…

武士と鬼の世界に入りましょう:GFN Thursdayがカプコンの「鬼武者」をクラウドにもたらします

刃を振りかざし、サムライの道を受け入れ、スリリングなアクションを楽しんでください。 Onimusha: Warlordsが今週GeForce NOWに登場します。メンバーはこのハックアンドスラッシュ冒険ゲームで、クラウド上で日本の封建時代を体験することができます。 これは豪華なGFN Thursdayの一環であり、16のゲームがクラウドゲームプラットフォームのライブラリに追加されます。 運命を鍛える 復讐は私のもの。 カプコンの人気ゲーム、Onimusha: Warlordsが今週、クラウド上で新たにサポートされました。まさに最近公開されたNetflixのアニメのアダプテーションに合わせてのものです。 邪悪な戦国武将信長織田と彼の鬼の軍勢に立ち向かい、侍・明智左々介として戦いましょう。封建時代の日本を探索し、剣を振りかざし、忍者の技を使い、パズルを解いて敵を倒してください。このアクションアドベンチャーハックアンドスラッシュゲームは、よりスムーズな剣術メカニクスのために改善されたコントロール、最新のサウンドトラックなどで強化されています。 Ultimateメンバーは、迫力あるサムライアクションのために、ウルトラワイド解像度でゲームをストリーミングできます。 エンドレスなゲーム モンスター、危険、秘密、宝物、オーマイゴッド! ローグライトファンとGeForce NOWメンバーは、セガのEndless Dungeonをクラウド上で楽しんでいます。難破船に乗った英雄たちのチームを募り、久しく放棄された宇宙ステーションに飛び込み、絶え間なく押し寄せるモンスターの波からクリスタルを守ります。絶対に敗北を受け入れず、リロードして何度でも挑戦しましょう。 さらに、今週GeForce NOWライブラリに新たに追加された16のゲームをチェックしてください: The Invincible (新作、Steam、11月6日) Roboquest (新作、Steam、11月7日)…

「PythonでゼロからGANモデルを構築およびトレーニングする」

GAN(Generative Adversarial Networks)は、新しいリアルな画像を合成することができる強力な生成モデルの一種です読者は完全な実装を通じて進んでいくことで、GANがどのように機能するかについての堅固な理解を深めることができます...

「AWS Inferentia2を使って、あなたのラマ生成時間を短縮しましょう」

Hugging Faceブログの前の投稿で、第2世代のAWS InferentiaアクセラレータであるAWS Inferentia2を紹介し、optimum-neuronを使用して、標準のテキストとビジョンタスクのためにHugging FaceモデルをAWS Inferentia 2インスタンス上で迅速に展開する方法を説明しました。 AWS Neuron SDKとのさらなる統合の一環として、🤗optimum-neuronを使用して、AWS Inferentia2上でテキスト生成のためのLLMモデルを展開することができるようになりました。 デモンストレーションには、Llama 2、ハブで最も人気のあるモデルの一つ、を選択するのが最も適しています。 Inferentia2インスタンスに🤗optimum-neuronをセットアップする おすすめは、Hugging Face Neuron Deep Learning AMI(DLAMI)を使用することです。DLAMIには、必要なライブラリが事前にパッケージ化されており、Optimum Neuron、Neuron Drivers、Transformers、Datasets、およびAccelerateも含まれています。 また、Hugging Face…

「KOSMOS-2:Microsoftによるマルチモーダルな大規模言語モデル」

イントロダクション 2023年はAIの年となりました。言語モデルから安定した拡散モデルの強化にSegMind APIを使うまで、AI技術は進化し続けています。その中で、Microsoftが開発したKOSMOS-2が注目を浴びています。これはマイクロソフトによって開発されたマルチモーダルの大規模言語モデル(MLLM)であり、テキストと画像の理解力において画期的な能力を発揮しています。言語モデルを開発することは一つのことですが、ビジョンモデルを作成することは別のことです。しかし、両方の技術を組み合わせたモデルを持つことは、さらなるレベルの人工知能を実現することになります。この記事では、KOSMOS-2の特徴と潜在的な応用について掘り下げ、AIと機械学習への影響を解説します。 学習目標 KOSMOS-2のマルチモーダル大規模言語モデルの理解 KOSMOS-2のマルチモーダルグラウンディングと参照表現生成の仕組みの学習 KOSMOS-2の現実世界での応用について洞察を得る KOSMOSを使ったColabでの推論の実行 この記事はデータサイエンスブログマラソンの一部として公開されました。 KOSMOS-2モデルの理解 KOSMOS-2はマイクロソフトの研究チームによる研究成果で、そのタイトルは「Kosmos-2: Grounding Multimodal Large Language Models to the World(KOSMOS-2:マルチモーダル大規模言語モデルのグラウンディング)」です。テキストと画像を同時に処理し、マルチモーダルデータとの相互作用を再定義することを目指して設計されたKOSMOS-2は、他の有名なモデルであるLLaMa-2やMistral AIの7bモデルと同様にトランスフォーマーベースの因果言語モデルのアーキテクチャを採用しています。 しかし、KOSMOS-2の特徴はその独自のトレーニングプロセスです。特殊なトークンとして画像内のオブジェクトへの参照を含むテキストである、GRITと呼ばれる巨大なデータセットでトレーニングされています。この革新的なアプローチにより、KOSMOS-2はテキストと画像の新たな理解を提供することができます。 マルチモーダルグラウンディングとは何ですか? KOSMOS-2の特徴的な機能の一つは、「マルチモーダルグラウンディング」の能力です。これは、画像のオブジェクトとその位置を記述するイメージキャプションを生成することができるという意味です。これにより、言語モデルにおける「幻覚」の問題を劇的に減少させ、モデルの精度と信頼性を向上させることができます。 この概念は、テキストを画像内のオブジェクトに特殊なトークンを通じて接続し、実質的にはオブジェクトを視覚的な文脈に結びつけるというものです。これにより幻覚が減少し、正確なイメージキャプションの生成能力が向上します。…

「LLM革命:言語モデルの変革」

イントロダクション 言語モデルの世界は、特に大規模言語モデル(LLM)の登場により、過去数年間で劇的な進化を遂げました。これらのモデルは、数十億のパラメータと自然言語の深い理解を備えており、人工知能の分野を変革するのに重要な役割を果たしてきました。今日は、この革命を探求し、クローズドソースからオープンソースのLLMへの移行、ファインチューニングの重要性、そして最近登場した効率的なファインチューニング技術の開発に焦点を当てます。 学習目標: クローズドソースとオープンソースのLLMの違いを知る。 LLMの伝統的なファインチューニングとパラメータ効率のファインチューニングを理解する。 異なるパラメータ効率のファインチューニング戦略を探索する。 効率的なファインチューニングのためのLudwigの使用方法を学ぶ。 クローズドソース vs オープンソースのLLM:適切なアプローチの選択 言語モデルの景色は、OpenAIなどの企業が提供するクローズドソースのモデルと、Meta、Googleなどの機関が提供するオープンソースのバリアントとの2分することがありました。ChatGPT、GPT 3.5、GPT 4などのクローズドソースのLLMは、管理されたインフラストラクチャと迅速なプルーフオブコンセプトの能力により、魅力的な出発点を提供します。これらのモデルは、高品質の事前学習データセットを提供し、インフラストラクチャのセットアップは不要であり、LLMの能力を探求する人々にとって簡単な入り口となります。 しかし、アクセス性にもかかわらず、クローズドソースのLLMには根本的な制約があります。これらはモデルの所有権を欠き、最小限のカスタマイズ能力しか提供せず、特にデータプライバシーやモデルの制御が重要なセクターでは、長期的な投資には適していません。これに対し、オープンソースのLLMは有望な代替手段です。完全なモデルの所有権とカスタマイズが可能であり、オープンソースの領域での革新的な開発への即時アクセスを容易にします。そのトレードオフは、これらのモデルを自己ホスティングするための費用と課題です。 伝統的なファインチューニング vs パラメータ効率のファインチューニング ファインチューニングは、特にドメイン固有のタスクを考慮する際に、LLMの潜在能力を最大限に引き出すための重要なプロセスとして浮かび上がります。クローズドソースのモデルは、ファインチューニングに必要な柔軟性を欠いている一方、オープンソースのモデルはこのプロセスに完全な制御を提供します。ファインチューニングにより、事前学習済みのLLMを特定のタスクに適応させるためにモデルの重みを更新し、パフォーマンスを向上させることができます。これは一般的なモデルを専門的なアプリケーションに合わせてパーソナライズする手段であり、ユニークなタスクのためにパフォーマンスを最適化することを可能にします。 ファインチューニングとRetrieval Augmented Generation(RAG)などのモデルの間の議論は、特定のタスクに合わせたモデルの必要性と一般的な目的を持つ知能の間の関係に焦点を当てています。LLMのオープンソースの性質は、カスタマイズと効率的なファインチューニングを可能にし、優れたタスク固有のパフォーマンスを実現するために必要です。 伝統的なファインチューニングには、すべてのモデルのパラメータを更新するというリソースを多く消費し、時間がかかり、必ずしも最適なタスク固有のパフォーマンスをもたらすわけではありませんというプロセスの制約があります。しかし、パラメータ効率のファインチューニングにおける最近のイノベーションは、この制約を打破しました。事前学習済みのLLMを凍結し、非常に小さなセットのタスク固有のレイヤーのみをトレーニングすることにより、効率的なファインチューニングはリソースに優しく、より効果的な方法で行われます。 パラメータ効率のファインチューニングへの移行は、LLMを特定のタスクに適応させる方法に大きな影響を与えています。タスク固有のレイヤーの最小限のセットのみに焦点を当てることにより、プロセスは費用効果が高く、時間効率が良くなります。この革新的なアプローチにより、データセットが小さくても最適なタスク固有のパフォーマンスが実現され、クローズドソースのモデルに比べてオープンソースのLLMの潜在能力が示されます。 MetaによるLIMA論文などの研究は、GPT…

「Phindの新しいAIモデルは、コーディングにおいてGPT-4よりも優れており、GPT-3.5のような速度と16kのコンテキストを持っています」

“`html コーディングや技術的な問題解決では、複雑な質問に対する回答を求める際に速さと正確さのトレードオフがあります。開発者はしばしば迅速かつ信頼性のあるサポートが必要とされます。 GPT-4は応答時間が比較的遅いことが問題でした。回答を得るための遅延は生産性を阻害することがあります。 Phindのv7モデルは、GPT-4のコーディング能力を超える優れた速さでこれを行います。応答時間が5倍になり、Phindモデルは前任者に関連する50秒の待ち時間がかかることに比べて、たった10秒で技術的な質問に対する高品質な回答を提供します。 Phindモデルは7世代目になり、CodeLlama-34B fine-tunesの基盤を活用して構築されています。これは、HumanEvalスコアでGPT-4を上回る最初のモデルです。この新しいモデルは、高品質のコードと推論問題の70兆トークンを使って洗練されました。人間評価スコアが74.7%という素晴らしい成績を収めつつも、実世界での助けに関しては、このような指標を超越することも重要です。包括的なフィードバック収集とユーザーの経験を通じて、Phindモデルは実用的なコーディングシナリオでGPT-4の効用を一貫して満たすか上回る能力を示しています。 Phindモデルの一つの特徴はその速さです。NVIDIAのH100sとTensorRT-LLMライブラリのパワーを活用することで、1秒あたりに印象的な100トークンを単一ストリームで処理し、必要なユーザーに素早くサポートを提供することができます。 さらに、Phindモデルは広範なコンテキストを提供し、回答に最大で16,000トークンをサポートします。現在、モデルはウェブサイト上で12,000トークンまでの入力を許可し、残りの4,000トークンはウェブベースの結果に予約されています。 Phindモデルは多くの利点を提供していますが、改善が必要な領域もあることを認識する価値があります。特に複雑な問題の処理において、一貫性が課題となる場合があります。これらのケースでは、GPT-4よりも正しい答えに到達するまでにより多くの世代が必要な場合があります。 まとめると、Phindモデルは効率的で信頼性のあるコーディングサポートの持続的な問題への有望な解決策です。優れたコーディング能力と素晴らしい速さ、幅広いコンテキストサポートを組み合わせることで、ユーザーへの実世界の助けを提供する効果を持っています。このモデルが進化し続け、残された課題に取り組んでいく中で、技術的な質問の回答方法を革新し、開発者やテック愛好家により効率的かつ生産的なコーディング体験を提供する可能性を秘めています。 Phindの新しいAIモデルが、GPT-4を超えるコーディング能力とGPT-3.5のような高速性と16kコンテキストを持つは、最初にMarkTechPostで公開されました。 “`

「40歳以上の方にオススメのAIツール(2023年11月版)」

DeepSwap DeepSwapは、説得力のあるディープフェイクのビデオと画像を作成したいすべての人のためのAIベースのツールです。ビデオ、写真、ミーム、古い映画、GIFなど、あらゆるコンテンツをリフェーシングしてコンテンツを作成することは非常に簡単です。このアプリはコンテンツの制限がないため、ユーザーは任意のコンテンツの素材をアップロードすることができます。また、初めて製品の定期購読者になると、50%オフの特典があります。 Aragon Aragonを使用して驚くほど素晴らしいプロフェッショナルなヘッドショットを簡単に作成しましょう。最新のAI技術を活用して、自分自身の高品質なヘッドショットを瞬時に作成しましょう!写真スタジオの予約や着飾る手間を省略しましょう。写真の編集と修正をすばやく行い、数日後ではなくすぐに受け取りましょう。次の仕事を得るための優位性をもたらす40枚のHD写真を受け取りましょう。 AdCreative.ai AdCreative.aiを使用して、広告とソーシャルメディアのパフォーマンスを向上させましょう。究極の人工知能ソリューションであるAdCreative.aiによって、数秒で変換率の高い広告やソーシャルメディア投稿を生成する手間を省けます。AdCreative.aiを使って成功を最大化し、努力を最小化しましょう。 Hostinger AI Website Builder Hostingerは最先端の人工知能エンジンの力を借りて、すべてのウェブサイトオーナーのために最高のAIウェブサイトビルダーを作成しています。ビルダーはデザインプロセスを案内し、レイアウト、カラースキーム、コンテンツの配置を自分のニーズに合わせて提案します。あらゆるデバイスに対応したレスポンシブデザインを維持しながら、細部を自由にカスタマイズする自由を受け入れましょう。 Otter AI Otter.AIを使用することで、リアルタイムの会議の要約、検索、アクセス可能性、セキュリティを備えた共有可能な会議のノートの作成が可能になります。音声を録音し、メモを取り、自動的にスライドをキャプチャし、要約を生成する会議アシスタントを手に入れましょう。 Notion Notionは、高度なAI技術を活用してユーザーベースを拡大しようとしています。最新の機能であるNotion AIは、ノートの要約、会議でのアクションアイテムの特定、テキストの作成と修正などのタスクをサポートする堅牢な生成型AIツールです。Notion AIは、煩雑なタスクを自動化し、ユーザーに提案やテンプレートを供給することでワークフローを効率化し、ユーザーエクスペリエンスを簡素化し、改善します。 Codium AI 忙しい開発者向けに意味のあるテストを生成します。CodiumAIを使用すると、IDE内で直接提案される複雑な(および単純な)テストを取得できるため、スマートにコーディングし、価値を高め、押し込む際の自信を持つことができます。CodiumAIを使用することで、開発者はテストとコードの分析に費やす時間を節約しながら、より速くイノベーションを実現できます。 Docktopus AI Docktopusは、100以上のカスタマイズ可能なテンプレートを備えたAIパワープレゼンテーションツールで、オンラインコンテンツ作成を簡素化します。数秒でプロフェッショナルなプレゼンテーションを作成できます。…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us