Learn more about Search Results A - Page 173

「プラネットデータとAmazon SageMakerの地理空間能力を活用して、クロップセグメンテーションの機械学習モデルを構築する」

この分析では、K最近傍法(KNN)モデルを使用して、作物セグメンテーションを実施し、農業地域における地上の真相画像とこれらの結果を比較します私たちの結果は、KNNモデルによる分類が、2015年の地上の真相分類データよりも2017年の現在の作物畑の状態をより正確に表していることを示していますこれらの結果は、Planetの高頻度の地球規模の画像の力を示しています農業畑は頻繁に変化し、シーズンによっては複数回変化することがありますが、この土地を観察し分析するために高頻度の衛星画像が利用可能であることは、農業地や急速に変化する環境の理解にとって非常に価値のあるものとなります

「メタのCode Llamaコード生成モデルは、Amazon SageMaker JumpStartを介して利用可能になりました」

今日は、Metaが開発したCode Llama foundationモデルが、Amazon SageMaker JumpStartを通じて顧客に提供され、クリックひとつで推論を実行するためにデプロイできることをお知らせすることを喜んでいますCode Llamaは、コードと自然言語のプロンプトの両方からコードとコードに関する自然言語を生成することができる最新の大規模言語モデル(LLM)ですCode[…]

「AWS AI サービスと Amazon Bedrock によるインテリジェント ドキュメント処理」

ヘルスケア、ファイナンス、法律、小売、製造などの業界の企業は、日々の業務の一環として大量の書類を扱うことがよくありますこれらの書類には、タイムリーな意思決定を促進し、一流の顧客満足度を確保し、顧客の離反を減らすために不可欠な重要情報が含まれています伝統的には、書類からのデータの抽出は...

カスタム分類モデルでの予測の品質を向上させるには、Amazon Comprehendを使用します

この記事では、Amazon Comprehendを使用してカスタム分類モデルを構築し最適化する方法について説明しますAmazon Comprehendのカスタム分類を使用して、マルチラベルのカスタム分類モデルを構築する方法をデモンストレーションし、トレーニングデータセットの準備とモデルのチューニングについてのガイドラインを提供します精度、適合率、再現率、F1スコアなどのパフォーマンスメトリックを満たすためにモデルを調整する方法も解説します

「AWS Trainiumを使用した高速で費用効果の高いLLaMA 2の微調整」

大型言語モデル(LLM)は、開発者、科学者、技術者、起業家、および様々な産業の経営者たちの想像力と注意を引いていますこれらのモデルは、問題解決、要約、翻訳などに使用することができ、カスタマーサポートの会話エージェント、マーケティングのためのコンテンツ作成、コーディングアシスタントなどの応用分野で活用されています最近、MetaはLlama 2をリリースしました

「Amazon SageMaker JumpStartを使用してFalconでHCLS文書要約アプリケーションを作成する」

健康医療と生命科学(HCLS)の顧客は、より多くのデータを活用するために生成AIをツールとして採用していますユースケースには、ドキュメントの要約化が含まれており、読者が文書の要点に焦点を当てるのを支援し、非構造化テキストを標準化された形式に変換して重要な属性を強調することがあります固有のデータ形式と厳格な規制要件がありますので、顧客の要件に対応するために[…]

SlackメッセージのLLM微調整

編集者のコメント:Eli Chenさんは、10月30日から11月2日まで開催されるODSC Westのスピーカーです彼の「SlackメッセージでのLLMsの微調整」にぜひ参加してくださいHuggingFaceのライブラリのおかげで、LLMsの微調整はとても簡単ですこのチュートリアルでは、事前学習済みモデルを適応させてテキストを生成する方法を詳しく説明します...

「🧨 JAXを使用したCloud TPU v5eでの高速で安定したXL推論の拡散を加速する」

生成AIモデルであるStable Diffusion XL(SDXL)などは、幅広い応用において高品質でリアルなコンテンツの作成を可能にします。しかし、このようなモデルの力を利用するには、大きな課題や計算コストが伴います。SDXLは、そのUNetコンポーネントがモデルの以前のバージョンのものよりも約3倍大きい大きな画像生成モデルです。このようなモデルを実稼働環境に展開することは、増加したメモリ要件や推論時間の増加などの理由から難しいです。今日、私たちはHugging Face DiffusersがJAX on Cloud TPUsを使用してSDXLをサポートすることを発表できることを大いに喜んでいます。これにより、高性能でコスト効率の良い推論が可能になります。 Google Cloud TPUsは、大規模なAIモデルのトレーニングや推論を含む、最先端のLLMsや生成AIモデルなどのために最適化されたカスタムデザインのAIアクセラレータです。新しいCloud TPU v5eは、大規模AIトレーニングや推論に必要なコスト効率とパフォーマンスを提供するよう特別に設計されています。TPU v4の半分以下のコストで、より多くの組織がAIモデルのトレーニングと展開が可能になります。 🧨 Diffusers JAX連携は、XLAを介してTPU上でSDXLを実行する便利な方法を提供します。それに対応するデモも作成しました。このデモは、時間のかかる書式変換や通信時間、フロントエンド処理を含めて約4秒で4つの大きな1024×1024の画像を提供するために複数のTPU v5e-4インスタンス(各インスタンスに4つのTPUチップがあります)で実行されます。実際の生成時間は2.3秒です。以下で詳しく見ていきましょう! このブログ記事では、 なぜJAX + TPU + DiffusersはSDXLを実行するための強力なフレームワークなのかを説明します。…

OpenAIがDALL-E 3を公開し、ユーザーはChatGPTで画像を生成することができます

OpenAIは、研究プレビューの一環として、今週DALL-Eの最新バージョンであるDALL-E-3を公開しましたAIスタートアップのブログ投稿によると、DALL-E 3は、以前のシステムよりもはるかに詳細で微妙なニュアンスを理解していますエンタープライズおよびChatGPT Plusの顧客にとって、DALL-E 3は利用可能になります...

GenAIにとっての重要なデータファブリックとしてのApache Kafka

ジェンAI、チャットボット、およびミッションクリティカルな展開での大規模言語モデルのリアルタイム機械学習インフラとしてのApache Kafka

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us