Learn more about Search Results boto3 - Page 7

アマゾンセージメーカーの地理空間機能を使用して、齧歯類の被害を分析する

「ネズミやネズミなどのげっ歯類は、多くの健康リスクと関連しており、35以上の病気を広めることが知られています高いネズミの活動がある地域を特定することは、地方自治体や害虫駆除組織が効果的な介入計画を立て、ネズミを駆除するのに役立ちますこの記事では、どのように監視し、視覚化するかを紹介します...」

「Amazon LexをLLMsで強化し、URLの取り込みを使用してFAQの体験を向上させる」

「現代のデジタル世界では、ほとんどの消費者は、ビジネスやサービスプロバイダに問い合わせるために時間をかけるよりも、自分自身でカスタマーサービスの質問に対する回答を見つけることを好む傾向にありますこのブログ記事では、ウェブサイトの既存のFAQを使用して、Amazon Lexで質問応答チャットボットを構築する革新的なソリューションについて探求します[...]」

「Amazon SageMaker Studioを使用してAmazon RedshiftクラスターのクロスアカウントアクセスをVPCピアリングで構成する」

クラウドコンピューティングにより、計算能力とデータがより利用可能になったことで、機械学習(ML)は今やあらゆる産業に影響を与え、すべてのビジネスや産業の核となっていますAmazon SageMaker Studioは、ウェブベースの視覚的なインターフェースを持つ、初めての完全統合型ML開発環境(IDE)ですすべてのML開発を行うことができます[…]

「AWSサービスを使用して完全なウェブアプリケーションを構築する」

はじめに AWSを学び始めるとき、通常、いくつかのコアサービスのような一部の情報を学びます。AWSコンソールで作業し、新しいEC2インスタンスやS3バケットを作成し、そこに何かをアップロードできます。しかし、ほとんどの場合、これらのサービスを実際のアプリケーションに組み合わせることはできませんでした。私たちは学んできたさまざまなAWSサービスを知っていましたが、それらを実際の使えるものに組み合わせることはできませんでした。同じように感じている場合、正しい場所に来ました。この記事を終えると、AWSでホストされるパスワードマネージャーアプリケーションを構築できるようになります。このアプリケーションはAWSサーバーで計算を行い、ユーザーデータはAPI Gatewayを介してバックエンドサーバーに送信され、最終結果はブラウザでユーザーに表示され、データはAWSデータベースに保存されます。 さらに進む前に、AWSアカウントとコンソールへのアクセスがあることを確認してください。AWSの前の知識はこの記事に必要ではありませんが、基本的な理解があると有益です。もし知らない場合でも、私たちがアプリケーションを構築しているため、それに沿って進むことができるはずです。この記事はAWSのサービスの詳細について深く掘り下げることを意図しているわけではありませんが、それらをすべて組み合わせて動作するアプリケーションに結び付けることを意図しています。 学習目標 異なるAWSサービスを統合してエンドツーエンドのWebアプリケーションを作成する。 AWS Amplifyを使用してWebアプリケーションをデプロイおよびホストする方法を学ぶ。 AWS Lambdaを使用してバックエンドサーバーを作成する方法を学ぶ。 フロントエンドとバックエンドのコンポーネント間のデータ転送にAPI Gatewayを使用する方法を学ぶ。 AWS DynamoDBデータベースからデータを保存および取得する方法を学ぶ。 構築するサービスとアプリケーションの概要 この記事では、上記の画像に示すように、5つのAWSサービスを使用してエンドツーエンドのWebアプリケーションをゼロから構築します。名前、長さ、およびパスワードのプロパティ(大文字、小文字、数字、特殊文字)を入力として受け取り、セキュアなパスワードを生成および保存するセキュアパスワードマネージャーアプリケーションを作成します。これはシンプルなアプリケーションですが、より大規模な実世界のアプリケーションを構築するために必要な主要なコンポーネントをすべて結び付けています。 このアプリケーションを構築するためには何をする必要がありますか? 1. ウェブページを作成してホストする必要があります。 2. パスワード生成機能を呼び出す方法が必要です。 3. 結果を返す計算を行う方法が必要です。 4.…

「Amazon SageMakerトレーニングワークロードで@remoteデコレータを使用してプライベートリポジトリにアクセスする」

「ますます多くの顧客が機械学習(ML)のワークロードを本番環境に展開しようとする中、MLコードの開発ライフサイクルを短縮するために、組織内での大きな推進があります多くの組織は、試験的なスタイルではなく、Pythonのメソッドやクラスの形式でMLコードを本番向けに書くことを好みます」

「Amazon SageMakerのトレーニングワークロードで、@remoteデコレータを使用してプライベートリポジトリにアクセスする」

「機械学習(ML)のワークロードを本番環境に展開しようとする顧客がますます増えているため、MLコードの開発ライフサイクルを短縮するための組織内での大きな取り組みが行われています多くの組織は、探索的スタイルではなく、Pythonのメソッドとクラスの形式で、本番環境に対応したスタイルでMLコードを記述することを好む...」

パートナーシップ:Amazon SageMakerとHugging Face

この笑顔をご覧ください! 本日、私たちはHugging FaceとAmazonの戦略的パートナーシップを発表しました。これにより、企業が最先端の機械学習モデルを活用し、最新の自然言語処理(NLP)機能をより迅速に提供できるようになります。 このパートナーシップを通じて、Hugging Faceはお客様にサービスを提供するためにAmazon Web Servicesを優先的なクラウドプロバイダーとして活用しています。 共通のお客様に利用していただくための第一歩として、Hugging FaceとAmazonは新しいHugging Face Deep Learning Containers(DLC)を導入し、Amazon SageMakerでHugging Face Transformerモデルのトレーニングをさらに簡単にする予定です。 Amazon SageMaker Python SDKを使用して新しいHugging Face DLCにアクセスし、使用する方法については、以下のガイドとリソースをご覧ください。 2021年7月8日、私たちはAmazon SageMakerの統合を拡張し、Transformerモデルの簡単なデプロイと推論を追加しました。Hugging…

Amazon SageMakerを使用して、Hugging Faceモデルを簡単にデプロイできます

今年早くも、Hugging FaceをAmazon SageMakerで利用しやすくするためにAmazonとの戦略的な協力を発表し、最先端の機械学習機能をより速く提供することを目指しています。新しいHugging Face Deep Learning Containers (DLCs)を導入し、Amazon SageMakerでHugging Face Transformerモデルをトレーニングすることができます。 今日は、Amazon SageMakerでHugging Face Transformersを展開するための新しい推論ソリューションを紹介します!新しいHugging Face Inference DLCsを使用すると、トレーニング済みモデルをわずか1行のコードで展開できます。また、Model Hubから10,000以上の公開モデルを選択し、Amazon SageMakerで展開することもできます。 SageMakerでモデルを展開することで、AWS環境内で簡単にスケーリング可能な本番用エンドポイントが提供されます。モニタリング機能やエンタープライズ向けの機能も組み込まれています。この素晴らしい協力を活用していただければ幸いです! 以下は、新しいSageMaker Hugging Face…

Hugging Face TransformersとAWS Inferentiaを使用して、BERT推論を高速化する

ノートブック:sagemaker/18_inferentia_inference BERTとTransformersの採用はますます広がっています。Transformerベースのモデルは、自然言語処理だけでなく、コンピュータビジョン、音声、時系列でも最先端のパフォーマンスを達成しています。💬 🖼 🎤 ⏳ 企業は、大規模なワークロードのためにトランスフォーマーモデルを使用するため、実験および研究フェーズから本番フェーズにゆっくりと移行しています。ただし、デフォルトでは、BERTとその仲間は、従来の機械学習アルゴリズムと比較して、比較的遅く、大きく、複雑なモデルです。TransformersとBERTの高速化は、将来的に解決すべき興味深い課題となるでしょう。 AWSはこの課題を解決するために、最適化された推論ワークロード向けに設計されたカスタムマシンラーニングチップであるAWS Inferentiaを開発しました。AWSは、AWS Inferentiaが「現行世代のGPUベースのAmazon EC2インスタンスと比較して、推論ごとのコストを最大80%低減し、スループットを最大2.3倍高める」と述べています。 AWS Inferentiaインスタンスの真の価値は、各デバイスに搭載された複数のNeuronコアを通じて実現されます。Neuronコアは、AWS Inferentia内部のカスタムアクセラレータです。各Inferentiaチップには4つのNeuronコアが搭載されています。これにより、高スループットのために各コアに1つのモデルをロードするか、低レイテンシのためにすべてのコアに1つのモデルをロードすることができます。 チュートリアル このエンドツーエンドのチュートリアルでは、Hugging Face Transformers、Amazon SageMaker、およびAWS Inferentiaを使用して、テキスト分類のBERT推論を高速化する方法を学びます。 ノートブックはこちらでご覧いただけます:sagemaker/18_inferentia_inference 以下の内容を学びます: 1. Hugging Face TransformerをAWS Neuronに変換する 2.…

Amazon SageMakerのHugging Face LLM推論コンテナをご紹介します

これは、オープンソースのLLM(Large Language Model)であるBLOOMをAmazon SageMakerに展開し、新しいHugging Face LLM Inference Containerを使用して推論を行う方法の例です。Open Assistantデータセットで訓練されたオープンソースのチャットLLMである12B Pythia Open Assistant Modelを展開します。 この例では以下の内容をカバーしています: 開発環境のセットアップ 新しいHugging Face LLM DLCの取得 Open Assistant 12BのAmazon SageMakerへの展開 モデルを使用して推論およびチャットを行う…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us