Learn more about Search Results A - Page 178

「Solana(SOL)を購入する方法」

第4世代のブロックチェーンおよび仮想通貨であるSolana(SOL)は、驚異的なスケーラビリティを提供するためにオープンなインフラストラクチャを活用して自己を区別していますこのネットワークは、革新的で独特な技術の一連を導入し、ユーザーが前例のないトランザクションの速度とエンタープライズクラスのセキュリティを体験することを保証しますその結果、2017年の創設以来、ネットワークは大幅に拡大し、現在は簡単に... Solana(SOL)の購入方法はこちら »

フェイスブックデータ分析のためのWekaライブラリの活用

「Wekaライブラリを活用してFacebookデータの分析、前処理、特徴選択、クラスタリングを行い、ユーザーの行動に関する洞察を得るために活用します」

「Azureのコストを最適化するための10の方法」

この記事では、Azureのコスト削減のヒントを提供し、組織がAzureの支出を削減するためのさまざまな方法と予算の追跡方法を説明します

「動きのあるAIトレンドに対応するAPI戦略の適応」

AIは最近注目を集めていますこの記事では、APIを使用して製品を開発している私たちにとって、AIのトレンドがどういう意味を持つのかを探求します

『Amazon Bedrockの一般提供が発表されました』

Amazon Bedrockをご紹介しますこれは画期的な開発であり、Amazonは人工知能の景色を再構築すると約束しています4月に発表されたAmazon Bedrockは、革新的なAIモデルを完全に管理されたサービスとして提供し、組織の運営にシームレスに統合しますこの発表については、データおよび...

「Non-engineers guide LLaMA 2チャットボットのトレーニング」となります

イントロダクション このチュートリアルでは、誰でも一行のコードを書かずにオープンソースのChatGPTを構築する方法を紹介します!LLaMA 2ベースモデルを使用し、オープンソースのインストラクションデータセットでチャット用に微調整し、そのモデルを友達と共有できるチャットアプリにデプロイします。クリックだけで偉大さへの道を歩むことができます。😀 なぜこれが重要なのか?特にLLM(Large Language Models)を含む機械学習は、私たちの個人生活やビジネスにおいて重要なツールとなり、過去に例のないほど人気が高まっています。しかし、MLエンジニアリングの専門的なニッチ分野ではないほとんどの人々にとって、これらのモデルのトレーニングとデプロイメントの複雑さは手が届かないもののように思えます。機械学習の予想される未来が普遍的な個別のモデルで満たされるものになるのであれば、非技術的なバックグラウンドを持つ人々にこの技術を独自に活用する力を与えるには、将来的に課題が待ち受けています。 Hugging Faceでは、この包括的な未来への道を静かに築くために働いてきました。Spaces、AutoTrain、Inference Endpointsなどのツール群は、機械学習の世界を誰にでもアクセス可能にするために設計されています。 このチュートリアルでは、この民主的な未来がどれだけアクセス可能であるかを示すために、チャットアプリを構築するためにSpaces、AutoTrain、ChatUIを使用する方法を3つの簡単なステップで紹介します。コンテキストとして、私はMLエンジニアではなく、Hugging FaceのGTMチームのメンバーです。私がこれをできるなら、あなたもできます!さあ、始めましょう! Spacesの紹介 Hugging FaceのSpacesは、MLデモやアプリの構築とデプロイを簡単に行うためのGUIを提供するサービスです。このサービスを使用すると、GradioやStreamlitのフロントエンドを使用して素早くMLデモを構築したり、独自のアプリをDockerコンテナにアップロードしたり、あるいは事前に設定された複数のMLアプリケーションを即座にデプロイしたりすることができます。 このチュートリアルでは、Spacesからの事前構成済みのDockerアプリケーションテンプレート、AutoTrainとChatUIをデプロイします。 Spacesについてもっと詳しくはこちらをご覧ください。 AutoTrainの紹介 AutoTrainは、MLエンジニアでない(または開発者でない😮)人々がコードを書かずに最先端のMLモデルをトレーニングするためのノーコードツールです。NLP、コンピュータビジョン、音声、表形式のデータなどに使用することができ、今日行うようなLLMの微調整にも使用できます。 AutoTrainについてもっと詳しくはこちらをご覧ください。 ChatUIの紹介 ChatUIはその名の通りです。Hugging Faceが提供するオープンソースのUIで、オープンソースのLLMsと対話するためのインターフェースを提供します。特に、HuggingChatという完全オープンソースのChatGPTの代替としても使用されています。 ChatUIについてもっと詳しくはこちらをご覧ください。 ステップ1:新しいAutoTrain…

「推論APIを使用してAIコミックファクトリーを展開する」

最近、私たちは「PROsのための推論」という新しいオファリングを発表しました。これにより、より広範なユーザーがより大規模なモデルを利用することが可能になります。この機会が、Hugging Faceをプラットフォームとして使用してエンドユーザーアプリケーションを実行する新たな可能性をもたらします。 そのようなアプリケーションの例としては、「AIコミック工場」があります。これは非常に人気があります。数千人のユーザーがAIコミックパネルを作成するために試しており、独自のコミュニティも形成されています。彼らは自分の作品を共有し、いくつかはプルリクエストを公開しています。 このチュートリアルでは、AIコミック工場をフォークして設定し、長い待ち時間を避け、推論APIを使用して独自のプライベートスペースに展開する方法を紹介します。高い技術的スキルは必要ありませんが、API、環境変数の知識、そしてLLMsとStable Diffusionの一般的な理解が推奨されます。 はじめに まず、PRO Hugging Faceアカウントにサインアップして、Llama-2とSDXLモデルへのアクセス権を取得する必要があります。 AIコミック工場の仕組み AIコミック工場は、Hugging Face上で実行される他のスペースとは少し異なります。それはNextJSアプリケーションで、Dockerを使用して展開され、クライアント-サーバーアプローチに基づいています。2つのAPIが必要です: 言語モデルAPI(現在はLlama-2) Stable Diffusion API(現在はSDXL 1.0) スペースの複製 AIコミック工場を複製するには、スペースに移動し、「複製」をクリックします: スペースの所有者、名前、可視性がすでに入力されていることに気付くでしょう。そのままで構いません。 スペースのコピーは、リソースを多く必要としないDockerコンテナ内で実行されますので、最小のインスタンスを使用できます。公式のAIコミック工場スペースは、多くのユーザーベースを対象としているため、より大きなCPUインスタンスを使用しています。 AIコミック工場を自分のアカウントで操作するには、Hugging Faceトークンを設定する必要があります: LLMとSDエンジンの選択…

「GAN(生成敵対ネットワーク)はおそらくご存知ですが、それを訓練する方法を知っていますか?」

「GAN(敵対的生成ネットワーク)は画像生成に革命をもたらしましたが、それらをトレーニングすることは難しい場合もありますこのガイドでは、判別器モデルと生成器モデルのトレーニング方法から始まり、GANのトレーニングをステップバイステップで説明します...」

「ONNX Runtimeを使用して130,000以上のHugging Faceモデルを高速化する」

ONNX Runtimeとは? ONNXランタイムは、ONNXをサポートするモデルを特に高速化するために使用できる、クロスプラットフォームの機械学習ツールです。 Hugging Face ONNX Runtimeサポート Hugging Faceは、オープンソースのコミュニティであり、ユーザーが数千の公開可能な機械学習モデルを構築、訓練、展開できるようにする場所です。Hugging Face上には、13万以上のONNXサポートモデルがあります。これらのONNXサポートモデルには、ますます人気のある大規模言語モデル(LLM)やクラウドモデルも含まれます。これらのモデルは、ONNXランタイムを活用してパフォーマンスを向上させることができます。例えば、whisper-tinyモデルを加速するためにONNXランタイムを使用すると、PyTorchに比べて推論ごとの平均レイテンシーが最大74.30%向上します。ONNXランタイムは、Hugging Faceと緊密に連携しており、サイト上で最も人気のあるモデルをサポートするようになっています。総計で、ONNXランタイムによって90以上のHugging Faceモデルアーキテクチャがサポートされており、その中には11の最も人気のあるアーキテクチャも含まれています(人気度は、対応するモデルがHugging Face Hubにアップロードされた回数によって決まります)。 さらに詳しく Hugging FaceモデルをONNXランタイムで高速化する方法について詳しく知りたい場合は、Microsoftオープンソースブログで最近の記事をご覧ください。

「AWS Step Functionsで機械学習パイプラインをオーケストレーションする」

この記事では、AWS Step Functionsを使用して機械学習パイプラインを作成し、オーケストレーションする方法、およびインフラストラクチャとしてコードを使用してそれらを展開する方法について説明していますこの記事は、データとML Opsエンジニアを対象としています

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us