Learn more about Search Results huggingface.co - Page 5

『Gradioを使ったリテンションの理解』

「最初のウェブアプリケーションを作った瞬間を覚えていますそれは約8年前で、私は比較的初心者のアナリストで、BIツールがすべての問題を解決できると確信していましたその…」

「マスク言語モデリングタスクのBERTトレーニング方法」

「最近、大規模言語モデル(LLM)は、機械学習コミュニティ全体の注目を浴びていますLLMが登場する前には、さまざまな言語モデリングに関する重要な研究フェーズがありました...」

「ChatGPTがGPT-4V(Vision)とともに視覚を獲得することで、マルチモーダルAIが進化します」

「OpenAIのGPT-4におけるマルチモーダルAIの進歩、その先見性のある機能、AIによる相互作用におけるテキストとビジュアルの融合の変革的な影響を探索してください」

SynthIA(Synthetic Intelligent Agent)7B-v1.3に会ってください:オルカスタイルのデータセットで訓練されたミストラル-7B-v0.1モデルです

SynthIA-7B-v1.3は、7兆パラメーターの大規模な言語モデル(LLM)です。実際には、OrcaスタイルのデータセットでトレーニングされたMistral-7B-v0.1モデルであり、方向の指示に従い、深く議論することができます。SynthIA-7B-v1.3は完全に制約されておらず、次のようなさまざまな用途に活用することができます: テキストの作成、言語の翻訳、オリジナルコンテンツの生成、質問に対する洞察に富んだ応答が、すべてこのスキルセットの範囲内です。 要求を注意深く実行し、指示に従います。 質問が簡単か難しいか、一般的か非常識かにかかわらず、常に十分かつ正確に回答するべきです。 詩、コード、脚本、音楽、手紙、メールなどのクリエイティブなテキスト形式を生成することができます。 SynthIA-7B-v1.3は、多くの潜在的な用途を持つ強力で柔軟なLLMです。以下にいくつかの例を挙げます: 記事、ブログ、物語、詩など、SynthIA-7B-v1.3を使用して生成できる書面作品は多岐に渡ります。クリエイティブな文章執筆や言語翻訳にも使用できます。 SynthIA-7B-v1.3は、研究者の学習を支援するツールです。仮説の開発、論文の要約、レポートの作成などの形式で使用できます。 SynthIA-7B-v1.3は、教室での教育ツールとして利用することができます。カリキュラム資料の作成、学生の疑問の解決、学生の作品の評価など、多くの教育的な応用があります。 商業利用:SynthIA-7B-v1.3は、企業プロセスの改善に利用できます。製品/サービスのアイデア形成、カスタマーサポートの応答作成、マーケティングなどの潜在的な応用があります。 SynthIA-7B-v1.3ユーザーガイド 使用する場合は、SynthIA-7B-v1.3をHugging Face Transformersで見つけることができます。モデルの読み込みが完了したら、質問や指示を与えてコミュニケーションすることができます。詩の生成、テキストの翻訳、最新のニュースのレポートなど、さまざまなタスクをモデルに訓練することができます。 主な特徴 SynthIA-7B-v1.3は、7兆パラメーターという非常にパワフルで包括的なLLMの一つです。 フィルタされていません。したがって、物議を醸すまたは敏感なテーマを含むあらゆる主題についての文章を生成することができます。 長尺の会話や指示の従いに重点を置くため、文章執筆、研究、教育、ビジネス関連の相互作用に最適です。 SynthIA-7B-v1.3を最大限に活用する方法 SynthIA-7B-v1.3の最大限の活用についてのいくつかの提案: 指示や提案はできるだけ詳細にしてください。詳細な情報を提供するほど、モデルがニーズを理解し、期待される結果を生み出す能力が向上します。 モデルに何をしたいかのサンプルを与えてみてください。例えば、特定のスタイルで書かれた詩の例を使用してモデルを訓練すれば、そのようなスタイルで書かれた詩を生成するようにすることができます。 複雑な作業を簡単な作業に分割してください。これにより、モデルの作業完了能力が向上します。 SynthIA-7B-v1.3の使用には熟練が必要な場合もありますが、練習を重ねることで、プロの品質の文章を生成し、多くの目標を達成することができます。…

「Amazon SageMakerを使用して、マルチモダリティモデルを用いた画像からテキストへの生成型AIアプリケーションを構築する」

この投稿では、人気のあるマルチモーダリティモデルの概要を提供しますさらに、これらの事前訓練モデルをAmazon SageMakerに展開する方法も示しますさらに、特に、eコマースのゼロショットタグと属性生成および画像からの自動プロンプト生成など、いくつかの現実世界のシナリオに焦点を当てながら、これらのモデルの多様な応用についても議論します

「Non-engineers guide LLaMA 2チャットボットのトレーニング」となります

イントロダクション このチュートリアルでは、誰でも一行のコードを書かずにオープンソースのChatGPTを構築する方法を紹介します!LLaMA 2ベースモデルを使用し、オープンソースのインストラクションデータセットでチャット用に微調整し、そのモデルを友達と共有できるチャットアプリにデプロイします。クリックだけで偉大さへの道を歩むことができます。😀 なぜこれが重要なのか?特にLLM(Large Language Models)を含む機械学習は、私たちの個人生活やビジネスにおいて重要なツールとなり、過去に例のないほど人気が高まっています。しかし、MLエンジニアリングの専門的なニッチ分野ではないほとんどの人々にとって、これらのモデルのトレーニングとデプロイメントの複雑さは手が届かないもののように思えます。機械学習の予想される未来が普遍的な個別のモデルで満たされるものになるのであれば、非技術的なバックグラウンドを持つ人々にこの技術を独自に活用する力を与えるには、将来的に課題が待ち受けています。 Hugging Faceでは、この包括的な未来への道を静かに築くために働いてきました。Spaces、AutoTrain、Inference Endpointsなどのツール群は、機械学習の世界を誰にでもアクセス可能にするために設計されています。 このチュートリアルでは、この民主的な未来がどれだけアクセス可能であるかを示すために、チャットアプリを構築するためにSpaces、AutoTrain、ChatUIを使用する方法を3つの簡単なステップで紹介します。コンテキストとして、私はMLエンジニアではなく、Hugging FaceのGTMチームのメンバーです。私がこれをできるなら、あなたもできます!さあ、始めましょう! Spacesの紹介 Hugging FaceのSpacesは、MLデモやアプリの構築とデプロイを簡単に行うためのGUIを提供するサービスです。このサービスを使用すると、GradioやStreamlitのフロントエンドを使用して素早くMLデモを構築したり、独自のアプリをDockerコンテナにアップロードしたり、あるいは事前に設定された複数のMLアプリケーションを即座にデプロイしたりすることができます。 このチュートリアルでは、Spacesからの事前構成済みのDockerアプリケーションテンプレート、AutoTrainとChatUIをデプロイします。 Spacesについてもっと詳しくはこちらをご覧ください。 AutoTrainの紹介 AutoTrainは、MLエンジニアでない(または開発者でない😮)人々がコードを書かずに最先端のMLモデルをトレーニングするためのノーコードツールです。NLP、コンピュータビジョン、音声、表形式のデータなどに使用することができ、今日行うようなLLMの微調整にも使用できます。 AutoTrainについてもっと詳しくはこちらをご覧ください。 ChatUIの紹介 ChatUIはその名の通りです。Hugging Faceが提供するオープンソースのUIで、オープンソースのLLMsと対話するためのインターフェースを提供します。特に、HuggingChatという完全オープンソースのChatGPTの代替としても使用されています。 ChatUIについてもっと詳しくはこちらをご覧ください。 ステップ1:新しいAutoTrain…

「TRLを介してDDPOを使用して、安定したディフュージョンモデルを微調整する」

導入 拡散モデル(例:DALL-E 2、Stable Diffusion)は、特に写真のような写真のリアルな画像を生成することで広く成功している生成モデルの一種です。ただし、これらのモデルによって生成される画像は常に人間の好みや意図と一致しているわけではありません。これが整合性の問題が生じます。つまり、「品質」といった人間の好みやプロンプトを介しては表現しにくい意図との整合性がモデルの出力と一致していることを確認する方法は何でしょうか?そこで、強化学習が登場します。 大規模言語モデル(LLM)の世界では、強化学習(RL)はモデルを人間の好みに合わせるための非常に効果的なツールとして証明されています。それはChatGPTのようなシステムが優れたパフォーマンスを発揮するための主要なレシピの一つです。より具体的には、ChatGPTが人間のようにチャットするためのReinforcement Learning from Human Feedback(RLHF)の重要な要素です。 Blackらは、「Training Diffusion Models with Reinforcement Learning, Black」という論文で、拡散モデルをRLを活用して目的関数に対して微調整する方法を示しています。これはDenoising Diffusion Policy Optimization(DDPO)と呼ばれる手法を使用します。 このブログ記事では、DDPOが生まれた経緯、その動作方法の簡単な説明、およびRLHFワークフローにDDPOを組み込んで人間の美意識により整合したモデルの出力を達成する方法について説明します。そして、新たに統合されたDDPOTrainerとtrlライブラリを使用してモデルにDDPOを適用する方法について、Stable Diffusionでの実行結果を検討します。 DDPOの利点 DDPOは、RLを使用して拡散モデルを微調整する方法に関する唯一の有効な回答ではありません。 入る前に、他のRLソリューションとの利点の理解に関して覚えておくべき2つの重要なポイントがあります。…

『倫理と社会ニュースレター#5:ハグフェイスがワシントンに行くと、他の2023年夏の考え事』

人工知能(AI)における「倫理」について知っておくべき最も重要なことの一つは、それが「価値観」に関連しているということです。倫理は何が正しくて何が間違っているかを教えてくれるのではなく、透明性、安全性、公正などの価値観の語彙と優先順位を定めるための枠組みを提供します。今年の夏、私たちはAIの価値観についての理解を欧州連合、イギリス、アメリカの立法府に伝え、AIの規制の未来を形作るのに役立ちました。ここで倫理が光を放つのです:法律がまだ整っていないときに前進するための道筋を切り開くのに役立つのです。 Hugging Faceの主要な価値であるオープンさと責任を守るために、私たちはここで私たちが言ったことや行ったことのコレクションを共有しています。これには、私たちのCEOであるクレムが米国議会に対する証言や米国上院AI Insight Forumでの発言、E.U. AI Actに関するアドバイス、NTIAに対するAIの責任に関するコメント、そして私たちのChief Ethics Scientistであるメグの民主党議員団に対するコメントなどが含まれています。これらの議論の多くで共通していたのは、なぜAIのオープンさが有益であるのかという質問でした。私たちはこの質問に対する私たちの回答のコレクションをこちらで共有しています。 Hugging Faceのコア価値である民主化に則り、私たちは多くの時間を公に話すことに費やしてきました。そしてAIの世界で今起こっていることを説明するためにジャーナリストと対話する機会を与えられています。これには以下のものが含まれます: サーシャのAIのエネルギー使用と炭素排出に関するコメント(The Atlantic、The Guardian、2回、New Scientist、The Weather Network、The Wall Street Journal、2回)およびWall Street Journal op-edの一部の執筆;AIの終末論的なリスクに対する考え(Bloomberg、The Times、Futurism、Sky…

「推論APIを使用してAIコミックファクトリーを展開する」

最近、私たちは「PROsのための推論」という新しいオファリングを発表しました。これにより、より広範なユーザーがより大規模なモデルを利用することが可能になります。この機会が、Hugging Faceをプラットフォームとして使用してエンドユーザーアプリケーションを実行する新たな可能性をもたらします。 そのようなアプリケーションの例としては、「AIコミック工場」があります。これは非常に人気があります。数千人のユーザーがAIコミックパネルを作成するために試しており、独自のコミュニティも形成されています。彼らは自分の作品を共有し、いくつかはプルリクエストを公開しています。 このチュートリアルでは、AIコミック工場をフォークして設定し、長い待ち時間を避け、推論APIを使用して独自のプライベートスペースに展開する方法を紹介します。高い技術的スキルは必要ありませんが、API、環境変数の知識、そしてLLMsとStable Diffusionの一般的な理解が推奨されます。 はじめに まず、PRO Hugging Faceアカウントにサインアップして、Llama-2とSDXLモデルへのアクセス権を取得する必要があります。 AIコミック工場の仕組み AIコミック工場は、Hugging Face上で実行される他のスペースとは少し異なります。それはNextJSアプリケーションで、Dockerを使用して展開され、クライアント-サーバーアプローチに基づいています。2つのAPIが必要です: 言語モデルAPI(現在はLlama-2) Stable Diffusion API(現在はSDXL 1.0) スペースの複製 AIコミック工場を複製するには、スペースに移動し、「複製」をクリックします: スペースの所有者、名前、可視性がすでに入力されていることに気付くでしょう。そのままで構いません。 スペースのコピーは、リソースを多く必要としないDockerコンテナ内で実行されますので、最小のインスタンスを使用できます。公式のAIコミック工場スペースは、多くのユーザーベースを対象としているため、より大きなCPUインスタンスを使用しています。 AIコミック工場を自分のアカウントで操作するには、Hugging Faceトークンを設定する必要があります: LLMとSDエンジンの選択…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us