「推論APIを使用してAIコミックファクトリーを展開する」

「推論APIを活用してAIコミックファクトリーを進化させる方法」

最近、私たちは「PROsのための推論」という新しいオファリングを発表しました。これにより、より広範なユーザーがより大規模なモデルを利用することが可能になります。この機会が、Hugging Faceをプラットフォームとして使用してエンドユーザーアプリケーションを実行する新たな可能性をもたらします。

そのようなアプリケーションの例としては、「AIコミック工場」があります。これは非常に人気があります。数千人のユーザーがAIコミックパネルを作成するために試しており、独自のコミュニティも形成されています。彼らは自分の作品を共有し、いくつかはプルリクエストを公開しています。

このチュートリアルでは、AIコミック工場をフォークして設定し、長い待ち時間を避け、推論APIを使用して独自のプライベートスペースに展開する方法を紹介します。高い技術的スキルは必要ありませんが、API、環境変数の知識、そしてLLMsとStable Diffusionの一般的な理解が推奨されます。

はじめに

まず、PRO Hugging Faceアカウントにサインアップして、Llama-2とSDXLモデルへのアクセス権を取得する必要があります。

AIコミック工場の仕組み

AIコミック工場は、Hugging Face上で実行される他のスペースとは少し異なります。それはNextJSアプリケーションで、Dockerを使用して展開され、クライアント-サーバーアプローチに基づいています。2つのAPIが必要です:

  • 言語モデルAPI(現在はLlama-2
  • Stable Diffusion API(現在はSDXL 1.0

スペースの複製

AIコミック工場を複製するには、スペースに移動し、「複製」をクリックします:

duplicate-space-1.jpg

スペースの所有者、名前、可視性がすでに入力されていることに気付くでしょう。そのままで構いません。

スペースのコピーは、リソースを多く必要としないDockerコンテナ内で実行されますので、最小のインスタンスを使用できます。公式のAIコミック工場スペースは、多くのユーザーベースを対象としているため、より大きなCPUインスタンスを使用しています。

AIコミック工場を自分のアカウントで操作するには、Hugging Faceトークンを設定する必要があります:

duplicate-space-2.jpg

LLMとSDエンジンの選択

AIコミック工場は、様々なバックエンドエンジンをサポートしており、2つの環境変数を使用して構成することができます:

  • LLM_ENGINEは言語モデルを設定するために使用されます(可能な値はINFERENCE_APIINFERENCE_ENDPOINTOPENAIです)
  • RENDERING_ENGINEは画像生成エンジンを設定するために使用されます(可能な値はINFERENCE_APIINFERENCE_ENDPOINTREPLICATEVIDEOCHAINです)。

AIコミック工場をInference APIで動作させることに焦点を当てますので、両方の値をINFERENCE_APIに設定する必要があります:

duplicate-space-3.jpg

プロジェクトのREADME.env構成ファイルには、代替エンジンやベンダーに関する詳細な情報があります。

モデルの構成

AI Comic Factoryには、次のモデルが事前に設定されています:

  • LLM_HF_INFERENCE_API_MODEL:デフォルト値はmeta-llama/Llama-2-70b-chat-hf
  • RENDERING_HF_RENDERING_INFERENCE_API_MODEL:デフォルト値はstabilityai/stable-diffusion-xl-base-1.0

PRO Hugging Faceアカウントでは、これらのモデルにアクセスすることができますので、何もする必要はありません。

もっと進むには

AI Comic Factoryでの推論APIのサポートは初期段階にあり、SDXLのリファイナーステップの使用やアップスケーリングの実装などの一部の機能はまだ移植されていません。

それでも、この情報があなたが要件に合わせてAI Comic Factoryをフォークし、調整するための手助けになることを願っています。

ぜひ、コミュニティから他のモデルを試してみて、ハッキングを楽しんでください!

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「パクストンAIの共同創業者兼CEO、タングイ・シャウ - インタビューシリーズ」

タングイ・ショウは、Paxton AIの共同創設者兼CEOであり、法的研究と起草の負担を軽減するためにGenerative AIを使用するプラ...

人工知能

Diginiのスマートセンスの社長、ガイ・イエヒアブによるインタビューシリーズ

ガイ・イハイアヴ氏は、ビジネスの成功に最も重要な資産を保護するためにインターネット・オブ・シングス(IoT)の力を活用す...

人工知能

「コーネリスネットワークスのソフトウェアエンジニアリング担当副社長、ダグ・フラーラー氏 - インタビューシリーズ」

ソフトウェアエンジニアリングの副社長として、DougはCornelis Networksのソフトウェアスタック全体、Omni-Path Architecture...

人工知能

ギル・ジェロン、Orca SecurityのCEO&共同創設者-インタビューシリーズ

ギル・ゲロンは、オルカ・セキュリティのCEO兼共同設立者ですギルは20年以上にわたりサイバーセキュリティ製品をリードし、提...

データサイエンス

「Seerの最高データオフィサーであるDr. Serafim Batzoglouによるインタビューシリーズ」

セラフィム・バツォグルはSeerのチーフデータオフィサーですSeerに加わる前は、セラフィムはInsitroのチーフデータオフィサー...

人工知能

ピーター・マッキー、Sonarの開発者担当責任者-インタビューシリーズ

ピーター・マッキーはSonarのDeveloper Relationsの責任者です Sonarは、悪いコードの1兆ドルの課題を解決するプラットフォー...