「推論APIを使用してAIコミックファクトリーを展開する」

「推論APIを活用してAIコミックファクトリーを進化させる方法」

最近、私たちは「PROsのための推論」という新しいオファリングを発表しました。これにより、より広範なユーザーがより大規模なモデルを利用することが可能になります。この機会が、Hugging Faceをプラットフォームとして使用してエンドユーザーアプリケーションを実行する新たな可能性をもたらします。

そのようなアプリケーションの例としては、「AIコミック工場」があります。これは非常に人気があります。数千人のユーザーがAIコミックパネルを作成するために試しており、独自のコミュニティも形成されています。彼らは自分の作品を共有し、いくつかはプルリクエストを公開しています。

このチュートリアルでは、AIコミック工場をフォークして設定し、長い待ち時間を避け、推論APIを使用して独自のプライベートスペースに展開する方法を紹介します。高い技術的スキルは必要ありませんが、API、環境変数の知識、そしてLLMsとStable Diffusionの一般的な理解が推奨されます。

はじめに

まず、PRO Hugging Faceアカウントにサインアップして、Llama-2とSDXLモデルへのアクセス権を取得する必要があります。

AIコミック工場の仕組み

AIコミック工場は、Hugging Face上で実行される他のスペースとは少し異なります。それはNextJSアプリケーションで、Dockerを使用して展開され、クライアント-サーバーアプローチに基づいています。2つのAPIが必要です:

  • 言語モデルAPI(現在はLlama-2
  • Stable Diffusion API(現在はSDXL 1.0

スペースの複製

AIコミック工場を複製するには、スペースに移動し、「複製」をクリックします:

duplicate-space-1.jpg

スペースの所有者、名前、可視性がすでに入力されていることに気付くでしょう。そのままで構いません。

スペースのコピーは、リソースを多く必要としないDockerコンテナ内で実行されますので、最小のインスタンスを使用できます。公式のAIコミック工場スペースは、多くのユーザーベースを対象としているため、より大きなCPUインスタンスを使用しています。

AIコミック工場を自分のアカウントで操作するには、Hugging Faceトークンを設定する必要があります:

duplicate-space-2.jpg

LLMとSDエンジンの選択

AIコミック工場は、様々なバックエンドエンジンをサポートしており、2つの環境変数を使用して構成することができます:

  • LLM_ENGINEは言語モデルを設定するために使用されます(可能な値はINFERENCE_APIINFERENCE_ENDPOINTOPENAIです)
  • RENDERING_ENGINEは画像生成エンジンを設定するために使用されます(可能な値はINFERENCE_APIINFERENCE_ENDPOINTREPLICATEVIDEOCHAINです)。

AIコミック工場をInference APIで動作させることに焦点を当てますので、両方の値をINFERENCE_APIに設定する必要があります:

duplicate-space-3.jpg

プロジェクトのREADME.env構成ファイルには、代替エンジンやベンダーに関する詳細な情報があります。

モデルの構成

AI Comic Factoryには、次のモデルが事前に設定されています:

  • LLM_HF_INFERENCE_API_MODEL:デフォルト値はmeta-llama/Llama-2-70b-chat-hf
  • RENDERING_HF_RENDERING_INFERENCE_API_MODEL:デフォルト値はstabilityai/stable-diffusion-xl-base-1.0

PRO Hugging Faceアカウントでは、これらのモデルにアクセスすることができますので、何もする必要はありません。

もっと進むには

AI Comic Factoryでの推論APIのサポートは初期段階にあり、SDXLのリファイナーステップの使用やアップスケーリングの実装などの一部の機能はまだ移植されていません。

それでも、この情報があなたが要件に合わせてAI Comic Factoryをフォークし、調整するための手助けになることを願っています。

ぜひ、コミュニティから他のモデルを試してみて、ハッキングを楽しんでください!

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

ファイデムのチーフ・プロダクト・オフィサー、アルパー・テキン-インタビューシリーズ

アルパー・テキンは、FindemというAI人材の獲得と管理プラットフォームの最高製品責任者(CPO)ですFindemのTalent Data Clou...

人工知能

アーティスの創設者兼CEO、ウィリアム・ウーによるインタビューシリーズ

ウィリアム・ウーは、Artisseの創設者兼CEOであり、ユーザーの好みに基づいて写真を精密に変更する技術を提供していますそれ...

人工知能

「リオール・ハキム、Hour Oneの共同創設者兼CTO - インタビューシリーズ」

「Hour Oneの共同創設者兼最高技術責任者であるリオール・ハキムは、専門的なビデオコミュニケーションのためのバーチャルヒ...

人工知能

「パクストンAIの共同創業者兼CEO、タングイ・シャウ - インタビューシリーズ」

タングイ・ショウは、Paxton AIの共同創設者兼CEOであり、法的研究と起草の負担を軽減するためにGenerative AIを使用するプラ...

人工知能

「Ami Hever、UVeyeの共同創設者兼CEO - インタビューシリーズ」

עמיר חבר הוא המנכל והמייסד של UVeye, סטארט-אפ ראיה ממוחשבת בלמידה עמוקה, המציבה את התקן הגלובלי לבדיקת רכבים עם זיהוי...

データサイエンス

アステラソフトウェアのCOO、ジェイ・ミシュラ - インタビューシリーズ

ジェイ・ミシュラは、急速に成長しているエンタープライズ向けデータソリューションの提供企業であるAstera Softwareの最高執...