スタンフォード大学の研究者たちは、スペルバーストという大規模言語モデル(LLM)を搭載したクリエイティブコーディング環境を紹介しました

Stanford University researchers introduced a creative coding environment equipped with a large-scale language model called SpellBurst.

素晴らしいデジタルアートを作成する際、生成アーティストはしばしばコーディングの複雑さに直面することがあります。ProcessingやAIテキストから画像へのツールのような言語を使用して、彼らは想像力豊かなビジョンを複雑なコードの一部に変換し、魅力的な視覚的な構成を生み出します。しかし、このプロセスは反復的な試行錯誤の性質により、時間がかかり、挫折感を生むことがあります。伝統的なアーティストは鉛筆や筆で簡単に調整できますが、生成アーティストは不透明なインターフェースを通じて進む必要があり、創造的なブロックにつながることがあります。

既存のソリューションはこれらの課題を軽減しようとしますが、アーティストが必要とする制御レベルと柔軟性を提供することができないことが多いです。大規模な言語モデルは初期のコンセプトを生成するのに役立ちますが、テクスチャ、色、パターンなどの細かい制御を提供するのは難しいです。ここで、Stanford大学の学者が開発した画期的なツールであるSpellburstが登場します。

Spellburstは最先端のGPT-4言語モデルの力を活用し、芸術的なアイデアをコードに変換するプロセスを効率化します。アーティストは「美しい明るいバラのステンドグラス画像」といった初期のプロンプトを入力し、そのコンセプトを具現化するための対応するコードをモデルが生成します。しかし、Spellburstの特徴は初期の生成を超える能力にあります。アーティストが花の色合いを微調整したり、ステンドグラスの外観を調整したりする場合は、動的なスライダーを使用したり、「花を濃い赤にする」といった特定の修正ノートを追加したりすることができます。この制御レベルにより、アーティストは微妙な調整を行い、自分のビジョンが忠実に実現されることを保証することができます。

さらに、Spellburstはさまざまなバージョンを結合することを容易にし、アーティストが異なるイテレーションから要素を組み合わせることができます。例えば、「バージョン4の花の色をバージョン9の花瓶の形と組み合わせる」とツールに指示することができます。この機能により、異なる視覚的要素をシームレスに試してみることができ、新たな創造的な可能性が広がります。

Spellburstの主な強みの一つは、プロンプトベースの探索とコード編集の間を移動できる能力にあります。アーティストは生成された画像をクリックするだけで、基礎となるコードを表示し、微調整のための細かい制御を行うことができます。この意味空間とコードの結びつきにより、アーティストは創造物を反復的に洗練させるための強力なツールを手に入れることができます。

Stanford大学の研究チームはSpellburstのテストにおいて、10人の専門的なクリエイティブコーダーからフィードバックを求めました。アーティストたちは、このツールが意味空間からコードへの移行を迅速化するだけでなく、探求を促進し、より大きな創造的な飛躍を容易にすると報告しました。この新しい効率性は、生成アーティストが自分のクラフトに取り組む方法を革新し、革新的で魅力的なデジタルアートの急増をもたらす可能性があります。

Spellburstは非常に有望な存在ですが、その制限を認識することも重要です。一部のプロンプトは予期しない結果やエラーを引き起こす場合があり、特にバージョンの結合では問題が発生する可能性があります。また、ツールの効果は異なるアーティストによって異なる場合があり、小さなサンプルサイズから得られたフィードバックは、生成アーティストコミュニティ内の経験の全体像を捉えきれないかもしれません。

まとめると、Spellburstは生成アートの領域での大きな飛躍を表しています。芸術的なビジョンとコードの実行の間にシームレスなインターフェースを提供することで、アーティストは前例のない精度で創造性を発揮することができます。このツールは今年後半にオープンソースでリリースされる準備をしており、経験豊富なクリエイティブコーダーのワークフローを革新するだけでなく、コード駆動のアートの世界に足を踏み入れる初心者のための貴重な学習ツールとしても役立つ可能性があります。Spellburstがあれば、生成アートの未来はこれまで以上に明るく、より手軽になるでしょう。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

マックス・プランク研究所の研究者たちは、MIME(3D人間モーションキャプチャを取得し、その動きに一致する可能性のある3Dシーンを生成する生成AIモデル)を提案しています

人間は常に周囲と相互作用しています。空間を移動したり、物に触れたり、椅子に座ったり、ベッドで寝たりします。これらの相...

機械学習

より小さい相手による言語モデルからの知識蒸留に深く潜入する:MINILLMによるAIのポテンシャルの解放

大規模言語モデルの急速な発展による過剰な計算リソースの需要を減らすために、大きな先生モデルの監督の下で小さな学生モデ...

AIニュース

『AI規制に関するEUの予備的な合意:ChatGPTへの影響』

ヨーロッパ連合は最近、広く認識されているChatGPTを含む先進的なAIモデルの規制に関する予備的な合意を仲介しました。これは...

AIニュース

「AIがウクライナの戦場に参戦を望む!」

最近、ウクライナはAI企業のゴールドマインとなっています。世界のテック企業がウクライナに押し寄せ、革新的な人工知能(AI...

機械学習

「オムニコントロール:拡張空間制御信号をテキスト条件付けされた人間の動作生成モデルに組み込むための人工知能アプローチ、拡散プロセスに基づく」

研究者は、テキスト条件付きの人間の動き生成において、いつでもあらゆる関節で空間制御信号を組み合わせる問題に取り組んで...

AIニュース

MetaGPTに会いましょう:テキストをウェブアプリに変えるChatGPTを搭載したAIアシスタント

この革命的なAIツールは、わずか数秒でノーコードのウェブアプリケーションを作成することができます!