
2024年3月7日、サイバーエージェントによるエンジニア・クリエイター向け技術カンファレンス「CyberAgent Game Conference 2024」がオンラインで開催されました。そこで講演されたセッションのひとつ「ゲームエフェクト制作へのAI活用」のレポートをお届けします。
本セッションはアプリボットでチームエフェクトアーティストを務める邑上貴洋氏が登壇し、AIをゲームエフェクトの制作ワークフローに組み込んで効率化を目指すR&D(研究開発)が紹介されました。


リアル系エフェクトをAIでアニメ調に変換
邑上氏が最近特に注目しているのは、画像生成AIモデルの「Stable Diffusion」。同モデルにはControlNetという拡張機能があり、導入して参照画像を読み込ませると、生成する画像の構図や人物のポーズなどを指定できるようになります。

セッションでは、炎や煙、爆発などのビジュアルエフェクトを瞬時に作成する流体シミュレーション「EmberGen」で作成した爆発エフェクトをStable Diffusionでアニメ風エフェクトにした作例が提示されました。

爆発全体のシルエットはしっかり守りつつ、参考画像ではほとんど煙しかない下方部分もしっかり炎を描き込んでいることが分かります。
商用利用するにはまだ課題が残っており、動画をいかにスムーズに連番画像に変換し、アトラス化(読み込むファイル数を減らすために一つの画像にまとめること)する手法の確立を目指すとしました。

アニメ風エフェクトを制作するうえで可能性を感じている他のツールとしては、商用利用可であるうえに操作が簡単で処理も軽いAdobeの生成AI「Adobe Firefly」、画像を動画に変換できる「Runway Gen-2」、アニメ風の映像をリアル風に変換できる「Pika 1.0」が紹介されました。