3Dキャラクター制作で最も時間のかかる工程がリギングとテクスチャリングです。Texturizerはその2つをまとめて自動化します。参照画像を1枚渡すだけで、リグ(骨格)付きの3Dキャラクターを出力できるオープンソースアプリです。

この記事でわかること:
– Texturizerが解決する課題とテクスチャモードの使い分け
– 必要なGPU環境とPinokioによるインストール手順
– ローカルAPIを使った自動化の活用例

Texturizerは、Pinokioの開発者として知られる@cocktailpeanutが2026年4月に公開したGradioアプリです。3D生成にはTencent製の「Hunyuan3D」を使用しており、GitHubで無償公開されています。

https://github.com/cocktailpeanut/texturizer

3Dキャラ制作の手順が変わる

従来のワークフローでは、3Dキャラクターを作るにはモデリング・UVアンラップ・テクスチャペイント・リギングという複数の工程が必要でした。特にリギングは専門知識が求められ、個人開発者や小規模チームにとってボトルネックになりがちです。

Texturizerを使うと、既存のリグ付きGLBファイルと参照画像を用意するだけで、Hunyuan3Dが新しいキャラクタージオメトリを生成し、元のリグを自動で転送します。プロトタイピングや試作段階のキャラクター制作に特に有効です。

テクスチャモードの使い分け

Texturizerは用途に応じて3種類のモードを備えています。

New character + rig transfer(デフォルト)
参照画像をもとにHunyuan3Dが新しいキャラクターメッシュを生成し、アップロードしたソースリグを転送します。ゼロから新しいキャラクターを作る場合のメイン機能です。

Retexture existing mesh
アップロードしたメッシュのジオメトリとリグはそのまま維持しつつ、参照画像から新しいテクスチャだけを生成します。既存キャラクターの見た目を変えたいがアニメーションは維持したい場合に使います。

Apply exact UV map
アップロードした画像をそのままUVテクスチャとして適用します。画像がすでにそのメッシュ用のUVマップとして用意されている場合のみ有効です。

なお、rig transferは近似処理のため、出力後にクリーンアップが必要になるケースがあります。キャラクター生成モードでは元のメッシュと同じ頂点レイアウトを保つことはできません。テキストだけでの生成にも対応していないため、参照画像は必ず用意する必要があります。

必要なGPU環境

動作にはNVIDIA製GPUが必要です。既存メッシュのテクスチャリングには8〜12GBのVRAMが目安で、キャラクター生成モードではそれ以上の余裕が必要になります。

低VRAM環境への対応として、@deepbeepmeepが開発した「mmgp(Memory Management for the GPU Poor)」ライブラリを採用しています。コンシューマー向けGPUでもHunyuan3Dを動かすために設計されたライブラリで、デフォルトでLowRAM_LowVRAMプロファイルが有効になっています。

Pinokioで1クリック導入

https://pinokio.computer

Pinokioは、AI系オープンソースアプリを1クリックでインストール・起動できるプラットフォームです。GitHub上でスター数7,000を超えており、macOS・Windows・Linuxに対応しています。依存ライブラリやランタイムの手動セットアップなしに、AIアプリをローカルで動かせます。

Texturizerの導入手順は次のとおりです。

  1. Pinokioをインストールする(https://pinokio.computer)
  2. Texturizerのリポジトリで「Install」をクリックする
  3. インストール完了後に「Start Web App」を実行する
  4. ソースメッシュ(.glb)と参照画像をアップロードする
  5. テクスチャモードを選択して生成を実行する
  6. 出力された.glbをダウンロードする

リポジトリにはサンプルメッシュが付属しており、二足歩行キャラ用のgeno.glbと四足動物用のdog.glbが含まれています。手持ちのリグがなくてもすぐに試せます。

生成メッシュの品質は「Max generated faces」で調整できます。デフォルトは40,000面で、20,000〜200,000の範囲で指定可能です。値を上げると輪郭やディテールが細かくなりますが、GLBのファイルサイズが増加し、テクスチャ処理も遅くなります。

ローカルAPIで自動化も可能

Texturizerは起動中にローカルHTTP APIを公開しています。POST /api/textureエンドポイントにメッシュと参照画像をマルチパートフォームで送信すると、テクスチャ処理を外部から呼び出せます。

パラメータ 内容
mesh ソースのGLBファイル
reference_image 参照画像ファイル
texture_mode character(デフォルト)/ ai / image
preserve_rig リグを維持するか(デフォルト: true)
max_faces 生成メッシュの面数上限(デフォルト: 40,000)

このAPIを使うと、AIエージェントや既存のビルドパイプラインからTexturizerを呼び出して3Dアセット生成を組み込めます。

背景にあるHunyuan3D

テクスチャ生成の中核にあるHunyuan3Dは、Tencentが開発した大規模3D生成システムです。形状生成モデル(Hunyuan3D-DiT)とテクスチャ合成モデル(Hunyuan3D-Paint)の2コンポーネントで構成されており、画像を条件とした高解像度の3Dアセット生成を実現しています。GitHubでのスター数は13,000を超えています。

https://github.com/Tencent-Hunyuan/Hunyuan3D-2

Texturizerはこのモデルを、追加設定なしにPinokioから利用できるよう整備したアプリです。

まとめ

参照画像から3Dキャラを生成し、既存リグに当てはめるまでの工程をTexturizerは一本化しています。Pinokioによる1クリック導入に加え、低VRAMへの対応やAPIの提供により、個人開発者からパイプライン組み込みまで幅広い用途に対応しています。