← Retour
Texture Diffusion v1

Texture Diffusion v1

Add-on Blender qui utilise les normal maps du modèle 3D pour guider la génération IA et texturer l'objet entier.

Publié
blender outil ia 3d
Voir sur SuperHive Market ↗

La première version de Texture Diffusion. L’idée : utiliser la géométrie 3D d’un modèle Blender pour guider Stable Diffusion et générer une texture complète de l’objet.

Le workflow repose sur les normal maps. L’add-on rend les normales du modèle sous différents angles, les envoie à ControlNet comme guide de génération, et récupère les résultats pour les remapper proprement sur le mesh. C’est la forme 3D qui contraint l’IA, pas l’inverse.

Le pipeline Texture Diffusion — des normales au texturing final

Normal maps → texturing IA — exemple sur un modèle de rats

Ça a été conçu au moment où Stable Diffusion et ControlNet débarquaient. À l’époque, l’idée de laisser la géométrie guider la génération n’était pas encore répandue. L’add-on tourne avec ComfyUI ou n’importe quel backend Stable Diffusion compatible ControlNet.

Résultat sur un visage — détails de peau générés à partir des normales

Distribué sur Blender Market et Gumroad, avec 44 ventes et quasi aucun marketing.

Documentation complèteCode sourceThread Blender Artists