ComfyUI & IA générative : de nouveaux outils pour l’architecte

ComfyUI & IA générative :
de nouveaux outils
pour l’architecte

Avril 2025
·
Workflows image-to-render
·
Prompting architectural

 

La génération d’images par intelligence artificielle franchit un cap décisif pour la pratique architecturale. Des outils comme ComfyUI permettent aujourd’hui de construire des chaînes de traitement sophistiquées — render photoréaliste, transfert de style, recomposition d’ambiance — en connectant visuellement des nœuds de traitement. Ce billet présente les objectifs de la session exploratoire, les modèles employés, et les cas d’usage concrets testés.

Objectifs

Qu’est-ce que l’on cherche à faire ?

L’ambition de cet atelier est de replacer l’IA générative dans des situations concrètes de travail de projet : partir d’une image existante — esquisse, vue 3D, référence photographique — et la transformer de façon contrôlée pour produire des rendus convaincants, des ambiances réalistes, ou des planches de concours.

ComfyUI s’impose ici comme l’environnement de prédilection : contrairement à des interfaces comme Midjourney, il offre une maîtrise totale du pipeline. Chaque étape est visible, paramétrable, reproductible. On peut injecter des images de référence, contrôler la diffusion, chaîner des modèles spécialisés.

Les cas testés couvrent cinq grandes familles de besoins :

Du dessin au rendu photoréaliste

Transformer une vue 3D filaire ou une esquisse architecturale en photographie réaliste, en conservant la géométrie et les proportions du projet.

01
Render

Conversion d’un modèle 3D en image photoréaliste. Prompt type : change image 1 to realistic photograph.

02
Camera view 3D

Génération de vues alternatives d’un bâtiment à partir d’une image de référence, avec choix du point de vue caméra.

03
Composition multi-sources

Insertion de mobilier ou d’éléments extérieurs dans une scène existante, avec gestion de l’échelle, de l’orientation et de la lumière.

04
Référence matériaux

Transfert de texture depuis une image photographique vers un rendu (ex. pavé traditionnel sur une façade), avec blend sans couture.

05
Relight

Modification de l’éclairage d’une scène intérieure ou extérieure — heure du jour, ambiance lumineuse — via modèle spécialisé.

« L’enjeu n’est pas de remplacer le regard de l’architecte, mais d’accélérer la mise en images de ses intentions. »

Les modèles utilisés

Diffusion
SDXL / Stable Diffusion — Modèle de base pour la génération et la retouche d’images. Utilisé dans tous les workflows de render et de composition. Chargé via le nœud Load Diffusion Model dans ComfyUI.
ControlNet
ControlNet (pose / depth / canny) — Couche de conditionnement qui permet de guider la diffusion à partir d’une image de référence structurelle. Essentiel pour conserver la géométrie d’un modèle 3D lors du passage au rendu photoréaliste.
IP-Adapter
IP-Adapter — Permet d’injecter le style visuel d’une image source (couleurs, matières, ambiance) dans la génération, sans décrire textuellement chaque paramètre. Très efficace pour le transfert de référence matériaux.
Relight
Qwen / IC-Light — Modèle spécialisé dans la relumination d’images. Permet de rééclairage cohérent d’une scène (changement d’heure, ajout de lumière dramatique) en conservant la géométrie et les matières.
Masquage
SAM / Segment Anything — Segmentation sémantique automatique pour isoler des zones à modifier (remplacement d’un élément, inpainting ciblé) sans masque manuel.
Upscale
ESRGAN / Tile Upscaler — Augmentation de résolution avec préservation des détails, utilisé en fin de pipeline pour produire des images haute définition exportables.

Cas d’usage ComfyUI

Prompts de référence — workflows image-to-image

Voici les prompts et intentions testés dans les différents workflows ComfyUI. Chaque entrée correspond à un nœud de prompt dans le pipeline ou à une instruction donnée au modèle de diffusion.

Du modèle 3D à la photographie réaliste

À partir d’une vue filaire ou d’un rendu 3D de base, le modèle est guidé pour produire une image photoréaliste en conservant la structure de l’architecture.

change image 1 to realistic photograph

Insertion de mobilier depuis plusieurs sources

Combiner plusieurs images de référence (scène + mobilier) pour composer une nouvelle image cohérente en termes d’échelle, d’orientation et d’éclairage.

put the sofa of image 2 in the room of image1, the armchair of image 3 in the room of image 1 on the left, fit scale, orientation, light

Transfert de texture depuis une référence photographique

Appliquer la texture d’un matériau photographié in situ (pavé, pierre, enduit) à un rendu de projet. Note importante : intégrer des éléments remarquables comme les fenêtres pour garder l’échelle cohérente.

street cobblestone texture from image 2, seamless blend

Cas d’usage — IA multimodale (Google Gemini / Nano to Banana)

Prompts avancés pour la représentation architecturale

Une seconde famille d’outils a été explorée : les modèles de génération multimodaux accessibles via des interfaces en ligne (Google Gemini, Nano to Banana). Ces outils permettent de travailler directement depuis une photographie ou une image de plan, sans pipeline ComfyUI. Les prompts sont plus longs et plus narratifs, car le modèle doit comprendre à la fois le type de représentation attendue et les contraintes stylistiques.

De la photo à la vue isométrique 3D

Transformer une photographie de bâtiment existant en représentation isométrique stylisée, idéale pour des planches analytiques ou des dossiers de concours.

Create a 45-degree isometric view of this building as a reference against a gray background. Preserve all building details, including textures, materials, windows, glazing, doors, cornices, and niches. Create the image using a 3D model output style.

Génération d’une planche de concours architecturale

Produire automatiquement une planche complète au format vertical, structurée en trois bandes (diagrammes conceptuels / plans techniques / rendu d’ambiance), prête pour soumission à un concours international.

Generate an architectural competition board in a vertical format, adopting the aesthetic of a professional panel for international competitions. Include a clear hierarchical composition divided into three distinct bands:

Top Section: Conceptual diagrams, urban analysis, circulation schemes, exploded axonometrics of the building, programmatic layers, flows, and connections. Clean graphics featuring thin lines, transparencies, minimal iconography, and precise annotations.

Middle Section: Explanatory texts organized into blocks, general site plans, floor plans, sections, and architectural details represented in a contemporary technical style.

Bottom Section: The main atmospheric rendering of the project integrated into its context, utilizing soft tones, light fog, aerial perspective/depth, and a realistic composition. Include human figures, landscape, and urban elements to convey scale.

Overall Aesthetic: Desaturated color palette (soft greens, grays, beige), semi-transparent overlays, abstract conceptual diagrams, modern typography, extensive use of negative space. Final Outcome: A high-resolution competition board, ready for submission.

De l’image au dessin technique blueprints

Convertir une photographie en planche de plans techniques au style blueprint, avec annotations, cotes et diagrammes de systèmes.

Generate a detailed technical blueprint-style drawing from the input image, rendered in blue ink on aged vellum paper with a grid. The drawing should show elevation views, floor plans, and cross-sections of the structure. Add visionary annotations, dimensions, and futuristic diagrams for systems such as « BIOMETRIC ACCESS, » « HOLOGRAPHIC MATRICES, » and « ENERGY HARVESTING SKIN, » maintaining a complex engineering aesthetic.

Vue satellite vers élévation architecturale

Transformer une image satellite (Google Maps) en dessin d’élévation frontale normalisé, avec hiérarchie des traits et ligne de sol.

Turn this into an architectural elevation drawing front view with proper liveweights. Add a ground line and create drawing only for the main structure without perspective.

Du plan de masse au rendu réaliste

Deux variantes : vue de dessus photoréaliste, puis représentation en maquette isométrique style studio.

Create a realistic rendering of this floor plan. Preserve all the exact details of the plan, including walls, furniture, sofas, and deck space. Show the layout of the house in a studio rendering style. Top-down view (from above) without perspective.

— ou —

create an isometric 3D model of this floor plan. Retain all the exact details of the plan with walls, furniture, sofas, deck space. create it like a maquette style physical model placed on an empty table. studio photography style lighting.

Simulation des phases de construction d’une maquette

Générer trois états successifs d’une maquette architecturale, de la structure brute à la maquette finalisée avec matériaux et paysage.

Phase 1 — Basic structure: A 3D model of the house from the photo, showing only the raw geometric shapes of the walls and roof. Simple, white, untextured object on a clean workspace. Minimalist and architectural style.

Phase 2 — Adding textures and details: The same 3D house model, now with basic textures and details added. Show the gray concrete, light wood paneling, and large windows. Work in progress, tools nearby.

Phase 3 — Finished model: A high-quality 3D render of the completed house model. Fully detailed with realistic materials, all windows, doors, and landscaping. Presented on a minimalist table with professional studio lighting.

Édition et composition avancée — 5 techniques

Famille de prompts génériques pour les opérations d’édition : ajout/suppression d’éléments, masquage sémantique, transfert de style, composition multi-images, et préservation de détails haute fidélité.

8.1 Ajout/suppression :
Using the provided image of [subject], please [add/remove/modify] [element] to/from the scene. Ensure the change is [description of how the change should integrate].

8.2 Masquage sémantique :
Using the provided image, change only the [specific element] to [new element/description]. Keep everything else in the image exactly the same, preserving the original style, lighting, and composition.

8.3 Transfert de style :
Transform the provided photograph of [subject] into the artistic style of [artist/art style]. Preserve the original composition but render it with [description of stylistic elements].

8.4 Composition multi-images :
Create a new image by combining the elements from the provided images. Take the [element from image 1] and place it with/on the [element from image 2]. The final image should be a [description of the final scene].

8.5 Haute fidélité :
Using the provided images, place [element from image 2] onto [element from image 1]. Ensure that the features of [element from image 1] remain completely unchanged. The added element should [description of how the element should integrate].

Ce que l’on retient

ComfyUI s’impose comme un environnement de travail rigoureux pour l’architecte qui souhaite garder le contrôle sur la chaîne de génération. Les workflows multi-nœuds permettent une reproductibilité et une documentation du processus que les interfaces fermées ne permettent pas.

Les modèles spécialisés (ControlNet pour la géométrie, IP-Adapter pour les matériaux, Qwen pour l’éclairage) couvrent les principales étapes de représentation architecturale. L’enjeu est moins d’apprendre à dessiner des prompts que de comprendre quels modèles activer à quelle étape du projet.

La seconde famille d’outils testés (Google Gemini, Nano to Banana) offre une entrée plus directe et conversationnelle, particulièrement efficace pour la génération de planches de concours ou la conversion rapide de photos en représentations techniques. La complémentarité des deux approches semble prometteuse pour un atelier de projet.

 

ComfyUI & IA générative pour l’architecture · 2025